Projekt

Jednym z głównych kryzysów naszych czasów jest wszechobecne rozpowszechnianie dezinformacji, fałszywych wiadomości, teorii spiskowych, a w konsekwencji erozja zaufania do mediów, nauki i instytucji rządowych. Kryzys komunikacyjny, jak go nazwiemy, został zaostrzony przez wykorzystanie cyfrowych środków dyskursu. Przewidujemy, że zostanie on jeszcze bardziej zintensyfikowany, ponieważ w niedalekiej przyszłości wielu naszych rozmówców nie będzie już ludźmi, ale agentami konwersacyjnymi sterowanymi przez sztuczną inteligencję. Proponujemy systematyczne, międzykulturowe, badanie odpowiedzialnych zasad działania agentów konwersacyjnych sterowanych przez AI, aby pomóc złagodzić lub zapobiec nowej fali kryzysu komunikacyjnego napędzanego przez AI.

Przedsięwzięcie badawcze, które znajduje się na styku etyki, językoznawstwa, nauk o mediach i komunikacji, a także informatyki, będzie empirycznie analizować (i) oczekiwania normatywne w, opartych na języku naturalnym, interakcjach między człowiekiem a sztuczną inteligencją, a także (ii) ocenę naruszeń norm i ich dalszych interaktywnych konsekwencji w kilku językach i kulturach europejskich i pozaeuropejskich. Będziemy uważnie (iii) śledzić istotne moderatory (np. kontekst, funkcję, złożoność modelu systemu sztucznej inteligencji, istotność zagadnienia) i mediatory (np. postrzeganą sprawczość, projekcję umysłu), aby (iv) zbadać ich wpływ na ocenę i skłonność do polegania na konwersacyjnych systemach sztucznej inteligencji w różnych kulturach. Na podstawie uzyskanych wyników (v) zaproponujemy zasady odpowiedzialnego projektowania i korzystania z agentów konwersacyjnych opartych na sztucznej inteligencji, które zostaną przetestowane w opartej na sztucznej inteligencji aplikacji dziennikarskiej Reporter dostarczonej przez naszego partnera stowarzyszonego, Polaris News.