Uczymy już od 34 958 dni
Projekty

Botonomia: wpływ inteligentnych maszyn na zachowania ekonomiczne

Jednostka finansująca: Narodowe Centrum Nauki

Konkurs: SONATA BIS-11

Nr rejestracyjny: UMO-2021/42/E/HS4/00289

Czas trwania projektu: 29.03.2022 – 28.03.2027

Budżet: 1 856 663,00 PLN

W roku 2019 Google wprowadził na rynek bota Duplex, algorytm komputerowy, który potrafił prowadzić rozmowy głosowe. Cechą tego bota była umiejętność imitowania mowy człowieka tak dobrze, że ludzie nie wiedzieli, że rozmawiają z maszyną, a nie z człowiekiem. Rok później, komputer bazujący na zaawansowanym modelu przetwarzania języka naturalnego (GPT-3) współtworzył artykuł opublikowany w The Guardian.

Wraz z rozwojem botów, drastycznie wzrośnie ich wpływ na nasze społeczeństwo. Zmienią one to jak będziemy korzystać z urządzeń elektronicznych (głównie za pomocą głosu), to jak będziemy podejmować decyzje (coraz częściej w oparciu o rady bota, dotyczące takich kwestii jak np. miejsce spędzania wakacji), oraz to jak wykonamy naszą pracę (np. współpracując przy stawianiu diagnozy medycznej). W konsekwencji kluczowym jest wyjaśnienie zawiłości komunikacji i współpracy pomiędzy człowiekiem a maszyną, tak abyśmy skorzystali z tej technologii jako społeczeństwo, a nie stali się jej ofiarą. Nadal wiemy niewiele na temat tego, jak boty wpłyną na decyzje o charakterze ekonomicznym. Przykładowo, przebieg interakcji z zaawansowanym botem może decydować o decyzjach inwestycyjnych, podobnie jak to dzieje się obecnie w przypadku (mniej zaawansowanych) robodoradców (np. Betterment). W ramach trzech wątków badawczych, skupimy się na podobnych zachowaniach o charakterze ekonomicznym. Skorzystanie z tego samego algorytmu, który napisał artykuł w The Guardian (GPT-3) pozwala badaczom już teraz przyjrzeć się temu, jak będzie wyglądać interakcja z botami w przyszłości.

W pierwszym wątku zbadamy kwestię jak uniknąć niekorzystnej reakcji człowieka na maszynę. Wyniki dotychczasowych badań wskazują, że – w wielu okolicznościach – ludzie nie lubią, gdy maszyna (lub algorytm) mówi im co mają zrobić (preferując doradztwo człowieka). Jest to zjawisko, które jest znane jako awersja do algorytmów. Poprzez nasze badania sprawdzimy, czy „zwiększenie” obecności człowieka w interakcji zmniejsza tę awersję. Zbadamy także, czy zachowania ekonomiczne będą odmienne, jeśli osoba wejdzie w interakcję z konwersacyjnym botem (zamiast ze statycznym, niekonwersacyjnym botem), botem dostrojonym przez człowieka z dużą wiedzą ekspercką (np. przez ekonomistę), lub jeśli osoba ma chwilowo mniejsze zasoby mentalne (jest pod wpływem obciążenia poznawczego).

Drugi wątek dotyczy tego jak maszyny mogą zwiększyć nieetyczne lub antyspołeczne zachowania. Istniejące badania wskazują na to, że z jednej strony, nie lubimy, gdy maszyny podejmują decyzje mające podłoże moralne. Z drugiej strony, maszyny nie są skore do wydawania krytycznych osądów o nas, co sprawia, że zachowanie się “przed nimi” w sposób nieetyczny jest łatwiejsze. W projekcie wykorzystamy nowe narzędzia, które pozwolą nam lepiej zrozumieć, jak maszyny mogą zwiększyć naszą skłonność do nieetycznych zachowań. Ponadto, przetestujemy, czy ludzie staną się bardziej skłonni do nieetycznych zachowań, jeśli bot został dostrojony przez osobę z wysoką pozycją moralną (np. przez etyka).

Następnie zbadamy, czy ludzie zachowują się mniej prospołecznie i są mniej ufni wobec osób, jeśli ich działania są wspomagane przez bota, lub jeśli druga osoba korzysta z bota. Wreszcie, przetestujemy, czy interakcja z maszyną zamiast z człowiekiem sprawia, że ludziom łatwiej jest dokonywać osądów moralnych, które nie są społecznie pożądane.

Trzeci wątek dotyczy tego jak boty mogą wykorzystać „dźwignię afektywną”, w celu zwiększenia pożądanych zachowań. To już ma miejsce. Przykładowo, w jednej firmie algorytm słucha, jak pracownicy wchodzą w interakcje z klientami i sugeruje im, co powinni powiedzieć w danym momencie. W naszym projekcie zbadamy jak efektywnie boty mogą odgadnąć co dana osoba myśli i czuje, w celu dostosowania sposobu mówienia do tej osoby (i, w konsekwencji, zwiększenia pożądanych zachowań ekonomicznych). Dodatkowo, zbadamy, czy ludzie uznają za społecznie akceptowalne to, że boty podejmują takie działania.

Kierownik projektu

dr Paweł Niszczota

Katedra Finansów Międzynarodowych