Co się stanie, gdy maszyny nauczą się manipulować nami poprzez udawanie naszych emocji? Sądząc po tempie, w jakim naukowcy opracowują agentów sztucznej inteligencji podobnych do ludzi, wkrótce się dowiemy.
Naukowcy z całego świata próbują stworzyć sztuczną inteligencję podobną do człowieka. Z definicji rozwijają sztucznych psychopatów. Niekoniecznie jest to zła rzecz - bycie psychopatą nie jest z natury złe, a wszyscy agenci AI są sztucznymi psychopatami tylko dlatego, że brakuje im pełnego zakresu neurotypowych ludzkich emocji.
Ale nakładanie się zachowań psychopatycznych z zachowaniem agentów AI jest niezaprzeczalne. Powinniśmy się temu przyjrzeć, zanim będzie za późno.
Dylemat więźnia
Trio badaczy z University of Waterloo niedawno przeprowadził eksperyment aby określić, w jaki sposób okazywanie emocji może pomóc sztucznej inteligencji w manipulowaniu ludźmi do współpracy. W badaniu wykorzystano klasyczny eksperyment teorii gier zwany „Dylemat więźnia”, który pokazuje, dlaczego ludzie, którzy skorzystaliby na współpracy, często nie.
Istnieje wiele odmian gry, ale w zasadzie jest tak: dwóch więźniów izolowanych od siebie jest przesłuchiwanych przez policję za popełnione wspólnie przestępstwo. Jeśli jeden z nich porywa, a drugi nie, nie zdradzający dostaje trzy lata, a znicz idzie. Działa to w obie strony. Jeśli oboje się znudzą, oboje dostaną dwa lata. Jeśli żaden z nich nie rwie się, każdy otrzymuje tylko jeden rok mniejszej opłaty.
Badanie Waterloo zastąpiło jednego z ludzkich „więźniów” awatarem AI i pozwoliło im interpretować emocje innych. I zamiast kary więzienia używali złota, więc chodziło o uzyskanie jak najwyższego wyniku, a nie najniższego. Tak jak powiedzieliśmy, istnieją odmiany gry. Ale, co ważniejsze, odkryli, że ludzi łatwiej można było zmanipulować na wyniki współpracy poprzez poprawę poziomu AI podobnych do ludzkich zachowań. Według badań zespołu Waterloo papier:
Podczas gdy naukowcy mogą z powodzeniem poprawić postrzeganie cech wyjątkowości człowieka, czyniąc agentów mądrzejszymi, emocje są kluczowe dla postrzegania cech natury ludzkiej. Ta poprawa wpłynęła również pozytywnie na współpracę użytkowników z agentem i ich przyjemność.
Tymczasem niedawno opublikowano inny zespół naukowców inny eksperyment obejmujące problem Dylematu Więźnia. Naukowcy z Victoria University of Wellington i University of Southampton podzielili ochotników studentów 190 na cztery grupy składające się z różnych proporcji studentów neurotypowych i wykazujących cechy psychopatii. Naukowcy odkryli, że posiadanie psychopatów w dynamice grupy było zgodne z mniejszą współpracą.
Żeby było jasne, w badaniu Victory / Southhampton nie wykorzystano ludzi uważanych za kompletnych psychopatów, ale studentów, którzy wykazywali większą liczbę cech psychopatycznych niż inni. Celem tego badania było ustalenie, czy wprowadzenie osób, które wykazywały choćby trochę psychopatii, zmieniłoby dynamikę grupy. Okazało się, że:
Nasze wyniki pokazują, że osoby o wyższym poziomie cech psychopatycznych wpływają na dynamikę grupy. Stwierdziliśmy znaczną rozbieżność współpracy w tych grupach, które mają wysoką gęstość wysokich psychopatycznych uczestników w porównaniu z grupami o zerowej gęstości.
Przyjazny wymuszacz
Wprowadzenie do społeczeństwa na wpół upieczonych środków emocjonalnych może być koszmarne. Kolejne niedawne badanie eksperymentu Dylemat Więźnia, przeprowadzone przez Towarzystwo Maxa Plancka, wskazuje, że najlepszą strategią w grze jest zostać „przyjaznym wymuszeniem”. Mówiąc w skrócie, mówi się, że kiedy dostępne są premie i zachęty, najlepszą grą jest stworzenie iluzji współpracy podczas manipulowania drugim graczem w celu współpracy bez względu na to, ile razy nie.
Cóż, zajęło to trasę okrężną, ale na koniec zdałem sobie sprawę, że autor mówi, że AI jest socjopatyczna i może zepsuć nasze społeczeństwo na długi czas.