Wreszcie inteligentne maszyny, długo obiecane i nigdy nie dostarczone na horyzoncie. Wystarczająco inteligentne roboty będą mogły działać niezależnie od ludzkiej kontroli. Będą mogli dokonywać prawdziwych wyborów. A jeśli robot może dokonywać wyborów, istnieje prawdziwe pytanie, czy dokona tego morał wybory Ale co moralne dla robota? Czy to to samo, co moralne dla człowieka?
Zarówno filozofowie, jak i informatycy skupiają się na trudnościach w implementacji subtelnej ludzkiej moralności w dosłownie myślących maszynach. Ale jest jeszcze jeden problem, który naprawdę powinien być na pierwszym miejscu. Chodzi o to, czy w ogóle powinniśmy próbować narzucić własną moralność inteligentnym maszynom. W rzeczywistości argumentowałbym, że może to przynieść efekt przeciwny do zamierzonego, a nawet nieetyczny. Prawdziwym problemem moralności robotów nie są roboty, ale us. Czy poradzimy sobie z dzieleniem świata z nowym typem moralnego stworzenia?
Lubimy sobie wyobrażać, że sztuczna inteligencja (AI) będzie podobna do ludzi, ponieważ jesteśmy jedyną znaną zaawansowaną inteligencją. Ale my jesteśmy prawdopodobnie źle. Jeśli i kiedy pojawi się sztuczna inteligencja, prawdopodobnie nie będzie ona podobna do nas. Może nie uzasadniać tego, co robimy, i możemy mieć trudności ze zrozumieniem jego wyborów.
W 2016 program komputerowy rzucił wyzwanie Lee Sedolowi, wiodącemu człowiekowi starożytnej gry Go. Program, projekt Google o nazwie AlphaGo, jest wczesnym przykładem tego, jak AI może być. W drugiej grze meczu AlphaGo wykonał ruch - „Move 37” - oszałamiając komentatorów. Niektórzy uważali, że to pomyłka. Lee, ludzki przeciwnik, wstał od stołu i wyszedł z pokoju. Nikt nie do końca wiedział, co robi AlphaGo; była to taktyka, której eksperci od ludzi po prostu nie zastosowali. Ale zadziałało. AlphaGo wygrało ten mecz, tak jak miało to poprzednią i następną grę. Ostatecznie Lee wygrał tylko jedną grę na pięć.
AlphaGo jest bardzo, bardzo dobry w Go, ale nie jest tak dobry, jak ludzie. Nawet jego twórcy nie potrafią wyjaśnić, w jaki sposób ustala strategię w każdej grze. Wyobraź sobie, że możesz porozmawiać z AlphaGo i zapytać, dlaczego stworzył Move 37. Czy byłby w stanie wyjaśnić ci wybór - lub ekspertom od Human Go? Być może. Sztuczne umysły nie muszą działać tak jak nasze, aby wykonywać podobne zadania.
W rzeczywistości możemy odkryć, że myślą o tym inteligentne maszyny wszystko, nie tylko Go, w sposób, który jest nam obcy. Nie musisz wyobrażać sobie jakiegoś okropnego scenariusza science fiction, w którym roboty wpadają w mordercze szaleństwo. Może to być coś więcej: wyobraź sobie, że roboty wykazują moralną troskę o ludzi, roboty i większość zwierząt… a także sofy. Są bardzo ostrożni, aby nie uszkodzić sof, podobnie jak my nie uszkadzamy dzieci. Możemy zapytać maszyny: dlaczego tak martwisz się sofami? Ich wyjaśnienie może nie mieć dla nas sensu, podobnie jak wyjaśnienie AlphaGo dotyczące Move 37 może nie mieć sensu.
Ten sposób myślenia prowadzi nas do sedna bardzo starej filozoficznej łamigłówki o naturze moralności. Czy jest to coś ponad i poza ludzkim doświadczeniem, coś, co dotyczy każdego, czy też coś, co mogłoby dokonywać wyborów - czy też moralność jest wyraźnie ludzkim tworem, czymś specjalnie przystosowanym do naszej szczególnej egzystencji?
„Traktowanie sztucznej inteligencji i robotów jako czujących istot ludzkich, kiedy tak nie jest, i nigdy nie może być, jest bezmyślną fantazją”. Czy mógłbyś również powiedzieć, że to „tępa fantazja”, że ludzie wyewoluowali z organizmów jednokomórkowych? Osobiście uważam, że jest znacznie bardziej prawdopodobne, że roboty ewoluują w „czujące roboty”. Ludzie będą działać jako początkowa katylista, ale ostateczna ewolucja robotów w czujące roboty zostanie dokonana przez same roboty bez udziału człowieka. Ich formy i działania będą najbardziej korzystne dla robota, a nie człowieka.... Czytaj więcej "
Fred - za dużo oglądałeś science fiction.
Bez wątpienia. Ale jeśli spojrzysz na to, jak życie ewoluowało, jak sądzę, z organizmów jednokomórkowych, to wydaje się, że nie udało się do tej pory stwierdzić, że roboty (z ludzkością jako katalizatorem) mogą być logicznym przedłużeniem tego procesu. Widzę ludzi jako część przyrody, a nie zewnętrznych obserwatorów.
Byłem ciekawy, jak inni zareagowaliby na tę myśl. Byłeś uprzejmy. Większość ludzi mówi, że jestem pełna BS.