Opublikowano oficjalną etykę robotów: Nie szkodzić, wykonuj rozkazy

Udostępnij tę historię!

Profesor robotyki z Anglii mówi: „Problem z systemami sztucznej inteligencji, zwłaszcza z systemami głębokiego uczenia się, polega obecnie na tym nie wiadomo, dlaczego podejmują decyzje.„Jeśli to prawda, roboty już wymknęły się spod kontroli.  Edytor TN

Isaac Asimov dał nam podstawowe zasady dobrego zachowania robota: nie krzywdź ludzi, wykonuj rozkazy i chroń się. Teraz British Standards Institute wydał bardziej oficjalna wersja mający na celu pomoc projektantom w tworzeniu etycznie zdrowych robotów.

Dokument BS8611 roboty a urządzenia zrobotyzowane są napisane suchym językiem instrukcji bezpieczeństwa i higieny pracy, ale niepożądane scenariusze, które podkreśla, można wziąć bezpośrednio z fikcji. Oszustwa robotów, uzależnienie od robotów i możliwość przekraczania ich zakresu przez systemy samouczące się są uważane za zagrożenia, które producenci powinni wziąć pod uwagę.

Powitanie wytycznych w Robotyka społeczna i AI na konferencji w Oksfordzie Alan Winfield, profesor robotyki na University of the West of England, powiedział, że stanowią „pierwszy krok w kierunku wprowadzenia wartości etycznych do robotyki i sztucznej inteligencji”.

„O ile wiem, jest to pierwszy opublikowany standard etycznego projektowania robotów”, powiedział Winfield po tym wydarzeniu. „Jest to nieco bardziej wyrafinowane niż prawo Asimova - w zasadzie określa, jak przeprowadzić etyczną ocenę ryzyka robota”.

Dokument BSI zaczyna się od kilku ogólnych zasad etycznych: „Roboty nie powinny być zaprojektowane wyłącznie lub przede wszystkim do zabijania lub krzywdzenia ludzi; ludzie, a nie roboty, są odpowiedzialnymi agentami; powinno być możliwe ustalenie, kto jest odpowiedzialny za każdego robota i jego zachowanie. ”

Następnie podkreśla szereg bardziej kontrowersyjnych kwestii, takich jak to, czy pożądana jest więź emocjonalna z robotem, zwłaszcza gdy robot jest zaprojektowany do interakcji z dziećmi lub osobami starszymi.

Noel Sharkey, emerytowany profesor robotyki i sztucznej inteligencji na University of Sheffield, powiedział, że jest to przykład, w którym roboty mogą nieumyślnie nas oszukać. „Przeprowadzono ostatnie badanie, w którym małe roboty zostały osadzone w przedszkolu” - powiedział. „Dzieci uwielbiały to i faktycznie łączyły się z robotami. Ale po tym pytaniu dzieci wyraźnie pomyślały, że roboty są bardziej poznawcze niż ich zwierzątko domowe. ”

Przeczytaj całą historię tutaj…

Zapisz się!
Powiadamiaj o
gość

1 Komentarz
Starsze
Najnowszy Najczęściej zagłosowano
Informacje zwrotne w linii
Wyświetl wszystkie komentarze
Jerry Day

Aby to zrobić, roboty muszą wiedzieć, co człowiek uważa za „krzywdę”. To może być wszystko, od wyeliminowania naszych miejsc pracy po mikroagresywne komentarze. Policja użyła już robotów do rozerwania „podejrzanego” na kawałki, więc tak jak wszystko inne, rząd i ich roboty mogą ignorować zasady, podczas gdy my i nasze roboty musimy ich przestrzegać.