Isaac Asimov dał nam podstawowe zasady dobrego zachowania robota: nie krzywdź ludzi, wykonuj rozkazy i chroń się. Teraz British Standards Institute wydał bardziej oficjalna wersja mający na celu pomoc projektantom w tworzeniu etycznie zdrowych robotów.
Dokument BS8611 roboty a urządzenia zrobotyzowane są napisane suchym językiem instrukcji bezpieczeństwa i higieny pracy, ale niepożądane scenariusze, które podkreśla, można wziąć bezpośrednio z fikcji. Oszustwa robotów, uzależnienie od robotów i możliwość przekraczania ich zakresu przez systemy samouczące się są uważane za zagrożenia, które producenci powinni wziąć pod uwagę.
Powitanie wytycznych w Robotyka społeczna i AI na konferencji w Oksfordzie Alan Winfield, profesor robotyki na University of the West of England, powiedział, że stanowią „pierwszy krok w kierunku wprowadzenia wartości etycznych do robotyki i sztucznej inteligencji”.
„O ile wiem, jest to pierwszy opublikowany standard etycznego projektowania robotów”, powiedział Winfield po tym wydarzeniu. „Jest to nieco bardziej wyrafinowane niż prawo Asimova - w zasadzie określa, jak przeprowadzić etyczną ocenę ryzyka robota”.
Dokument BSI zaczyna się od kilku ogólnych zasad etycznych: „Roboty nie powinny być zaprojektowane wyłącznie lub przede wszystkim do zabijania lub krzywdzenia ludzi; ludzie, a nie roboty, są odpowiedzialnymi agentami; powinno być możliwe ustalenie, kto jest odpowiedzialny za każdego robota i jego zachowanie. ”
Następnie podkreśla szereg bardziej kontrowersyjnych kwestii, takich jak to, czy pożądana jest więź emocjonalna z robotem, zwłaszcza gdy robot jest zaprojektowany do interakcji z dziećmi lub osobami starszymi.
Noel Sharkey, emerytowany profesor robotyki i sztucznej inteligencji na University of Sheffield, powiedział, że jest to przykład, w którym roboty mogą nieumyślnie nas oszukać. „Przeprowadzono ostatnie badanie, w którym małe roboty zostały osadzone w przedszkolu” - powiedział. „Dzieci uwielbiały to i faktycznie łączyły się z robotami. Ale po tym pytaniu dzieci wyraźnie pomyślały, że roboty są bardziej poznawcze niż ich zwierzątko domowe. ”
Aby to zrobić, roboty muszą wiedzieć, co człowiek uważa za „krzywdę”. To może być wszystko, od wyeliminowania naszych miejsc pracy po mikroagresywne komentarze. Policja użyła już robotów do rozerwania „podejrzanego” na kawałki, więc tak jak wszystko inne, rząd i ich roboty mogą ignorować zasady, podczas gdy my i nasze roboty musimy ich przestrzegać.