Zabójcze roboty? Badacze AI podpisują petycję, mówiąc „nie!”

Udostępnij tę historię!
Dżin już wyszedł z butelki, ale zaawansowani naukowcy zajmujący się sztuczną inteligencją są teraz bardzo zaniepokojeni tym, jak ich kreacje zostaną wykorzystane w autonomicznej wojnie. Sztuczna inteligencja jest bliska samoreplikacji, co oznacza, że ​​nieuczciwe aplikacje nastawione na zabijanie ludzi mogą się rozmnażać, dopóki rasa ludzka nie zginie. ⁃ Edytor TN

Tysiące naukowców specjalizujących się w sztucznej inteligencji (AI) zadeklarowało, że nie będą uczestniczyć w opracowywaniu lub produkcji robotów, które mogą identyfikować i atakować ludzi bez nadzoru ludzi.

Demis Hassabis z Google DeepMind i Elon Musk z amerykańskiej firmy rakietowej SpaceX należą do ponad 2,400 sygnatariusze zobowiązania który ma zniechęcać firmy wojskowe i narody do budowania śmiercionośnych autonomicznych systemów uzbrojenia, znanych również jako prawa.

Jest to najnowszy krok od zainteresowanych naukowców i organizacji, który zwrócił uwagę na niebezpieczeństwa związane z przekazywaniem decyzji o życiu i śmierci maszynom z ulepszoną sztuczną inteligencją. Wynika z wezwań do zakaz wyprzedzający na temat technologii, która według uczestników kampanii może zapoczątkować nową generację broni masowego rażenia.

Zorganizowane przez bostońską organizację The Future of Life Institute zobowiązanie wzywa rządy do uzgodnienia norm, przepisów i regulacji piętnujących i skutecznie zakazujących rozwoju robotów-zabójców. Wobec braku takich środków dzisiaj sygnatariusze zobowiązują się „nie uczestniczyć ani nie wspierać rozwoju, produkcji, handlu ani używania śmiercionośnej broni autonomicznej”. Ponad firmy i organizacje związane z AI 150 dodały swoje nazwy do zobowiązania ogłoszone dzisiaj na międzynarodowej wspólnej konferencji na temat AI w Sztokholmie.

Yoshua Bengio, pionier AI w Montreal Institute for Learning Algorytmy, powiedział Guardianowi, że jeśli obietnica będzie w stanie zawstydzić firmy i organizacje wojskowe budujące autonomiczną broń, opinia publiczna zwróci się przeciwko nim. „Takie podejście faktycznie działało w przypadku min lądowych, dzięki traktatom międzynarodowym i zawstydzeniu publicznemu, mimo że duże kraje, takie jak USA, nie podpisały traktatu zakazującego min lądowych. Amerykańskie firmy przestały budować miny ”- powiedział. Bengio podpisał zobowiązanie do wyrażenia swojej „silnej troski o śmiercionośną autonomiczną broń”.

Wojsko jest jednym z największych sponsorów i użytkowników technologii AI. Dzięki zaawansowanym systemom komputerowym roboty mogą latać misje na trudnym terenie, nawigować na ziemi i patrolować pod wodą. Trwają prace nad bardziej zaawansowanymi systemami uzbrojenia. W poniedziałek sekretarz obrony Gavin Williamson przedstawił plan 2bn £ na nowy myśliwiec RAF, Burza, która będzie mogła latać bez pilota.

Ministrowie Wielkiej Brytanii oświadczyli, że Wielka Brytania nie opracowuje śmiercionośnych autonomicznych systemów broni i że jej siły zawsze będą miały nadzór i kontrolę nad bronią, którą rozmieszcza. Ale działacze ostrzegają, że szybki postęp w AI i innych dziedzinach oznacza, że ​​jest teraz możliwe zbudowanie zaawansowanej broni, która może identyfikować, śledzić i strzelać do ludzkich celów bez zgody kontrolera. Dla wielu badaczy podejmowanie decyzji dotyczących tego, kto żyje i umiera, przekracza linię moralną.

„Musimy uczynić międzynarodową normą, że broń autonomiczna jest niedopuszczalna. Człowiek musi być zawsze na bieżąco - powiedział Toby Walsh, profesor AI na University of New South Wales w Sydney, który podpisał przyrzeczenie

Przeczytaj całą historię tutaj…

Zapisz się!
Powiadamiaj o
gość

1 Komentarz
Starsze
Najnowszy Najczęściej zagłosowano
Informacje zwrotne w linii
Wyświetl wszystkie komentarze
etrgural ghazi serial animowany

dzieci na podstawie prawdziwej historii z książki About Real-Life Kids Who Changed the World