Były inżynier Google: „Killer Robots” mogą rozpocząć wojnę

Udostępnij tę historię!
W miarę jak rządy przyspieszają wyścig zbrojeń sztucznej inteligencji, aby kierować autonomicznymi robotami z „licencją na zabijanie”, wzrasta również ryzyko okropnych błędów, w tym możliwości rozpoczęcia wojny robotów. ⁃ Edytor TN

Nowa generacja autonomicznej broni lub „zabójczych robotów” może przypadkowo rozpocząć wojnę lub spowodować masowe okrucieństwa, dawny szczyt Google inżynier oprogramowania ostrzegł.

Laura Nolan, która w zeszłym roku zrezygnowała z Google w proteście przeciwko wysłaniu go do pracy nad projektem, który ma znacznie poprawić Amerykańskie wojsko technologia dronów wezwała do zakazania wszystkich maszyn do zabijania AI, które nie są obsługiwane przez ludzi.

Nolan powiedział, że zabójcze roboty nie kierowane ludzkim pilotem powinny zostać zakazane przez ten sam rodzaj traktatu międzynarodowego, który zakazuje broni chemicznej.

W przeciwieństwie do dronów, które są kontrolowane przez zespoły wojskowe często tysiące kilometrów od miejsca, w którym rozmieszczana jest broń latająca, Nolan powiedział, że zabójcze roboty mogą potencjalnie robić „katastrofalne rzeczy, dla których nie były pierwotnie zaprogramowane”.

Nie ma sugestii, że Google jest zaangażowany w rozwój autonomicznych systemów uzbrojenia. W ubiegłym miesiącu panel ekspertów rządowych ONZ debatował nad bronią autonomiczną i stwierdził, że Google unika sztucznej inteligencji do stosowania w systemach broni i stosuje najlepsze praktyki.

Nolan, który dołączył do Kampania zatrzymać roboty zabójców i poinformował dyplomatów ONZ w Nowym Jorku i Genewie o zagrożeniach związanych z bronią autonomiczną: „Prawdopodobieństwo katastrofy jest proporcjonalne do liczby tych maszyn znajdujących się na danym obszarze jednocześnie. To, na co patrzysz, to możliwe okrucieństwa i bezprawne zabójstwa, nawet na podstawie przepisów wojennych, zwłaszcza jeśli setki lub tysiące tych maszyn zostaną rozmieszczone.

„Mogą wystąpić wypadki na dużą skalę, ponieważ te rzeczy zaczną zachowywać się w nieoczekiwany sposób. Właśnie dlatego wszelkie zaawansowane systemy uzbrojenia powinny podlegać znaczącej kontroli ze strony ludzi, w przeciwnym razie trzeba je zbanować, ponieważ są zbyt nieprzewidywalne i niebezpieczne. ”

Google zwerbowała Nolan, absolwentkę informatyki Trinity College Dublin, do pracy w Project Maven w 2017 po tym, jak przez cztery lata była zatrudniona przez giganta technologicznego, stając się jednym z najlepszych inżynierów oprogramowania w Irlandii.

Powiedziała, że ​​„coraz bardziej przejmuje się etycznie” swoją rolą w programie Maven, który został opracowany, aby pomóc Departamentowi Obrony USA radykalnie przyspieszyć technologię rozpoznawania dronów.

Zamiast wykorzystywać dużą liczbę agentów wojskowych do przeglądania kolejnych godzin nagrań wideo przedstawiających potencjalne cele wroga, Nolan i inni zostali poproszeni o zbudowanie systemu, w którym maszyny AI mogłyby różnicować ludzi i przedmioty w nieskończenie szybszym tempie.

Google zezwoliło na wygaśnięcie umowy Project Maven w marcu tego roku po tym, jak ponad 3,000 jej pracowników podpisał petycję w proteście przeciwko zaangażowaniu firmy.

„Jako inżynier ds. Niezawodności witryny moja wiedza specjalistyczna w Google polegała na zapewnieniu ciągłości działania naszych systemów i infrastruktur. Właśnie z tym miałem pomóc firmie Maven. Chociaż nie byłem bezpośrednio zaangażowany w przyspieszenie rozpoznawania materiału wideo, zdałem sobie sprawę, że nadal jestem częścią łańcucha zabójstw; że ostatecznie doprowadziłoby to do tego, że armia USA była celem i zabijała więcej osób w miejscach takich jak Afganistan. ”

Chociaż zrezygnowała z Project Maven, Nolan przewidział, że opracowywanie broni autonomicznej stanowi znacznie większe zagrożenie dla rasy ludzkiej niż zdalnie sterowane drony.

Naszkicowała, w jaki sposób siły zewnętrzne, od zmiany systemów pogodowych po maszyny niezdolne do wypracowania skomplikowanych ludzkich zachowań, mogą zepchnąć zabójcze roboty z potencjalnie śmiertelnymi konsekwencjami.

„Mógłbyś mieć scenariusz, w którym autonomiczna broń, która została wysłana w celu wykonania pracy, konfrontuje się z nieoczekiwanymi sygnałami radarowymi w obszarze, którego szukają; może istnieć pogoda, która nie została uwzględniona w jej oprogramowaniu lub natkną się na grupę uzbrojonych ludzi, którzy wydają się być powstańczymi wrogami, ale w rzeczywistości nie mają broni, szukając pożywienia. Maszyna nie ma rozeznania ani zdrowego rozsądku, które ma ludzki dotyk.

„Inną przerażającą rzeczą w tych autonomicznych systemach wojennych jest to, że można je naprawdę przetestować tylko poprzez rozmieszczenie ich w prawdziwej strefie walki. Może tak się dzieje z Rosjanami w Syrii, kto wie? Wiemy, że Rosja w ONZ sprzeciwiła się jakiemukolwiek traktatowi, a tym bardziej zakazowi stosowania tej broni.

„Jeśli testujesz maszynę, która podejmuje własne decyzje dotyczące otaczającego ją świata, musi to odbywać się w czasie rzeczywistym. Poza tym, jak szkolić system działający wyłącznie na oprogramowaniu, w jaki sposób wykrywać subtelne ludzkie zachowania lub dostrzegać różnicę między myśliwymi a powstańcami? Jak ta maszyna do zabijania na własną rękę rozróżnia między latem 18-a i X -UMX-latem, który poluje na króliki? ”

Przeczytaj całą historię tutaj…

Zapisz się!
Powiadamiaj o
gość

1 Komentarz
Starsze
Najnowszy Najczęściej zagłosowano
Informacje zwrotne w linii
Wyświetl wszystkie komentarze
steve

Przypomina mi to scenę z Gier wojennych - trochę staromodną do obejrzenia teraz - ale bardzo istotną. https://www.youtube.com/watch?v=NHWjlCaIrQo