Jeśli chodzi o decyzję o zabiciu człowieka w czasie wojny, czy maszyna powinna podjąć taką decyzję, czy też inny człowiek?
Pytanie jest moralne, wysunięte na pierwszy plan przez techniki i zachęty współczesnej technologii. Jest to pytanie, którego zakres wchodzi w zakres prawa międzynarodowego i które narody debatują od lat. Jest to jednak także problem działań zbiorowych, który wymaga nie tylko stanów, ale także firm i pracowników w firmach, aby dojść do porozumienia w celu rezygnacji z postrzeganej korzyści. Niebezpieczeństwo polega nie tyle na tworzeniu broni, co na tworzeniu broni, która może wybierać cele niezależnie od człowieka odpowiedzialnego za rozpoczęcie jej działania.
W majowym raporcie 8 autorstwa Pax - organizacji non-profit, której wyraźnym celem jest ochrona ludności cywilnej przed przemocą, ograniczenie konfliktów zbrojnych i budowanie sprawiedliwego pokoju - autorzy przyglądają się istniejącemu stanowi sztucznej inteligencji w uzbrojeniu i zachęcają narody, firmy i pracowników do myślenia o tym, jak zapobiec wyścigowi zbrojeń AI, zamiast myśleć o tym, jak go wygrać. Raport ostrzega, że bez działań naprawczych status quo może doprowadzić wszystkich uczestników do sytuacji, w której nie ma wygranych, a wszelkie korzyści wynikające z opracowania autonomicznej broni tymczasowej i ograniczonej.
„Widzimy ten powstający wyścig zbrojeń AI i myślimy, że jeśli nic się nie stanie, będzie to poważne zagrożenie dla ludzkości” - powiedział Frank Slijper, jeden z autorów Raport. „Istnieje możliwość powstrzymania wyścigu zbrojeń AI. Państwa powinny spróbować zapobiec wyścigowi zbrojeń AI i dążyć do uregulowań międzynarodowych. W międzyczasie firmy i instytuty badawcze ponoszą główną odpowiedzialność za dopilnowanie, aby praca w AI i pokrewnych dziedzinach nie przyczyniała się do potencjalnie śmiercionośnej broni autonomicznej. ”
Raport został napisany ze szczególnym uwzględnieniem siedmiu wiodących mocy AI. Należą do nich pięciu stałych członków Rady Bezpieczeństwa ONZ: Chiny, Francja, Rosja, Wielka Brytania i Stany Zjednoczone. Ponadto raport szczegółowo opisuje badania nad sztuczną inteligencją Izraela i Korei Południowej, obu krajów, których położenie geograficzne i polityczne sprzyjało rozwojowi sztucznej inteligencji wojskowej.
„Zidentyfikowaliśmy głównych graczy pod względem wykorzystania oraz działań badawczo-rozwojowych zarówno w zakresie sztucznej inteligencji, jak i wojskowego wykorzystania AI w coraz bardziej autonomicznej broni. Nie mogłem wymyślić nikogo, żadnego stanu, który pominęlibyśmy z tych siedmiu ”- mówi Slijper. „Oczywiście zawsze jest liczba osiem, a liczba dziewięć”.
W przypadku każdej pokrytej mocy sztucznej inteligencji raport analizuje stan sztucznej inteligencji, rolę sztucznej inteligencji w wojsku oraz wiadomo o współpracy między twórcami sztucznej inteligencji w sektorze prywatnym lub uniwersytetach a wojskiem. W krajach takich jak Stany Zjednoczone, w których nazywane są programy wojskowej sztucznej inteligencji, można wskazać rządzące polityki, a debaty na temat związku komercyjnej sztucznej inteligencji z użyciem wojskowym są znane, raport ten szczegółowo przetwarza. Dokładność badań służy podkreśleniu jawnie aktywistycznej misji Paxa, chociaż zapewnia także cenne badanie stanu sztucznej inteligencji na świecie.
Jak utrzymuje raport, ta rola AI w uzbrojeniu nie jest tylko pytaniem dla rządów. To pytanie do osób odpowiedzialnych za firmy i pytanie do pracowników tworzących sztuczną inteligencję dla firm.
„W dużej mierze ma to związek z dość unikalnym charakterem technologii broni nasyconej AI”, mówi Slijper. „Tradycyjnie wiele firm pracujących obecnie nad AI pracowało nad tym z czysto cywilnej perspektywy, aby czynić dobro i pomagać ludzkości. Firmy te nie były tradycyjnie producentami wojskowymi ani dominującymi dostawcami dla wojska. Jeśli pracujesz dla firmy zbrojeniowej, wiesz, dla czego pracujesz. ”
W Stanach Zjednoczonych robotnicy z sektora technologicznego wyrazili sprzeciw wobec udziału w umowach Pentagonu. Po oburzeniu pracownika Google po dowiedzeniu się o zaangażowaniu firmy Project Maven, która opracowała sztuczną inteligencję do przetwarzania materiału z drona dla wojska, kierownictwo firmy zgodziło się przełamać projekt. (Project Maven jest teraz zarządzany przez Andruil wspierany przez Petera Thiela.)
Microsoft też miał doświadczenie opór pracowników do militarnego użycia narzędzia rozszerzonej rzeczywistości HoloLens, przy czym niektórzy pracownicy piszą list stwierdzający, że w rękach Pentagonu czujniki i obróbka zestawu słuchawkowego niebezpiecznie zbliżają go do elementu broni. Pracownicy wyraźnie to zauważyli zbudował HoloLens „Aby pomóc nauczyć ludzi, jak wykonywać operacje lub grać na pianinie, przekraczać granice gier i łączyć się z łazikiem Mars Rover”, a wszystko to jest dalekie od pomocy wojsku w identyfikacji zagrożeń podczas patrolu.
„I myślę, że dla wielu osób pracujących w sektorze technologii dość niepokojące jest to, że chociaż początkowo firma ta głównie lub tylko pracowała nad cywilnymi zastosowaniami tej technologii, teraz coraz częściej widzą, że te technologie były również wykorzystywane w wojsku projekty, a nawet śmiercionośna broń ”- powiedział Slijper.
Slijper wskazuje na Protokół w sprawie broni ślepej jako sposób, w jaki społeczność międzynarodowa uregulowała technologię obejmującą zarówno zastosowania cywilne, jak i wojskowe, aby zapewnić, że jej użycie będzie zgodne z prawem wojennym.
Cóż, Duh. Przynajmniej pracownicy byli odrzucani, gdy potwierdzili, że są wykorzystywani. Ale naprawdę pomyśl o tym. Pracujesz nad komponentami sztucznej inteligencji dla znanych organizacji kontrolowanych i finansowanych przez rząd i nie sądzisz, że najważniejszym aspektem jest uzbrojenie tej technologii w machinę wojenną? OBUDŹ SIĘ, DZIECI! Nie rozdają funduszy, ponieważ są mili. Cała historia kompleksu rządowo-wojskowo-wywiadowczego i to, co finansują, jest tuszowana i zapomniana przez tych, którzy nie chcą widzieć.