Wyścig zbrojeń sztucznej inteligencji jest nieunikniony, ale czy można go kontrolować?

Udostępnij tę historię!

Światowe Forum Ekonomiczne rozumie, że sztuczna inteligencja wywołała międzynarodowy wyścig zbrojeń, ale wynik jest nadal niejasny. Z umysłu technokraty sztuczna inteligencja jest rozwiązaniem wszystkich społecznych i osobistych problemów ludzkości.  Edytor TN

Maszyny powstają, podporządkowując ludzkość. To trop science fiction, prawie tak stary jak same maszyny. Scenariusze zagłady omówione w tym temacie są tak dziwaczne Macierz, w którym sztuczna inteligencja stworzona przez człowieka wpina ludzi w symulowaną rzeczywistość w celu pozyskiwania energii z ich ciał - trudno jest wyobrazić sobie ich jako poważne zagrożenie.

Tymczasem sztucznie inteligentne systemy wciąż się rozwijają. Samochody samojezdne zaczynają dzielić nasze drogi; kieszonkowe urządzenia odpowiadają na nasze zapytania i zarządzają naszymi harmonogramami w czasie rzeczywistym; algorytmy pokonały nas w Go; roboty stają się lepsze w wstawaniu, gdy się przewracają. Oczywiste jest, w jaki sposób rozwój tych technologii przyniesie korzyści ludzkości. Ale w takim razie - czy wszystkie dystopijne historie science fiction nie zaczynają się w ten sposób?

Każda dyskusja na temat dystopijnego potencjału AI grozi zbliżeniem się do jednej z dwóch skrajności. Jednym z nich jest nadmiernie łatwowierny stracharz. Oczywiście Siri nie zamierza przekształcić się w morderczy HAL 2001: Odyseja kosmiczna. Ale druga skrajność jest równie niebezpieczna - samozadowolenie, że nie musimy myśleć o tych kwestiach, ponieważ zagrażająca ludzkości sztuczna inteligencja jest za kilkadziesiąt lat.

Prawdą jest, że sztuczna „superinteligencja”, ukochana w sci-fi, może być w przyszłości przez wiele dziesięcioleci, jeśli to w ogóle możliwe. Jednak ostatnia ankieta przeprowadzona przez czołowych badaczy AI przez TechEmergence odkrył wiele obaw związanych z zagrożeniami bezpieczeństwa AI w znacznie bardziej realistycznych ramach czasowych 20, w tym załamanie systemu finansowego w wyniku nieoczekiwanej interakcji algorytmów oraz potencjał sztucznej inteligencji do pomagania złośliwym podmiotom w optymalizacji broni biotechnologicznej.

Przykłady te pokazują, w jaki sposób, obok postępu technologicznego na wielu frontach, Czwarta Rewolucja Przemysłowa zapowiada szybką i masową demokratyzację zdolności do spustoszenia na bardzo dużą skalę. Po ciemnej stronie „głębokiej sieci”, gdzie informacje są ukryte przed wyszukiwarkami, do sprzedaży istnieją już niszczycielskie narzędzia z szeregu powstających technologii, od broni z nadrukiem 3D po materiały rozszczepialne i sprzęt do inżynierii genetycznej w domowych laboratoriach. W każdym przypadku sztuczna inteligencja zwiększa ryzyko wyrządzenia szkody.

Rozważ inną możliwość wymienioną w ankiecie TechEmergence. Jeśli połączymy pistolet, dron kwadrokoptera, aparat o wysokiej rozdzielczości i algorytm rozpoznawania twarzy, który nie musiałby być znacznie bardziej zaawansowany niż aktualne najlepsi w swojej klasie, teoretycznie moglibyśmy stworzyć maszynę, którą możemy zaprogramować do latania nad tłumem, szukania konkretnych twarzy i zabijania celów w zasięgu wzroku.

Takie urządzenie nie wymagałoby superinteligencji. Można sobie wyobrazić użycie obecnej, „wąskiej” sztucznej inteligencji, która nie może jeszcze dokonać takich twórczych skoków zrozumienia w różnych domenach, jak ludzie. Opracowanie „sztucznej inteligencji ogólnej” lub AGI - co wydaje się prawdopodobne wcześniej czy później - znacznie zwiększy zarówno potencjalne korzyści AI, jak i słowa Jeffa Goddella, jego ryzyko dla bezpieczeństwa, „wymuszające nowy rodzaj księgowości za pomocą dżina technologicznego”.

Ale nie zastanawia się wystarczająco nad możliwym do zbrojenia potencjałem sztucznej inteligencji. Tak jak Wendell Wallach mówi: „Nawigowanie w przyszłości możliwości technologicznych jest ryzykownym przedsięwzięciem”, zauważa. „Zaczyna się od nauki zadawania właściwych pytań - pytań, które ujawniają pułapki bezczynności, a co ważniejsze, dostępne są przejścia umożliwiające zaplanowanie kursu do bezpiecznego portu”.

Wyzwania dotyczące nierozprzestrzeniania

Wybitni uczeni, w tym Stuart Russell wydali wezwać do działania aby uniknąć „potencjalnych pułapek” w rozwoju sztucznej inteligencji poparła czołowi technologowie, w tym Elon Musk, Demis Hassabis, Steve Woźniak i Bill Gates. Jednym z głośnych pułapek mogą być „śmiercionośne autonomiczne systemy broni” (LAWS) - lub, mówiąc bardziej mówiąc, „zabójcze roboty”. Postęp technologiczny w robotyce i cyfrowa transformacja bezpieczeństwa już zmieniły podstawowy paradygmat działań wojennych. Stosownie do Christophera Cokera „Technologia 21st wieku zmienia nasze rozumienie wojny w bardzo niepokojący sposób”. W pełni rozwinięte PRAWA prawdopodobnie przekształcą współczesną wojnę tak dramatycznie, jak proch strzelniczy i broń nuklearna.

Rada Praw Człowieka ONZ ma wezwał do moratorium w sprawie dalszego rozwoju LAWS, podczas gdy inne grupy aktywistów i kampanie opowiadały się za całkowitym zakazem, czerpiąc analogię z bronią chemiczną i biologiczną, którą społeczność międzynarodowa uważa za nie do przyjęcia. Trzeci rok z rzędu państwa członkowskie Organizacji Narodów Zjednoczonych spotkały się w zeszłym miesiącu w celu omówienia wezwania do wprowadzenia zakazu i zapewnienia, aby dalszy rozwój PRAW był zgodny z międzynarodowym prawem humanitarnym. Jednak gdy przełomowa technologia broni nie ogranicza się już do kilku dużych sił zbrojnych, wysiłki na rzecz nierozprzestrzeniania broni stają się znacznie trudniejsze.

Debatę komplikuje fakt, że definicje pozostają zagmatwane. Platformy, takie jak drony, są często mylone z bronią, którą można ładować na platformy. Idea proszenia systemów o wykonywanie wąsko zdefiniowanych zadań, takich jak identyfikacja i eliminacja pojazdów opancerzonych poruszających się w określonym obszarze geograficznym, nie zawsze różni się od idei przyznania systemom swobodnego interpretowania bardziej ogólnych misji, takich jak „zwycięstwo wojna" .

Przeczytaj całą historię tutaj…

Zapisz się!
Powiadamiaj o
gość

0 Komentarze
Informacje zwrotne w linii
Wyświetl wszystkie komentarze