Najlepsi eksperci ostrzegają przed „złośliwym wykorzystaniem” AI

Zdjęcie: Electronic Frontier Foundation
Udostępnij tę historię!

Najlepsi eksperci ostrzegają przed zagrożeniami związanymi z AI, ale czy ktoś nas słucha? Technokraci, którzy wymyślają i wdrażają tę technologię, nie troszczą się o etykę ani o wynik swoich wynalazków. ⁃ Edytor TN

Sztuczna inteligencja może być wykorzystywana przez dyktatorów, przestępców i terrorystów do manipulowania wyborami i wykorzystywania dronów w atakach terrorystycznych - powiedział w środę ponad dwóch tuzinów ekspertów, którzy zabrzmiali alarmowo z powodu niewłaściwego wykorzystania technologii.

W 100-stronicowej analizie przedstawili szybki wzrost cyberprzestępczości i wykorzystanie „botów” do zakłócania zbierania wiadomości i penetrowania mediów społecznościowych wśród wielu prawdopodobnych scenariuszy w ciągu najbliższych pięciu do dziesięciu lat.

„Nasz raport koncentruje się na sposobach, w jakie ludzie mogą celowo szkodzić sztucznej inteligencji” - powiedział Sean O hEigeartaigh, dyrektor wykonawczy Cambridge Center for the Study of Existential Risk.

„Sztuczna inteligencja może stwarzać nowe zagrożenia lub zmieniać charakter istniejących zagrożeń w zakresie bezpieczeństwa cybernetycznego, fizycznego i politycznego” - powiedział AFP.

Na przykład powszechna praktyka „phishingu” - wysyłanie wiadomości e-mail zawierających złośliwe oprogramowanie lub mających na celu wyłudzenie cennych danych osobowych - może stać się znacznie bardziej niebezpieczna, jak opisano w raporcie.

Obecnie próby phishingu są albo ogólne, ale przejrzyste - na przykład oszuści proszą o podanie danych bankowych w celu zdeponowania nieoczekiwanej nagrody - lub spersonalizowane, ale pracochłonne - gromadzą dane osobowe w celu zdobycia czyjegoś zaufania, co jest znane jako „spear phishing”.

„Korzystanie ze sztucznej inteligencji może stać się możliwe do wyłudzania informacji na dużą skalę dzięki automatyzacji wielu procesów” i utrudniając ich wykrycie - zauważa O hEigeartaigh.

W sferze politycznej pozbawieni skrupułów lub autokratyczni przywódcy mogą już wykorzystywać zaawansowaną technologię do przesiewania gór danych zebranych z wszechobecnych sieci nadzoru w celu szpiegowania własnego ludu.

„Dyktatorzy mogliby szybciej zidentyfikować osoby, które mogą planować obalenie reżimu, zlokalizować ich i wsadzić do więzienia, zanim zaczną działać” - czytamy w raporcie.

Podobnie ukierunkowana propaganda wraz z tanimi, wysoce wiarygodnymi fałszywymi filmami wideo stały się potężnymi narzędziami do manipulowania opinią publiczną „na wcześniej niewyobrażalną skalę”.

Akt oskarżenia wydany w zeszłym tygodniu przez prokuratora specjalnego USA Roberta Muellera opisywał szeroko zakrojoną operację mającą na celu zaszczepienie podziałów społecznych w Stanach Zjednoczonych i wpłynięcie na wybory prezydenckie w 2016 r., W których tak zwane „farmy trolli” manipulowały tysiącami robotów w sieciach społecznościowych, zwłaszcza na Facebooku i Świergot.

Inną niebezpieczną strefą na horyzoncie jest rozprzestrzenianie się dronów i robotów, które mogą być przeznaczone do zderzania się z autonomicznymi pojazdami, dostarczania pocisków lub zagrażania krytycznej infrastrukturze w celu uzyskania okupu.

Broń autonomiczna

„Osobiście szczególnie martwię się, że autonomiczne drony są wykorzystywane do terroru i zautomatyzowanych cyberataków zarówno przez przestępców, jak i grupy państwowe” - powiedział współautor Miles Brundage, badacz z Future of Humanity Institute Uniwersytetu Oksfordzkiego.

Raport opisuje prawdopodobny scenariusz, w którym sprzątający biuro SweepBot wyposażony w bombę infiltruje niemieckie ministerstwo finansów, wtapiając się w inne maszyny tego samego producenta.

Przeszkadzający robot zachowuje się normalnie - zamiata, sprzątanie, sprzątanie śmieci - dopóki jego ukryte oprogramowanie do rozpoznawania twarzy nie zauważy ministra i nie zamknie się.

„Ukryte urządzenie wybuchowe zostało uruchomione przez bliskość, zabijając ministra i raniąc pobliski personel”, zgodnie z historią science fiction.

Przeczytaj całą historię tutaj…

Zobacz także, Złośliwe wykorzystanie sztucznej inteligencji: prognozowanie, zapobieganie i łagodzenie w Electronic Frontier Foundation.

Zapisz się!
Powiadamiaj o
gość

0 Komentarze
Informacje zwrotne w linii
Wyświetl wszystkie komentarze