Sztuczna inteligencja może być wykorzystywana przez dyktatorów, przestępców i terrorystów do manipulowania wyborami i wykorzystywania dronów w atakach terrorystycznych - powiedział w środę ponad dwóch tuzinów ekspertów, którzy zabrzmiali alarmowo z powodu niewłaściwego wykorzystania technologii.
W 100-stronicowej analizie przedstawili szybki wzrost cyberprzestępczości i wykorzystanie „botów” do zakłócania zbierania wiadomości i penetrowania mediów społecznościowych wśród wielu prawdopodobnych scenariuszy w ciągu najbliższych pięciu do dziesięciu lat.
„Nasz raport koncentruje się na sposobach, w jakie ludzie mogą celowo szkodzić sztucznej inteligencji” - powiedział Sean O hEigeartaigh, dyrektor wykonawczy Cambridge Center for the Study of Existential Risk.
„Sztuczna inteligencja może stwarzać nowe zagrożenia lub zmieniać charakter istniejących zagrożeń w zakresie bezpieczeństwa cybernetycznego, fizycznego i politycznego” - powiedział AFP.
Na przykład powszechna praktyka „phishingu” - wysyłanie wiadomości e-mail zawierających złośliwe oprogramowanie lub mających na celu wyłudzenie cennych danych osobowych - może stać się znacznie bardziej niebezpieczna, jak opisano w raporcie.
Obecnie próby phishingu są albo ogólne, ale przejrzyste - na przykład oszuści proszą o podanie danych bankowych w celu zdeponowania nieoczekiwanej nagrody - lub spersonalizowane, ale pracochłonne - gromadzą dane osobowe w celu zdobycia czyjegoś zaufania, co jest znane jako „spear phishing”.
„Korzystanie ze sztucznej inteligencji może stać się możliwe do wyłudzania informacji na dużą skalę dzięki automatyzacji wielu procesów” i utrudniając ich wykrycie - zauważa O hEigeartaigh.
W sferze politycznej pozbawieni skrupułów lub autokratyczni przywódcy mogą już wykorzystywać zaawansowaną technologię do przesiewania gór danych zebranych z wszechobecnych sieci nadzoru w celu szpiegowania własnego ludu.
„Dyktatorzy mogliby szybciej zidentyfikować osoby, które mogą planować obalenie reżimu, zlokalizować ich i wsadzić do więzienia, zanim zaczną działać” - czytamy w raporcie.
Podobnie ukierunkowana propaganda wraz z tanimi, wysoce wiarygodnymi fałszywymi filmami wideo stały się potężnymi narzędziami do manipulowania opinią publiczną „na wcześniej niewyobrażalną skalę”.
Akt oskarżenia wydany w zeszłym tygodniu przez prokuratora specjalnego USA Roberta Muellera opisywał szeroko zakrojoną operację mającą na celu zaszczepienie podziałów społecznych w Stanach Zjednoczonych i wpłynięcie na wybory prezydenckie w 2016 r., W których tak zwane „farmy trolli” manipulowały tysiącami robotów w sieciach społecznościowych, zwłaszcza na Facebooku i Świergot.
Inną niebezpieczną strefą na horyzoncie jest rozprzestrzenianie się dronów i robotów, które mogą być przeznaczone do zderzania się z autonomicznymi pojazdami, dostarczania pocisków lub zagrażania krytycznej infrastrukturze w celu uzyskania okupu.
Broń autonomiczna
„Osobiście szczególnie martwię się, że autonomiczne drony są wykorzystywane do terroru i zautomatyzowanych cyberataków zarówno przez przestępców, jak i grupy państwowe” - powiedział współautor Miles Brundage, badacz z Future of Humanity Institute Uniwersytetu Oksfordzkiego.
Raport opisuje prawdopodobny scenariusz, w którym sprzątający biuro SweepBot wyposażony w bombę infiltruje niemieckie ministerstwo finansów, wtapiając się w inne maszyny tego samego producenta.
Przeszkadzający robot zachowuje się normalnie - zamiata, sprzątanie, sprzątanie śmieci - dopóki jego ukryte oprogramowanie do rozpoznawania twarzy nie zauważy ministra i nie zamknie się.
„Ukryte urządzenie wybuchowe zostało uruchomione przez bliskość, zabijając ministra i raniąc pobliski personel”, zgodnie z historią science fiction.
Przeczytaj całą historię tutaj…
Zobacz także, Złośliwe wykorzystanie sztucznej inteligencji: prognozowanie, zapobieganie i łagodzenie w Electronic Frontier Foundation.