Jeśli widzenie jest przekonaniem, przygotuj się na oszustwo

Wikipedia Commons
Udostępnij tę historię!
Kiedy ekoświat dostanie w swoje ręce „głębokie fałszywe” oprogramowanie AI, może tworzyć obrazy Ziemi, których nie można wykryć jako fałszywe, wstawiając rzeczy, których nie ma, i usuwając rzeczy, które tam są. Zapomnij o „kłamstwie ze statystykami”; Teraz kłamie z obrazami. ⁃ Edytor TN

Krok 1: Użyj AI, aby wprowadzić niewykrywalne zmiany w zdjęciach na zewnątrz. Krok 2: wypuść ich w świat open source i ciesz się chaosem.

Martwić się o głębokie podróbki- zmanipulowane maszynowo filmy celebrytów i światowych przywódców, które rzekomo mówią lub robią rzeczy, których tak naprawdę nie zrobiły - są ciekawe w porównaniu z nowym zagrożeniem: udokumentowanymi obrazami samej Ziemi.

Chiny są uznanym liderem w stosowaniu nowej techniki zwanej generatywnymi sieciami przeciwników do oszukiwania komputerów w oglądaniu obiektów w krajobrazach lub na zdjęciach satelitarnych, których nie ma, mówi Todd Myers, dyrektor ds. Automatyzacji i dyrektor ds. Informacji w biurze dyrektora ds. Technologii w National Geospatial-Intelligence Agency.

„Chińczycy są daleko przed nami. To nie jest informacja niejawna ”- powiedział Myers w czwartek podczas drugiego roku Genialne maszyny szczyt, którego gospodarzem jest Obrona pierwsza i Nextgov. „Chińczycy już zaprojektowali; robią to już teraz, używając GAN - generatywnych sieci przeciwników - do manipulowania scenami i pikselami w celu tworzenia rzeczy z niecnych powodów. ”

Na przykład, zdaniem Myersa, przeciwnik może oszukać twoich komputerowych analityków obrazów do zgłoszenia, że ​​most w danym punkcie przecina ważną rzekę.

„Tak więc z perspektywy taktycznej lub planowania misji trenujesz swoje siły, aby przejść określoną trasę w kierunku mostu, ale jej tam nie ma. Potem czeka na ciebie wielka niespodzianka - powiedział.

Imię opisane w 2014, GAN reprezentują dużą ewolucję sposobu, w jaki sieci neuronowe uczą się widzieć i rozpoznawać obiekty, a nawet wykrywać prawdę z fikcji.

Powiedzmy, że prosisz konwencjonalną sieć neuronową o ustalenie, które obiekty są tym, co na zdjęciach satelitarnych. Sieć rozbije obraz na wiele części lub klastrów pikseli, obliczy, w jaki sposób te połamane fragmenty są ze sobą powiązane, a następnie określi, jaki jest produkt końcowy lub czy zdjęcia są prawdziwe, czy spreparowane. Wszystko opiera się na doświadczeniu związanym z oglądaniem wielu zdjęć satelitarnych.

Sieci GAN odwracają ten proces, łącząc dwie sieci ze sobą - stąd słowo „przeciwnik”. Konwencjonalna sieć może powiedzieć: „Obecność x, yiz w tych klastrach pikseli oznacza, że ​​jest to obraz kota”. sieć GAN może powiedzieć: „To jest zdjęcie kota, więc x, yiz muszą być obecne. Co to są x, yiz i jak się odnoszą? kiedy być może nie jest.

Wielu naukowców uważa, że ​​GAN są przydatne do wykrywania obiektów i sortowania prawidłowych obrazów od fałszywych. W 2017 używali chińskich uczonych GAN do identyfikacji dróg, mostów i innych obiektów na zdjęciach satelitarnych.

Obawy, jako technologów AI powiedział kwarc w zeszłym roku jest to, że ta sama technika, która pozwala odróżnić prawdziwe mosty od fałszywych, może również pomóc w stworzeniu fałszywych mostów, których AI nie może odróżnić od prawdziwych rzeczy.

Myers martwi się, że ponieważ świat coraz bardziej polega na obrazach typu open source w celu zrozumienia terenu fizycznego, tylko garść fachowo zmanipulowanych zestawów danych wprowadzonych do linii dostarczania obrazów typu open source może spowodować spustoszenie. „Zapomnij o [Departamencie Obrony] i [społeczności wywiadowczej]. Wyobraź sobie celowe infiltrowanie Map Google. I wyobraź sobie za pięć lat, kiedy Półwysep Tesla czy są tam routery? ”- powiedział.

Jeśli chodzi o fałszywe filmy ludzi, wskaźniki biometryczne jak puls i mowa mogą pokonać fałszywy efekt. Ale sfałszowany krajobraz nie jest wrażliwy na te same techniki.

Przeczytaj całą historię tutaj…

Zapisz się!
Powiadamiaj o
gość

1 Komentarz
Starsze
Najnowszy Najczęściej zagłosowano
Informacje zwrotne w linii
Wyświetl wszystkie komentarze