Google po cichu zabezpieczył kontrakt na pracę nad nową inicjatywą Departamentu Obrony w zakresie walki algorytmicznej, zapewniając pomoc w pilotażowym projekcie zastosowania rozwiązań sztucznej inteligencji do namierzania dronów.
Kontrakt wojskowy z Google jest przekazywany przez firmę zajmującą się technologią w Północnej Wirginii o nazwie ECS Federal, co ukrywa tę relację przed opinią publiczną.
Umowa, pierwszy zgłoszony wtorek autorstwa Gizmodo, jest częścią gwałtownego nacisku ze strony Pentagonu na wdrożenie najnowocześniejszej technologii sztucznej inteligencji w celu poprawy wydajności bojowej.
Firma Google, która poczyniła postępy w stosowaniu zastrzeżonych narzędzi do głębokiego uczenia się w celu ulepszenia tłumaczenia językowego i rozpoznawania wzroku, współpracuje między zespołami w firmie nad projektem drona AI.
Zespół, o którym dowiedział się The Intercept, pracuje nad technologią głębokiego uczenia się, aby pomóc analitykom dronów w interpretacji ogromnych danych obrazu, które zostały usunięte z floty wojskowej Drony 1,100 aby lepiej celować w ataki bombowe na Państwo Islamskie.
Wyścig o przyjęcie najnowocześniejszej technologii sztucznej inteligencji został ogłoszony w kwietniu 2017 r. Przez ówczesnego zastępcę sekretarza obrony Roberta Work, który przedstawił ambitny plan o nazwie Algorithmic Warfare Cross-Functional Team, o kryptonimie Project Maven. Inicjatywa, jak napisał Work w notatce obejmującej całą agencję, ma na celu „przyspieszenie integracji DoD dużych zbiorów danych i uczenia maszynowego” oraz „szybkie przekształcenie ogromnej ilości danych dostępnych dla DoD w przydatne informacje i spostrzeżenia”.
Pierwsza faza Project Maven, która obejmuje wiele zespołów z całego Departamentu Obrony, to próba zautomatyzowania identyfikacji i klasyfikacji obrazów wykonanych przez drony - samochody, budynki, ludzi - zapewniając analitykom zwiększoną zdolność podejmowania świadomych decyzji na polu bitwy. .
„Technologia oznacza obrazy do oceny przez ludzi i służy wyłącznie do celów nieobraźliwych” rzecznik Google powiedział Bloombergowi. „Wykorzystanie uczenia maszynowego przez wojsko w naturalny sposób budzi uzasadnione obawy. Aktywnie omawiamy ten ważny temat wewnętrznie i wspólnie z innymi, kontynuując opracowywanie zasad i zabezpieczeń dotyczących rozwoju i wykorzystania naszych technologii uczenia maszynowego. ”
Chodzi o to, aby zasadniczo zapewnić narzędzie rekomendacji, aby program AI mógł szybko wyróżniać interesujące miejsca wokół danego zdarzenia lub celu, aby analitycy dronów mogli pracować wydajniej.
Wydział ogłosił w zeszłym roku inicjatywa AI, nieco ponad sześć miesięcy po ogłoszeniu, została wykorzystana przez analityków wywiadu do ataków dronów na ISIS w nieujawnionym miejscu na Bliskim Wschodzie.
Gregory C. Allen, współpracownik Centrum Center New American Security, mówi, że inicjatywa ma wiele niezwykłych cech, od szybkiego rozwoju do poziomu integracji z kontrahentami.
„Deweloperzy mieli dostęp do użytkowników końcowych na bardzo wczesnym etapie procesu. Uznali, że [z] systemami AI… musieliście zrozumieć, co ich użytkownik końcowy zamierza z nimi zrobić ”- powiedział Allen. „Wojsko ma okropnie wielu ekspertów analizujących zdjęcia dronów:„ To są części mojej pracy, których nienawidzę, oto co chciałbym zautomatyzować ”. Był taki iteracyjny proces rozwoju, który był bardzo dobrze znany w świecie komercyjnego oprogramowania, ale nieznany w świecie obronnym. ”
„Byli dumni z tego, jak szybko postępowali, byli dumni z jakości, jaką otrzymywali” - dodał Allen, współautor książki „Artificial Intelligence and National Security”, raport w imieniu amerykańskiej agencji wywiadowczej Advanced Advanced Research Projects Activity.