Tanie drony, sztuczna inteligencja, sprawiają, że nadzór nad dronami jest wszechobecny

Udostępnij tę historię!
Sztuczna inteligencja jako usługa stosowana do tanich dronów oznacza, że ​​każdy organ ścigania może teraz mieć własną flotę dronów do szpiegowania obywateli. Oczywiście od czasu do czasu będą łapać przestępców, ale prawa i prywatność niewinnych cywilów zostaną zdeptane. ⁃ Edytor TN

Niedrogie technologia konsumencka sprawiło, że inwigilacja jest tania, a oprogramowanie AI sprawiło, że stało się ono automatyczne.

Te dwa trendy połączyły się w tym tygodniu, gdy producent dronów DJI partnerCzerwiec 5 z Axon, firmą produkującą broń Taser i policyjne kamery ciała, w celu sprzedaży dronów lokalnym wydziałom policji w całych Stanach Zjednoczonych. Teraz nie tylko lokalna policja ma dostęp do dronów, ale nagrania z latających kamer będą automatycznie analizowane przez systemy AI, które nie zostaną ujawnione publicznie.

Materiał wideo zostanie przesłany lub przesłany strumieniowo do chmury cyfrowej Axon na potrzeby kamer policyjnych, takich jak kamery ciała obecnie sprzedaje, gdzie może być analizowane przez AI Axona i wykorzystywane do wszystkiego, od monitorowania tłumu po poszukiwania i ratowanie, firma pisze, na swojej stronie internetowej.

Brzmi to niejasno, ale AI badania opublikowane dwa dni wcześniej naukowcy z Indii i Wielkiej Brytanii pokazują dokładnie, w jaki sposób można zastosować taki system dronów. Artykuł zatytułowany „Eye in the Sky” szczegółowo opisuje, w jaki sposób można wykorzystać nagrania z drona do wykrywania „gwałtownych osób” w czasie rzeczywistym.

Aby trenować sztuczną inteligencję, naukowcy latali dronem, aby robić zdjęcia 2,000 ludzi udających, że się ranią. Ale ponieważ badacze nie wykorzystali prawdziwych danych i starannie opracowali informacje analizowane przez AI, aby poznać różnicę między przemocą a normalnym ruchem człowieka, nie ma gwarancji, że zadziała ona w prawdziwym świecie, David Sumpter, autor Przewaga liczebna: badanie algorytmów kontrolujących nasze życienapisał na Medium.

„Algorytm dokonał klasyfikacji osób z rękami lub nogami w powietrzu jako agresywnych” - napisał Sumpter. Inni, jak jastrząb etyczny Google, Meredith Whittaker, podsumowałem że badania były wadliwe i „AI stoi w obliczu narastającego kryzysu etycznego”.

Inni badacze, w tym Google (pdf) i Facebook, przeprowadzili również szeroko zakrojone badania, próbując rozwiązać ten sam problem śledzenia ruchu ludzi i tego, co te ruchy mogą oznaczać, że robią.

Ale badacze „Eye in the Sky” starają się kojarzyć niektóre pozycje z intencją. Naukowcy nie dyskutują na temat fałszywych trafień dotyczących działań, które mogłyby zostać błędnie zinterpretowane jako przemoc, takich jak bójka, strącenie muchy z ramienia lub złapanie spadającej osoby.

Niezależnie od pytań dotyczących zasadności AI, The Verge Raporty że naukowcy uzyskali zgodę na przetestowanie technologii podczas dwóch festiwali w Indiach w październiku.

Z $ 160 za Dron papugowy podobnie jak zespół „Eye in the Sky” i kilka groszy za platformę AI w chmurze Amazon, każdy, kto ma doświadczenie w programowaniu, mógłby stworzyć podobny system. Parzysty Nastolatki i hodowcy ogórków budują własne systemy AI.

Przeczytaj całą historię tutaj…

Zapisz się!
Powiadamiaj o
gość

1 Komentarz
Starsze
Najnowszy Najczęściej zagłosowano
Informacje zwrotne w linii
Wyświetl wszystkie komentarze