Algorytm rozpoznawania twarzy spowodował nieprawidłowe aresztowanie

Udostępnij tę historię!
Ta historia ujawnia, dlaczego Amazon, IBM i Microsoft wycofały się z branży rozpoznawania twarzy, aby odeprzeć pewną krytykę uprzedzeń rasowych. W tym przypadku algorytm przybił niewłaściwego czarnego człowieka za przestępstwo, którego nie popełnił. ⁃ Edytor TN

W czwartkowe popołudnie w styczniu Robert Julian-Borchak Williams był w swoim biurze w firmie zajmującej się zaopatrzeniem w motoryzację, kiedy dostał telefon z Departamentu Policji w Detroit z informacją, że ma przyjść na stację w celu aresztowania. Z początku myślał, że to żart.

Godzinę później, kiedy wjechał na podjazd w cichej dzielnicy Farmington Hills w stanie Michigan, zatrzymał się za nim radiowóz policyjny, który go zablokował. Dwaj oficerowie wysiedli i zakuli w kajdanki pana Williamsa na trawniku przed nim żona i dwie młode córki, które były zrozpaczone. Policja nie powiedziałaby, dlaczego został aresztowany, pokazując mu tylko kawałek papieru ze swoim zdjęciem i słowami „nakaz przestępstwa” i „kradzież”.

Jego żona Melissa zapytała, gdzie go zabrano. „Google go”, wspomina odpowiadający oficer.

Policja zawiozła Williamsa do aresztu. Zabrano mu kubek, odciski palców i DNA, i trzymano go przez noc. Około południa w piątek dwaj detektywi zabrali go do pokoju przesłuchań i położyli trzy kartki papieru na stole twarzą w dół.

„Kiedy ostatni raz poszedłeś do sklepu Shinola?” zapytał jeden z detektywów w pamięci pana Williamsa. Shinola to ekskluzywny butik, który sprzedaje zegarki, rowery i wyroby skórzane w modnej dzielnicy Detroit w centrum miasta. Williams powiedział, że on i jego żona sprawdzili to, kiedy sklep został otwarty w 2014 roku.

Detektyw odwrócił pierwszą kartkę papieru. Był to nieruchomy obraz z nagrania z inwigilacji, przedstawiający grubego mężczyznę, ubranego na czarno i ubranego w czerwoną czapkę St. Louis Cardinals, stojącego przed wyświetlaczem zegarka. Pięć zegarków o wartości 3,800 XNUMX USD zostało skradzionych.

"Czy to ty?" zapytał detektyw.

Drugi kawałek papieru był zbliżeniem. Zdjęcie było niewyraźne, ale najwyraźniej nie był nim pan Williams. Podniósł zdjęcie i przytrzymał je przy twarzy.

„Nie, to nie ja”, powiedział pan Williams. „Myślisz, że wszyscy Czarni wyglądają podobnie?”

Pan Williams wiedział, że nie popełnił przedmiotowej zbrodni. Nie mógł wiedzieć, kiedy siedział w pokoju przesłuchań, że jego sprawa może być pierwszą znaną relacją o niesłusznym aresztowaniu Amerykanina na podstawie błędnego dopasowania algorytmu rozpoznawania twarzy, według ekspertów w dziedzinie technologii i prawa .

Wadliwy system

Szaleje ogólnokrajowa debata rasizm w egzekwowaniu prawa. W całym kraju miliony protestują nie tylko przed działaniami poszczególnych oficerów, ale również stronniczością systemów wykorzystywanych do badania społeczności i identyfikowania osób, które mogą zostać oskarżone.

Policja używa systemów rozpoznawania twarzy ponad dwie dekady. Najnowsze badania autorstwa MIT oraz Narodowy Instytut Norm i Technologiilub NIST odkryli, że chociaż technologia działa stosunkowo dobrze na białych mężczyznach, wyniki są mniej dokładne dla innych danych demograficznych, częściowo z powodu braku różnorodności obrazów używanych do opracowania baz danych.

W zeszłym roku podczas publicznego przesłuchania na temat używania rozpoznawanie twarzy w Detroit, zastępca szefa policji był jednym z tych, którzy zgłosili obawy. „W kwestii fałszywych trafień - jest to absolutnie faktyczne i dobrze udokumentowane” - powiedział James White. „To dotyczy mnie jako afroamerykańskiego mężczyzny”.

Ten miesiąc, AmazonkaMicrosoft i IBM ogłosił, że przestaną lub pauza ich oferty rozpoznawania twarzy dla organów ścigania. Gesty były w dużej mierze symboliczne, biorąc pod uwagę, że firmy nie są dużymi graczami w branży. Technologię używaną przez departamenty policji zapewniają firmy, które nie są nazwiskami domowymi, takie jak Vigilant Solutions, Cognitec, NEC, Rank One Computing i Sztuczna inteligencja Clearview.

Przeczytaj całą historię tutaj…

Zapisz się!
Powiadamiaj o
gość

2 Komentarze
Starsze
Najnowszy Najczęściej zagłosowano
Informacje zwrotne w linii
Wyświetl wszystkie komentarze
DawnieR

Zapomnij o czarnoskórych …… Podejrzewam, że to NIGDY nie zadziała również dla Azjatów !!

dP_Ted

To musiało się stać. To, co mnie dostaje, to osoba, którą wybiera komputer, czasami wygląda trochę inaczej niż rzeczywista osoba, ale tak jest, jak mówi komputer. smh