Ktoś wierci się na długiej linii przy bramie bezpieczeństwa na lotnisku. Czy ta osoba denerwuje się po prostu czekaniem?
A może to pasażer, który ma coś złowrogiego do ukrycia?
Nawet dobrze wyszkoleni oficerowie ds. Bezpieczeństwa na lotnisku Transport Security Administration (TSA) nadal mają trudności z określeniem, czy ktoś kłamie, czy prawdą - pomimo miliardów dolarów i lat badań poświęconych temu tematowi.
Teraz naukowcy z University of Rochester korzystają z analizy danych i internetowej platformy crowdsourcingowej o nazwie ADDR (Automated Dyadic Data Recorder), aby pogłębić nasze rozumienie oszustwa w oparciu o wskazówki dotyczące twarzy i werbalne.
Mają także nadzieję, że zminimalizują przypadki profilowania rasowego i etnicznego, o które krytycy TSA zdarzają się, gdy pasażerowie są odsunięci na bok w ramach przeprowadzonego przez agencję programu kontroli pasażerów przez techniki obserwacji (SPOT).
„Zasadniczo nasz system jest jak Skype na sterydach”, mówi Tay Sen, doktorant w laboratorium Ehsan Hoque, adiunkt w Computer Science. Sen ściśle współpracował z Karmulem Hasanem, innym doktorantem w grupie, przy dwóch artykułach z IEEE Automatyczne rozpoznawanie twarzy i gestów oraz Postępowanie ACM w zakresie technologii interaktywnych, mobilnych, poręcznych i wszechobecnych. Artykuły opisują ramy, w których laboratorium stworzyło największy jak dotąd dostępny publicznie zbiór danych o oszustwach - i dlaczego niektóre uśmiechy są bardziej kłamliwe niż inne.
Gra ujawnia prawdę stojącą za uśmiechem
Oto jak działa ADDR: dwie osoby rejestrują się Amazon Mechanical Turk, internetowy rynek crowdsourcingu, który dopasowuje ludzi do zadań, których komputery obecnie nie są w stanie wykonać. Film wideo przypisuje jedną osobę do opisu, a drugą do przesłuchania.
Osoba opisująca jest następnie wyświetlana jako obraz i jest instruowana, aby zapamiętać jak najwięcej szczegółów. Komputer instruuje opisującego, aby skłamał lub powiedział prawdę o tym, co właśnie zobaczył. Przesłuchujący, który nie był wtajemniczony w instrukcje dla opisującego, następnie zadaje opisującemu zestaw podstawowych pytań niezwiązanych z obrazem. Ma to na celu uchwycenie indywidualnych różnic w zachowaniu, które można wykorzystać do opracowania „spersonalizowanego modelu”. Rutynowe pytania to „w co się wczoraj ubrałeś?” - sprowokować stan psychiczny związany z odzyskaniem pamięci - i „co to jest 14 razy 4?” - sprowokować stan psychiczny istotny dla pamięci analitycznej.
„Wiele razy ludzie pamiętają pewne rzeczy lub mają wyraz twarzy”, powiedział Sen. „Kiedy zadaje się im obliczeniowe pytanie, mają inny rodzaj wyrazu twarzy.”
Są to również pytania, na które świadek nie miałby motywacji do kłamstwa i które stanowią podstawę „normalnych” odpowiedzi tej osoby, gdy udzielają uczciwej odpowiedzi.
I oczywiście istnieją pytania dotyczące samego obrazu, na które świadek udziela albo zgodnej z prawdą, albo nieuczciwej odpowiedzi.
Cała wymiana nagrana jest na osobnym filmie do późniejszej analizy.
1 milionów twarzy
Zaletą tego podejścia crowdsourcingowego jest to, że pozwala on badaczom wykorzystać znacznie większą grupę uczestników badań - i zebrać dane znacznie szybciej - niż byłoby to możliwe, gdyby uczestnicy musieli zostać zabrani do laboratorium, mówi Hoque. Mówi, że brak znormalizowanego i spójnego zestawu danych z wiarygodną podstawową prawdą był główną przeszkodą w badaniach nad oszustwem. W ramach ADDR naukowcy zgromadzili milion 1.3 ramek wyrazów twarzy od par 151 osób grających w grę, w ciągu kilku tygodni wysiłku. Trwa gromadzenie większej ilości danych w laboratorium.
Analiza danych umożliwia naukowcom szybką analizę wszystkich tych danych w nowatorski sposób. Na przykład wykorzystali oprogramowanie do automatycznej analizy rysów twarzy, aby zidentyfikować jednostki akcji używane w danej ramce i przypisać każdemu z nich ciężar liczbowy.
Następnie badacze wykorzystali nienadzorowaną technikę klastrowania - metodę uczenia maszynowego, która może automatycznie znajdować wzorce bez przypisywania jakichkolwiek z góry określonych etykiet lub kategorii.
Powiedział nam, że istnieje pięć rodzajów „twarzy” związanych z uśmiechem, które ludzie robią, odpowiadając na pytania ”- powiedział Sen. Najczęściej kojarzoną z kłamstwem była wersja tak zwanego uśmiechu Duchenne'a o dużej intensywności obejmująca zarówno mięśnie policzka / oka, jak i usta. Jest to zgodne z teorią „Duping Delight”, zgodnie z którą „gdy kogoś oszukasz, masz z tego przyjemność”, wyjaśnił Sen.
Bardziej intrygujące było odkrycie, że uczciwi świadkowie często przymykają oczy, ale nie uśmiechają się wcale ustami. „Kiedy wróciliśmy i odtworzyliśmy wideo, stwierdziliśmy, że często tak się dzieje, gdy ludzie próbują zapamiętać to, co jest na zdjęciu”, powiedział Sen. „To pokazało, że koncentrują się i próbują szczerze przypomnieć sobie”.
Zastanawiam się tylko, jak ludzie mogą żyć całkowicie bez treści, tylko na iluzjach.
Jeśli AI Facial może powiedzieć, kto kłamie, dlaczego dawno temu nie wypróbowali tego na Ala Gore, Obamie, Bushu i 9 września?
Odpowiedź brzmi: sztuczna inteligencja opiera się na fałszywych przesłankach, dlaczego wynik z kursu również musi być fałszywy