Czy program może wykryć potencjalnych terrorystów, czytając wyraz ich twarzy i zachowanie? Tę hipotezę przetestowała amerykańska administracja ds. Bezpieczeństwa transportu (TSA) w 2003, ponieważ rozpoczęła testowanie nowego programu nadzoru o nazwie Program Kontroli Pasażerów za pomocą technik obserwacji lub w skrócie Spot.
Podczas opracowywania programu skonsultowali się z Paulem Ekmanem, emerytowanym profesorem psychologii na Uniwersytecie Kalifornijskim w San Francisco. Kilkadziesiąt lat wcześniej Ekman opracował metodę identyfikacji drobnych mimiki i przypisywania im odpowiednich emocji. Metodę tę wykorzystano do szkolenia „oficerów wykrywania zachowań” w zakresie skanowania twarzy w celu wykrycia oznak oszustwa.
Ale kiedy program został wprowadzony w 2007, napotkano na problemy. Oficerowie byli odnoszący się pasażerów na przesłuchania, mniej lub bardziej przypadkowe, a niewielka liczba aresztowań, które miały miejsce, była pod zarzutem niezwiązanym z terroryzmem. Jeszcze bardziej niepokojący był fakt, że program miał być rzekomo używany uzasadniać profilowanie rasowe.
Ekman próbował zdystansować się od Spota, twierdząc, że jego metoda była niewłaściwie stosowana. Ale inni sugerowali, że niepowodzenie programu było spowodowane przestarzałą teorią naukową, która leżała u podstaw metody Ekmana; mianowicie, że emocje można wywnioskować obiektywnie poprzez analizę twarzy.
W ostatnich latach firmy technologiczne zaczęły stosować metodę Ekmana do trenowania algorytmów wykrywania emocji na podstawie wyrazu twarzy. Niektórzy programiści twierdzą, że systemy automatycznego wykrywania emocji będą nie tylko lepsze od ludzi w odkrywaniu prawdziwych emocji poprzez analizę twarzy, ale że algorytmy te zostaną dostosowane do naszych najskrytszych uczuć, znacznie poprawiając interakcję z naszymi urządzeniami.
Ale wielu ekspertów badających naukę o emocjach obawia się, że algorytmy te ponownie zawiodą, podejmując bardzo ważne decyzje dotyczące naszego życia na podstawie wadliwej nauki.
Technologia wykrywania emocji wymaga dwóch technik: widzenia komputerowego w celu precyzyjnej identyfikacji wyrazu twarzy oraz algorytmów uczenia maszynowego do analizy i interpretacji zawartości emocjonalnej tych rysów twarzy.
Zazwyczaj w drugim kroku stosuje się technikę zwaną uczeniem nadzorowanym, procesem, w którym algorytm jest szkolony w zakresie rozpoznawania rzeczy, które widział wcześniej. Podstawową ideą jest to, że jeśli pokażesz algorytmowi tysiące zdjęć szczęśliwych twarzy z etykietą „szczęśliwy”, gdy zobaczy nowe zdjęcie szczęśliwej twarzy, ponownie zidentyfikuje ją jako „szczęśliwą”.
Absolwentka, Rana el Kaliouby, była jedną z pierwszych osób, które zaczęły eksperymentować z tym podejściem. W 2001, po przeprowadzce z Egiptu na uniwersytet w Cambridge, aby podjąć doktorat z informatyki, odkryła, że spędza więcej czasu ze swoim komputerem niż z innymi ludźmi. Doszła do wniosku, że gdyby mogła nauczyć komputer rozpoznawania i reagowania na jej stan emocjonalny, czas spędzony z dala od rodziny i przyjaciół byłby mniej samotny.
Kaliouby poświęciła resztę studiów doktoranckich na pracę nad tym problemem, ostatecznie opracowując urządzenie, które pomagało dzieciom z zespołem Aspergera czytać i reagować na mimikę twarzy. Nazywała to „emocjonalnym aparatem słuchowym”.
W 2006 Kaliouby dołączyła do laboratorium Affective Computing w Massachusetts Institute of Technology, gdzie wraz z dyrektorem laboratorium, Rosalind Picard, kontynuowała doskonalenie i udoskonalanie technologii. Następnie w 2009 oni współzałożycielem startup o nazwie Affectiva, pierwszy biznes wprowadzający na rynek „sztuczną inteligencję emocjonalną”.
Największym terrorystą jest rząd
Gdzie dla nich skan twarzy?