To oprogramowanie ratujące życie. Nowa technologia sztucznej inteligencji „proaktywnego wykrywania” Facebooka przeskanuje wszystkie posty pod kątem wzorców myśli samobójczych, a w razie potrzeby wyśle zasoby zdrowia psychicznego do zagrożonego użytkownika lub jego przyjaciół, lub skontaktuje się z lokalnymi służbami ratowniczymi. Używając sztucznej inteligencji do zgłaszania niepokojących postów moderatorom zamiast czekać na zgłoszenia użytkowników, Facebook może skrócić czas potrzebny na wysłanie pomocy.
Facebook poprzednio przetestowane przy użyciu AI do wykrywania kłopotliwych postów i bardziej widoczne opcje zgłaszania samobójstw do znajomych w USA Teraz Facebook będzie przeszukiwać wszystkie rodzaje treści dookoła świata z tą sztuczną inteligencją, z wyjątkiem Unii Europejskiej, gdzie Ogólne rozporządzenie o ochronie danych przepisy dotyczące prywatności dotyczące profilowania użytkowników na podstawie poufnych informacji komplikują korzystanie z tej technologii.
Facebook będzie również używał AI do nadawania priorytetu szczególnie ryzykownym lub pilnym raportom użytkowników, dzięki czemu moderatorzy szybciej zajmą się nimi oraz narzędziami do natychmiastowego ujawnienia zasobów w języku lokalnym i informacji kontaktowych pierwszej osoby. Poświęca także więcej moderatorów zapobieganiu samobójstwom, szkoląc ich, jak radzić sobie ze sprawami 24 / 7, a teraz ma lokalnych partnerów 80, takich jak Save.org, National Suicide Prevention Lifeline i Forefront, z których zapewnia zasoby zagrożonym użytkownikom i ich sieciom .
„Chodzi o to, aby skrócić minuty na każdym etapie procesu, zwłaszcza w usłudze Facebook Live” - mówi wiceprezes ds. Zarządzania produktem Guy Rosen. W ciągu ostatniego miesiąca testów Facebook zainicjował ponad 100 „kontroli kondycji”, w których osoby udzielające pierwszej odpowiedzi odwiedzały użytkowników, których dotyczy problem. „Zdarzały się przypadki, gdy przybył ratownik, a osoba nadal nadaje”.
Pomysł proaktywnego skanowania treści postów przez Facebooka może wywoływać pewne dystopijne obawy przed tym, jak jeszcze można zastosować tę technologię. Facebook nie miał odpowiedzi na temat tego, w jaki sposób uniknąłby skanowania w poszukiwaniu politycznego sprzeciwu lub drobnej przestępczości, a Rosen powiedział po prostu „mamy tutaj okazję pomóc, więc zamierzamy w to zainwestować”. Z pewnością są ogromne korzyści technologia, ale to kolejna przestrzeń, w której nie mamy wyboru, ale mamy nadzieję, że Facebook nie posunie się za daleko.
Mark Zuckerberg, dyrektor generalny Facebooka, pochwalił dzisiaj aktualizację produktu w poście, pisząc to „W przyszłości sztuczna inteligencja będzie w stanie zrozumieć bardziej subtelne niuanse języka i będzie w stanie zidentyfikować różne problemy poza samobójstwem, w tym szybkie wykrywanie innych rodzajów zastraszania i nienawiści”.
Niestety, po tym, jak TechCrunch zapytał, czy istnieje sposób, aby użytkownicy mogli zrezygnować, o tym, że ich posty, rzecznik Facebooka odpowiedział, że użytkownicy nie mogą zrezygnować. Zauważyli, że funkcja ta ma na celu zwiększenie bezpieczeństwa użytkowników, a zasoby wsparcia oferowane przez Facebook można szybko zamknąć, jeśli użytkownik nie chce ich widzieć.]
Facebook szkolił AI, znajdując wzorce w słowach i obrazach używanych w postach, które były ręcznie zgłaszane pod kątem ryzyka samobójstwa w przeszłości. Szuka także komentarzy typu „wszystko w porządku?” I „Czy potrzebujesz pomocy?”