Naukowcy stwierdzili, że programy AI uczą się rasowych i płciowych różnic

Wikipedia Commons
Udostępnij tę historię!

Program sztucznej inteligencji, który uczy się z tego, o czym ludzie wiedzą i piszą, naturalnie wychwyciłby wszystkie uprzedzenia i stwierdziłby, że są normalni. Zasadniczo oznacza to, że negatywne aspekty ludzkiego zachowania zostaną po prostu przeniesione na sztuczną inteligencję.  Edytor TN

Narzędzie sztucznej inteligencji, które zrewolucjonizowało zdolność komputerów do interpretowania języka codziennego, wykazuje uderzające uprzedzenia płciowe i rasowe.

Odkrycia zwiększają spektrum istniejących nierówności społecznych i uprzedzeń, wzmacnianych w nowy i nieprzewidywalny sposób, ponieważ coraz większa liczba decyzji wpływających na nasze codzienne życie jest przekazywana automatom.

W ciągu ostatnich kilku lat zdolność programów takich jak Tłumacz Google do tłumaczenia języka znacznie się poprawiła. Korzyści te zostały osiągnięte dzięki nowym technikom uczenia maszynowego i dostępności ogromnej ilości danych tekstowych online, na których można trenować algorytmy.

Jednak w miarę jak maszyny zbliżają się do nabywania umiejętności językowych podobnych do ludzi, pochłaniają również głęboko zakorzenione uprzedzenia ukryte we wzorcach używania języka, jak pokazują najnowsze badania.

Joanna Bryson, informatyk z University of Bath i współautorka, powiedziała: „Wiele osób twierdzi, że to pokazuje, że AI jest uprzedzona. Nie. To pokazuje, że jesteśmy uprzedzeni i że AI się tego uczy ”.

[the_ad id = "11018 ″]

Ale Bryson ostrzegł, że sztuczna inteligencja może wzmocnić istniejące uprzedzenia, ponieważ w przeciwieństwie do ludzi algorytmy mogą nie być przystosowane do świadomego przeciwdziałania wyuczonym uprzedzeniom. „Niebezpieczeństwo byłoby, gdybyś miał system sztucznej inteligencji, który nie miałby wyraźnej części opartej na ideach moralnych, co byłoby złe”, powiedziała.

Badania, opublikowane w czasopiśmie naukaskupia się na narzędziu uczenia maszynowego znanym jako „osadzanie słów”, które już zmienia sposób, w jaki komputery interpretują mowę i tekst. Niektórzy twierdzą, że naturalny może być kolejny krok w tej technologii maszyny rozwijające zdolności ludzkie, takie jak zdrowy rozsądek i logika.

„Głównym powodem, dla którego wybraliśmy badanie osadzania słów, jest to, że odniosły spektakularne sukcesy w ostatnich latach w pomaganiu komputerom w zrozumieniu języka”, powiedział Arvind Narayanan, informatyk z Princeton University i starszy autor artykułu.

Podejście, które jest już stosowane w wyszukiwaniu internetowym i tłumaczeniu maszynowym, polega na zbudowaniu matematycznej reprezentacji języka, w którym znaczenie słowa jest destylowane na serię liczb (znanych jako wektor słów), na podstawie których inne słowa najczęściej pojawiają się obok niego. Być może zaskakujące, to czysto statystyczne podejście wydaje się uchwycić bogaty kontekst kulturowy i społeczny tego, co słowo oznacza w sposób, w jaki definicja słownikowa byłaby niezdolna.

Przeczytaj całą historię tutaj…

Zapisz się!
Powiadamiaj o
gość

1 Komentarz
Starsze
Najnowszy Najczęściej zagłosowano
Informacje zwrotne w linii
Wyświetl wszystkie komentarze
Nigel

Uprzedzenie jest częścią ludzkiej kondycji - współpracujemy z ludźmi, którzy wyglądają jak my, zbieramy się w grupach, które są takie jak my i trzymają się naszych poglądów, podejrzliwie patrzymy na tych, którzy nie są i nie są - to nasza ścieżka ewolucyjna. To kolejny punkt rozszczepienia zidentyfikowany przez tę technokrację - jest to zniewaga i napięcie nałożone na samą tkankę tego, kim jesteśmy. Odmawianie nam naszych różnic i odmawianie nam ich celebrowania jest sprzeczne z naszą naturą, powoduje głębokie cierpienie i dążenie do tego, co... Czytaj więcej "