Facebook tworzy specjalny zespół ds. Etyki w celu zbadania stronniczości w oprogramowaniu AI

Udostępnij tę historię!
Programy AI dziedziczą uprzedzenia ich twórców. Zatem programy cenzury, które stworzył Facebook, zawierają już ziarno myśli i etyki technokratów. Czy ci sami ludzie są w stanie zbadać własne dzieła? ⁃ Edytor TN

Więcej niż kiedykolwiek, Facebook jest pod presją, aby udowodnić, że jego algorytmy są wdrażane w sposób odpowiedzialny.

W środę, na konferencji programistów F8, firma ujawniła, że ​​utworzyła specjalny zespół i opracowała dyskretne oprogramowanie, aby zapewnić, że jej systemy sztucznej inteligencji podejmują decyzje tak etycznie, jak to możliwe, bez uprzedzeń.

Facebook, jak inne duże firmy technologiczne z produktami używanymi przez duże i różnorodne grupy ludzi, jest głębiej włączający AI do swoich usług. Facebook podał w tym tygodniu, że zacznie oferować tłumaczenie wiadomości, które ludzie otrzymują za pośrednictwem aplikacji Messenger. Systemy tłumaczeń muszą najpierw zostać przeszkolone w zakresie danych, a nacisk na etykę może pomóc w zapewnieniu, że systemy Facebooka zostaną nauczone rzetelnego tłumaczenia.

 „Spojrzymy wstecz i powiemy:„ To fantastyczne, że mogliśmy aktywnie wyprzedzić te pytania i zrozumieć, zanim wprowadzimy na rynek, czym jest sprawiedliwość dla danego produktu dla grupy demograficznej ”- Isabel Kloumann , naukowiec z Facebooka, powiedział CNBC. Odmówiła podania liczby osób w zespole.

Facebook powiedział, że te wysiłki nie są wynikiem żadnych zmian, które miały miejsce w ciągu siedmiu tygodni od odkrycia, że ​​firma analityczna danych Cambridge Analytica niewłaściwie wykorzystano dane osobowe użytkowników portalu społecznościowego przed wyborami w 2016 roku. Ale jest oczywiste, że nastroje społeczne wobec Facebooka zmieniły się ostatnio dramatycznie negatywnie, do tego stopnia, że ​​dyrektor generalny Mark Zuckerberg musiałem siedzieć przez wiele godzin podczas kongresowych przesłuchań w zeszłym miesiącu.

Każde ogłoszenie jest teraz pod mikroskopem.

Facebook przestał tworzyć tablicę poświęconą etyce AI, as Axon (dawniej Taser) zrobił to w zeszłym tygodniu. Ale ruchy są zgodne z szerszym uznaniem branży, że naukowcy zajmujący się sztuczną inteligencją muszą pracować, aby ich systemy były integracyjne. Grupa Alphabet DeepMind AI utworzyła zespół etyki i społeczeństwa ostatni rok. Przed tym, Microsoft organizacja badawcza ustanowiła grupę ds. przejrzystości i etyki w zakresie odpowiedzialności za uczciwość.

Dziedzina sztucznej inteligencji przeżywała wiele zawstydzeń, jak wtedy, gdy trzy lata temu zauważono Zdjęcia Google klasyfikując czarnych jako goryle.

W zeszłym roku zespół Kloumanna opracował oprogramowanie o nazwie Fairness Flow, które od tamtej pory zostało zintegrowane z powszechnie używanym FBLearner Flow wewnętrzne oprogramowanie ułatwiające szkolenie i obsługę systemów AI. Oprogramowanie analizuje dane, biorąc pod uwagę ich format, a następnie generuje raport podsumowujący.

Kloumann powiedziała, że ​​zajmuje się tematem sprawiedliwości od czasu dołączenia do Facebooka w 2016 r., Kiedy ludzie z branży technologicznej zaczęli mówić o tym bardziej otwarcie i gdy pojawiły się obawy społeczne o siłę sztucznej inteligencji.

Przeczytaj całą historię tutaj…

 

Zapisz się!
Powiadamiaj o
gość

0 Komentarze
Informacje zwrotne w linii
Wyświetl wszystkie komentarze