Więcej niż kiedykolwiek, Facebook jest pod presją, aby udowodnić, że jego algorytmy są wdrażane w sposób odpowiedzialny.
W środę, na konferencji programistów F8, firma ujawniła, że utworzyła specjalny zespół i opracowała dyskretne oprogramowanie, aby zapewnić, że jej systemy sztucznej inteligencji podejmują decyzje tak etycznie, jak to możliwe, bez uprzedzeń.
Facebook, jak inne duże firmy technologiczne z produktami używanymi przez duże i różnorodne grupy ludzi, jest głębiej włączający AI do swoich usług. Facebook podał w tym tygodniu, że zacznie oferować tłumaczenie wiadomości, które ludzie otrzymują za pośrednictwem aplikacji Messenger. Systemy tłumaczeń muszą najpierw zostać przeszkolone w zakresie danych, a nacisk na etykę może pomóc w zapewnieniu, że systemy Facebooka zostaną nauczone rzetelnego tłumaczenia.
Facebook powiedział, że te wysiłki nie są wynikiem żadnych zmian, które miały miejsce w ciągu siedmiu tygodni od odkrycia, że firma analityczna danych Cambridge Analytica niewłaściwie wykorzystano dane osobowe użytkowników portalu społecznościowego przed wyborami w 2016 roku. Ale jest oczywiste, że nastroje społeczne wobec Facebooka zmieniły się ostatnio dramatycznie negatywnie, do tego stopnia, że dyrektor generalny Mark Zuckerberg musiałem siedzieć przez wiele godzin podczas kongresowych przesłuchań w zeszłym miesiącu.
Każde ogłoszenie jest teraz pod mikroskopem.
Facebook przestał tworzyć tablicę poświęconą etyce AI, as Axon (dawniej Taser) zrobił to w zeszłym tygodniu. Ale ruchy są zgodne z szerszym uznaniem branży, że naukowcy zajmujący się sztuczną inteligencją muszą pracować, aby ich systemy były integracyjne. Grupa Alphabet DeepMind AI utworzyła zespół etyki i społeczeństwa ostatni rok. Przed tym, Microsoft organizacja badawcza ustanowiła grupę ds. przejrzystości i etyki w zakresie odpowiedzialności za uczciwość.
Dziedzina sztucznej inteligencji przeżywała wiele zawstydzeń, jak wtedy, gdy trzy lata temu zauważono Zdjęcia Google klasyfikując czarnych jako goryle.
W zeszłym roku zespół Kloumanna opracował oprogramowanie o nazwie Fairness Flow, które od tamtej pory zostało zintegrowane z powszechnie używanym FBLearner Flow wewnętrzne oprogramowanie ułatwiające szkolenie i obsługę systemów AI. Oprogramowanie analizuje dane, biorąc pod uwagę ich format, a następnie generuje raport podsumowujący.
Kloumann powiedziała, że zajmuje się tematem sprawiedliwości od czasu dołączenia do Facebooka w 2016 r., Kiedy ludzie z branży technologicznej zaczęli mówić o tym bardziej otwarcie i gdy pojawiły się obawy społeczne o siłę sztucznej inteligencji.
Przeczytaj całą historię tutaj…