Profesorowie ostrzegają przed zagrożeniami związanymi z technologią podejmowania decyzji od ludzi

Udostępnij tę historię!

Nie trzeba profesora, aby intuicyjnie zrozumieć, że programy stworzone przez ludzi nie mogą wznieść się ponad uprzedzenia ich twórców. Technokraci nie rozumieją tego punktu, wierząc, że każda zautomatyzowana decyzja jest bardziej wydajna i spójna niż ludzka ocena.  Edytor TN

W przyszłości twoja przyszłość może zależeć od szeregu dokładnie obliczonych zer i jedynek.

W miarę ulepszania się technologii ludzie coraz mniej angażują się w decyzje wpływające na nasze życie - i to nie jest do końca dobra rzecz.

Gdy sztuczna inteligencja zyskuje na popularności, profesorowie college'u na University of Massachusetts-Amherst opracowali program do testowania oprogramowania pod kątem stronniczości i dyskryminacji.

Tak, dyskryminacja rasowa. Ale więcej niż to. Decyzje dotyczące opieki zdrowotnej. Decyzje pożyczkowe. Cholera, nawet jak Amazon decyduje o szybkości wysyłania paczek.

„Dzisiaj oprogramowanie określa, kto otrzymuje pożyczkę lub zostaje zatrudniony, oblicza wyniki oceny ryzyka, które pomagają zdecydować, kto trafi do więzienia, a kto jest wolny, i pomaga w diagnozowaniu i leczeniu pacjentów medycznych”. według dla programistów programu.

Co za tym idzie, ma kluczowe znaczenie „oprogramowanie nie dyskryminuje grup ani osób”, twierdzą badacze, dodając, że ich dziedzina badań jest „niedoceniana” i „pojawiły się niezliczone przykłady nieuczciwego oprogramowania”.

W nauce artykuł opublikowano dla nadchodzącej inżynierii oprogramowania konferencjainformatycy Alexandra Meliou i Yuriy Brun, którzy stworzyli program wraz z doktorantką Sainyam Galhotrą, szczegółowo opisują „rosnące obawy” związane z dyskryminacją oprogramowania.

W artykule dwaj profesorowie przewidują, że ewoluujący i rosnący wpływ oprogramowania będzie miał na życie ludzkie w przyszłości, i argumentują, że oprogramowanie odgrywa obecnie zbyt dużą rolę w społeczeństwie.

„Idąc dalej, znaczenie zapewnienia uczciwości w oprogramowaniu tylko wzrośnie”, stwierdza gazeta.

Uczeni wykorzystali przykłady ilustrujące uprzedzenia wobec bogatych i uciskanych.

Jednym z przykładów dyskryminacji oprogramowania dostarczonych przez Bruna i Meliou jest program używany przez Amazon.com w celu ustalenia, które obszary geograficzne otrzymają bezpłatną dostawę tego samego dnia. Tak było po wprowadzeniu programu w zeszłym roku rzekomy że dzielnice mniejszościowe otrzymywały korzyść w znacznie niższym tempie niż dzielnice głównie białe.

Autorzy podkreślają również, w jaki sposób oprogramowanie wykorzystywane w sektorze publicznym może wyświetlać uprzedzenia, technologia wyróżniająca stosowana w wielu stanach, która oblicza oceny prawdopodobieństwa popełnienia przez przestępcę dodatkowych przestępstw. Według naukowców stwierdzono, że oprogramowanie „fałszywie oflaguje czarnych oskarżonych jako przyszłych przestępców, niewłaściwie oznaczając ich w ten sposób prawie dwukrotnie częściej niż białych oskarżonych”.

Przeczytaj całą historię tutaj…

Zapisz się!
Powiadamiaj o
gość

1 Komentarz
Starsze
Najnowszy Najczęściej zagłosowano
Informacje zwrotne w linii
Wyświetl wszystkie komentarze
M11S

W naszym ekonomicznym systemie kapitalizmu opartym na „wolnych” rynkach część rynkowa jest już w 90% sztuczna (HFT)