W przyszłości twoja przyszłość może zależeć od szeregu dokładnie obliczonych zer i jedynek.
W miarę ulepszania się technologii ludzie coraz mniej angażują się w decyzje wpływające na nasze życie - i to nie jest do końca dobra rzecz.
Gdy sztuczna inteligencja zyskuje na popularności, profesorowie college'u na University of Massachusetts-Amherst opracowali program do testowania oprogramowania pod kątem stronniczości i dyskryminacji.
Tak, dyskryminacja rasowa. Ale więcej niż to. Decyzje dotyczące opieki zdrowotnej. Decyzje pożyczkowe. Cholera, nawet jak Amazon decyduje o szybkości wysyłania paczek.
„Dzisiaj oprogramowanie określa, kto otrzymuje pożyczkę lub zostaje zatrudniony, oblicza wyniki oceny ryzyka, które pomagają zdecydować, kto trafi do więzienia, a kto jest wolny, i pomaga w diagnozowaniu i leczeniu pacjentów medycznych”. według dla programistów programu.
Co za tym idzie, ma kluczowe znaczenie „oprogramowanie nie dyskryminuje grup ani osób”, twierdzą badacze, dodając, że ich dziedzina badań jest „niedoceniana” i „pojawiły się niezliczone przykłady nieuczciwego oprogramowania”.
W nauce artykuł opublikowano dla nadchodzącej inżynierii oprogramowania konferencjainformatycy Alexandra Meliou i Yuriy Brun, którzy stworzyli program wraz z doktorantką Sainyam Galhotrą, szczegółowo opisują „rosnące obawy” związane z dyskryminacją oprogramowania.
W artykule dwaj profesorowie przewidują, że ewoluujący i rosnący wpływ oprogramowania będzie miał na życie ludzkie w przyszłości, i argumentują, że oprogramowanie odgrywa obecnie zbyt dużą rolę w społeczeństwie.
„Idąc dalej, znaczenie zapewnienia uczciwości w oprogramowaniu tylko wzrośnie”, stwierdza gazeta.
Uczeni wykorzystali przykłady ilustrujące uprzedzenia wobec bogatych i uciskanych.
Jednym z przykładów dyskryminacji oprogramowania dostarczonych przez Bruna i Meliou jest program używany przez Amazon.com w celu ustalenia, które obszary geograficzne otrzymają bezpłatną dostawę tego samego dnia. Tak było po wprowadzeniu programu w zeszłym roku rzekomy że dzielnice mniejszościowe otrzymywały korzyść w znacznie niższym tempie niż dzielnice głównie białe.
Autorzy podkreślają również, w jaki sposób oprogramowanie wykorzystywane w sektorze publicznym może wyświetlać uprzedzenia, technologia wyróżniająca stosowana w wielu stanach, która oblicza oceny prawdopodobieństwa popełnienia przez przestępcę dodatkowych przestępstw. Według naukowców stwierdzono, że oprogramowanie „fałszywie oflaguje czarnych oskarżonych jako przyszłych przestępców, niewłaściwie oznaczając ich w ten sposób prawie dwukrotnie częściej niż białych oskarżonych”.
W naszym ekonomicznym systemie kapitalizmu opartym na „wolnych” rynkach część rynkowa jest już w 90% sztuczna (HFT)