Usługi ochrony dzieci w celu korzystania z AI, Big Data w celu przewidywania wykorzystywania dzieci

Udostępnij tę historię!
image_pdfimage_print
Stan przed przestępczością zostaje doprowadzony do nowej skrajności, aby wypalić sytuacje związane z wykorzystywaniem dzieci, ale aby się tam dostać, miliony obywateli będą cierpieć z powodu nadużyć prywatności. Czy to zamiana jednego rodzaju nadużycia na inny? Rzeczywiście, Technokraci stworzyli etyczną burzę ognia. ⁃ Edytor TN

W dobie oszczędności i klimacie strachu przed molestowaniem dzieci być może nic dziwnego, że pracownicy socjalni zwrócili się o nowe technologie po pomoc.

Władze lokalne - które mają twarz rosnący popyt i niedobór środków w wysokości 800m - zaczynają pytać, czy duże zbiory danych mogłyby pomóc w identyfikacji dzieci wymagających szczególnego traktowania.

Czy program komputerowy może oznaczać rodzinę z problemami, zidentyfikować potencjalną ofiarę i zapobiec kolejnej noworodkowi P lub Victoria Climbié?

Wiele lat temu takie pytania byłyby science fiction; teraz są one faktem naukowym.

Bristol to jedno miejsce eksperymentujące z tymi nowymi możliwościami i zmagające się z moralnymi i etycznymi pytaniami, które się z nimi wiążą.

Gary Davies, który nadzoruje system przewidywania rady, widzi zalety.

Twierdzi, że nie oznacza to wykluczenia ludzi z procesu decyzyjnego; oznacza to raczej wykorzystanie danych, aby powstrzymać ludzi od popełniania błędów.

„Nie oznacza to, że zostaniesz wykorzystany seksualnie lub zaginiesz” - mówi Davies. „Pokazuje cechy behawioralne związane z wykorzystywaniem lub zaginięciem. Oznacza to ryzyko i podatność ”.

Takie techniki działały w innych obszarach od lat. Systemy uczenia maszynowego zbudowane w celu wydobywania ogromnych ilości danych osobowych od dawna wykorzystywane są do przewidywania zachowań klientów w sektorze prywatnym.

Programy komputerowe oceniają prawdopodobieństwo niewywiązania się z pożyczki lub ryzyko, jakie stwarzamy dla ubezpieczyciela.

Projektanci modelu predykcyjnego muszą zidentyfikować „zmienną wynikową”, która wskazuje na obecność czynnika, który próbują przewidzieć.

Dla ochrony dziecka może to być dziecko wchodzące do systemu opieki.

Następnie próbują zidentyfikować cechy powszechnie występujące u dzieci, które wchodzą do systemu opieki. Po ich zidentyfikowaniu model można uruchomić dla dużych zestawów danych, aby znaleźć inne osoby o tych samych cechach.

Strażnik uzyskał szczegółowe informacje na temat wszystkich wskaźników predykcyjnych rozważanych w celu włączenia do systemu ochrony dzieci rady Thurrock. Obejmują one historię przemocy domowej, przestępstwa i wagarowanie młodzieży.

Początkowo rozważano bardziej zaskakujące wskaźniki, takie jak zaległości czynszowe i dane zdrowotne, ale wykluczono je z ostatecznego modelu. W przypadku zarówno Thurrock, rady w Essex, jak i londyńskiej dzielnicy Hackney, rodziny mogą zostać oznaczone pracownikami socjalnymi jako potencjalni kandydaci do programu rodzin z problemami. W ramach tego programu rady otrzymują dotacje od rządu centralnego na pomoc gospodarstwom domowym mającym długotrwałe trudności, takie jak bezrobocie.

Takie systemy nieuchronnie budzą obawy dotyczące prywatności. Wajid Shafiq, dyrektor naczelny Xantury, firmy zajmującej się analizą predykcyjną zarówno Thurrocka, jak i Hackneya, nalega, aby zachować równowagę między prawami do prywatności a wykorzystaniem technologii w celu zapewnienia dobra publicznego.

Przeczytaj całą historię tutaj…

Zapisz się
Powiadamiaj o
gość
0 Komentarze
Informacje zwrotne w linii
Wyświetl wszystkie komentarze