Eksperci: Narody Europy powinny zakazać punktacji społecznej

Europa
Udostępnij tę historię!
Technokraci w UE są nastawieni na całkowitą inwigilację i kontrolowanie ludzi, ale niezależna grupa doradcza wysokiego szczebla ostrzega przed wykorzystywaniem sztucznej inteligencji do masowego nadzoru i punktacji kredytów społecznych. ⁃ Edytor TN

Niezależna grupa ekspertów, której zadaniem jest doradzanie Komisja Europejska aby poinformować o swojej reakcji regulacyjnej na sztuczną inteligencję - aby wesprzeć deklarowany przez prawodawców UE cel zapewnienia, by rozwój sztucznej inteligencji był „ukierunkowany na człowieka” - opublikował zalecenia dotyczące polityki i inwestycji.

Jest to zgodne z wcześniejszymi wytycznymi etycznymi dotyczącymi „godnej zaufania sztucznej inteligencji”, wydanymi przez grupę ekspertów wysokiego szczebla (HLEG) dla AI ponownie w kwiecień, kiedy Komisja wezwała również uczestników do przetestowania projektu przepisów.

Pełne rekomendacje zasad AI HLEG obejmują bardzo szczegółowy dokument na stronie 50 - z którego można go pobrać strona internetowa, grupa, która została założona w czerwcu 2018, została utworzona mieszanki branżowych ekspertów AI, przedstawicieli społeczeństwa obywatelskiego, doradców politycznych i wróżek politycznych, naukowców i ekspertów prawnych.

Dokument zawiera ostrzeżenia o wykorzystywaniu AI do masowej inwigilacji i punktacji obywateli UE, takie jak Chiński system kredytów społecznych, podczas gdy grupa wzywa do całkowitego zakazu „punktacji na masową skalę z wykorzystaniem AI”. Wzywa również rządy do zobowiązania się do nie angażowania się w ogólny nadzór ludności w celu bezpieczeństwa narodowego. (Więc może równie dobrze Wielka Brytania zagłosowała za opuszczeniem UE, biorąc pod uwagę wahające się uprawnienia państwa do nadzoru wszedł w życie pod koniec 2016.)

„Chociaż rządy mogą odczuwać silną pokusę, by„ zabezpieczyć społeczeństwo ”poprzez budowę wszechobecnego systemu nadzoru opartego na systemach AI, byłoby to niezwykle niebezpieczne, gdyby zepchnięto go na ekstremalne poziomy”, pisze HLEG. „Rządy powinny zobowiązać się do nie angażowania się w masową inwigilację osób oraz do wdrażania i pozyskiwania wyłącznie wiarygodnych systemów AI, zaprojektowanych z poszanowaniem prawa i praw podstawowych, zgodnych z zasadami etycznymi i odpornych społeczno-technicznie”.

Grupa wzywa również do „przeciwdziałania” inwigilacjom komercyjnym osób i społeczeństw - sugerując, że reakcja UE na potęgę i potencjał niewłaściwego wykorzystania technologii sztucznej inteligencji powinna obejmować zagwarantowanie, że śledzenie osób w Internecie jest „ściśle zgodne z prawami podstawowymi, takimi jak prywatność ”, W tym (grupa określa), gdy dotyczy„ bezpłatnych ”usług (choć z niewielkim zastrzeżeniem co do potrzeby rozważenia wpływu modeli biznesowych).

W ubiegłym tygodniu brytyjski organ nadzorujący ochronę danych wystrzelił jeszcze bardziej konkretny strzał w poprzek branży reklam behawioralnych online - ostrzegając, że masowe przetwarzanie danych osobowych użytkowników sieci przez adtech w celu kierowania reklam nie jest zgodny z unijnymi standardami prywatności. Powiedziano branży, że jej praktyki naruszające prawa muszą ulec zmianie, nawet jeśli biuro komisarza ds. Informacji nie zamierza jeszcze powalić młota. Ale ostrzeżenie o reformie było jasne.

Podczas gdy decydenci UE pracują nad stworzeniem ram regulacyjnych szanujących prawa dla sztucznej inteligencji, starając się sterować następnymi dziesięcioma latami + najnowocześniejszymi technologiami w regionie, szersza uwaga i analiza, które przyciągną praktyki cyfrowe i modele biznesowe, będą napędzać uporządkowanie problematycznych praktyk cyfrowych, które do tej pory były w stanie mnożyć się bez lub przy bardzo niewielkich regulacjach dotykowych.

HLEG wzywa również do wspierania rozwoju mechanizmów ochrony danych osobowych, a także do „kontrolowania i zapewniania uprawnień przez ich dane” - które, ich zdaniem, dotyczyłyby „niektórych aspektów wymagań wiarygodnej sztucznej inteligencji”.

„Należy opracować narzędzia zapewniające technologiczne wdrożenie RODO i rozwinąć ochronę prywatności / prywatność poprzez projektowanie technicznych metod wyjaśniających kryteria, przyczynowość przetwarzania danych osobowych systemów AI (takich jak federacyjne uczenie maszynowe)”, piszą.

„Wspieraj rozwój technologiczny technik anonimizacji i szyfrowania oraz opracowuj standardy bezpiecznej wymiany danych w oparciu o kontrolę danych osobowych. Promowanie edukacji ogółu społeczeństwa w zakresie zarządzania danymi osobowymi, w tym świadomości osób fizycznych i wzmocnienia ich pozycji w procesach decyzyjnych opartych na danych osobowych AI. Twórz rozwiązania technologiczne, aby zapewnić osobom fizycznym informacje i kontrolę nad sposobem wykorzystywania ich danych, na przykład do badań, zarządzania zgodnością i przejrzystości ponad granicami europejskimi, a także wszelkich wynikających z tego ulepszeń i wyników, a także opracować standardy bezpieczeństwa wymiana danych w oparciu o kontrolę danych osobowych. ”

Przeczytaj całą historię tutaj…

Zapisz się!
Powiadamiaj o
gość

1 Komentarz
Starsze
Najnowszy Najczęściej zagłosowano
Informacje zwrotne w linii
Wyświetl wszystkie komentarze