Unia Europejska opublikowała dziś zestaw wytycznych na temat tego, jak firmy i rządy powinny rozwijać etyczne zastosowania sztucznej inteligencji.
Te zasady nie są podobne do „Trzech praw robotyki” Izaaka Asimova. Nie oferują one zgrabnych, moralnych ram, które pomogłyby nam kontrolować mordercze roboty. Zamiast tego zajmują się mrocznymi i rozproszonymi problemami, które będą miały wpływ na społeczeństwo, gdy integrujemy AI z sektorami takimi jak opieka zdrowotna, edukacja i technologia konsumencka.
Na przykład, jeśli system sztucznej inteligencji zdiagnozuje u Ciebie raka w przyszłości, wytyczne UE będą chciały upewnić się, że zachodzi wiele rzeczy: że oprogramowanie nie było stronnicze ze względu na rasę lub płeć, że nie nie są nadrzędne wobec zastrzeżeń lekarza ludzkiego i że daje to pacjentowi możliwość wyjaśnienia diagnozy.
Tak więc, te wytyczne dotyczą powstrzymywania sztucznej inteligencji przed ucieczką, ale na poziomie administratora i biurokracji, a nie tajemnic morderstwa w stylu Asimova.
Aby pomóc w osiągnięciu tego celu, UE zwołała grupę ekspertów 52, którzy opracowali siedem wymagań, które według nich powinny spełniać przyszłe systemy AI. Są to:
- Agencja ludzka i nadzór - AI nie powinna deptać ludzkiej autonomii. Ludzie nie powinni być manipulowani ani zmuszani przez systemy AI, a ludzie powinni mieć możliwość interweniowania lub nadzorowania każdej decyzji podejmowanej przez oprogramowanie.
- Solidność techniczna i bezpieczeństwo - AI powinno być bezpieczne i dokładne. Zewnętrzne ataki (takie jak przykłady przeciwników) i powinna być w miarę wiarygodna.
- Prywatność i zarządzanie danymi - Dane osobowe gromadzone przez systemy AI powinny być bezpieczne i prywatne. Nie powinien być dostępny dla nikogo i nie powinien być łatwo skradziony.
- Przezroczystość - Dane i algorytmy użyte do stworzenia systemu sztucznej inteligencji powinny być dostępne, a decyzje podejmowane przez oprogramowanie powinny być „rozumiane i śledzone przez ludzi”. Innymi słowy, operatorzy powinni być w stanie wyjaśnić decyzje podejmowane przez systemy sztucznej inteligencji.
- Różnorodność, niedyskryminacja i uczciwość - Usługi świadczone przez AI powinny być dostępne dla wszystkich, bez względu na wiek, płeć, rasę lub inne cechy. Podobnie, systemy nie powinny być tendencyjne względem tych linii.
- Ochrona środowiska i dobrobyt społeczny - Systemy AI powinny być zrównoważone (tj. Powinny być odpowiedzialne ekologicznie) i „zwiększać pozytywne zmiany społeczne”
- Odpowiedzialność - Systemy sztucznej inteligencji powinny podlegać kontroli i być objęte istniejącą ochroną osób zgłaszających przypadki naruszenia. Negatywne oddziaływanie systemów należy potwierdzić i zgłosić z wyprzedzeniem.
Zauważysz, że niektóre z tych wymagań są dość abstrakcyjne i trudno byłoby je ocenić w obiektywnym sensie. (Na przykład definicje „pozytywnej zmiany społecznej” różnią się znacznie w zależności od osoby i kraju.) Ale inne są bardziej proste i można je przetestować pod nadzorem rządu. Na przykład udostępnianie danych wykorzystywanych do szkolenia rządowych systemów sztucznej inteligencji może być dobrym sposobem na walkę z nimi algorytmy stronnicze.
Wytyczne te nie są prawnie wiążące, ale mogą kształtować wszelkie przyszłe akty prawne opracowane przez Unię Europejską. UE wielokrotnie powtarzała, że chce być liderem w dziedzinie etycznej sztucznej inteligencji, i to pokazała `RODO że jest gotów stworzyć daleko idące przepisy chroniące prawa cyfrowe.
Jednak rola ta została częściowo narzucona UE. Nie może konkurować z Ameryką i Chinami - światowymi liderami w dziedzinie sztucznej inteligencji - jeśli chodzi o inwestycje i najnowocześniejsze badania, dlatego wybrała etykę jako najlepszy sposób na ukształtowanie przyszłości technologii.
Problem w tym, że… Koncepcja ludzi, którzy dziś kontrolują UE, dotycząca tego, co może być „pozytywną zmianą społeczną”, jest najprawdopodobniej bardzo różna od tego, co ogół społeczeństwa postrzega jako „pozytywną zmianę społeczną”. Na przykład są za zniesieniem państw narodowych na rzecz globalizmu i nieograniczonej nielegalnej imigracji, my nie. To trudna sprawa, gdy bawią się semantyką…