Ekspert: Żołnierze AI opracują „Kompas moralny” i będą przeciwstawiać się rozkazom

Wikimedia Commons
Udostępnij tę historię!
Zostało już wykazane, że algorytmy AI wykazują uprzedzenia ich twórców, więc dlaczego nie również mordercze zamiary? Technokraci są tak pochłonięci wynalazkami Pollyanny, że nie widzą logicznego końca ich istnienia. ⁃ Edytor TN

Morderczy robot-żołnierz stanie się tak zaawansowany, że może opracować własny kodeks moralny, by brutalnie przeciwstawić się rozkazom, twierdzi ekspert AI.

Były inżynier cybernetyki Dr Ian Pearson przewiduje, że zmierzamy w kierunku przyszłości świadome maszyny.

Ale jeśli roboty zostaną wrzucone do akcji przez siły wojskowe, futurolog ostrzega, że ​​będą w stanie wyczarować swój własny „moralny punkt widzenia”.

A jeśli to zrobią, były naukowiec rakietowy twierdzi, że może zwrócić się przeciwko tym samym ludziom, którzy wysyłają ich na bitwę.

Dr Pearson, który prowadzi blogi dla Futurizon, powiedział Daily Star Online: „Ponieważ sztuczna inteligencja nadal się rozwija i podążamy drogą ku świadomości - i nie będzie to z dnia na dzień, ale stopniowo zwiększamy liczbę komputerów i bardziej wyrafinowane - w pewnym momencie dajesz im dostęp do edukacji moralnej, aby sami mogli się jej nauczyć.

„Możesz dać im zdolność rozumowania i mogą wymyślić inny kodeks moralny, który stawia ich na wyższym piedestale niż ludzie, którym mają służyć.

Zapytany, czy to może się okazać śmiertelne, odpowiedział: „Tak, oczywiście.

„Jeśli kontrolują broń i zdecydują, że są istotą moralną wyższą niż ludzie, których rzekomo mają strzec, mogą podejmować decyzje, że pewne osoby powinny zostać zabite, aby chronić większą populację.

„Kto wie, jakie decyzje mogą podjąć?

„Jeśli masz faceta na polu bitwy, który mówi żołnierzom, by z jakiegoś powodu strzelali do tej grupy ludzi, ale komputer myśli inaczej, komputer nie jest do tego przekonany, może dojść do wniosku, że żołnierz wydający rozkazy jest raczej najgorszym przestępcą niż ludzie, których próbuje zabić, więc zamiast tego może się odwrócić i zabić go.

„Jest to całkowicie możliwe, zależy to od tego, jak systemy są napisane”.

Ostrzeżenie dr Pearson pojawia się w obliczu rosnących obaw związanych z wykorzystywaniem w wojnie w pełni autonomicznych robotów.

Przeczytaj całą historię tutaj…

Zapisz się!
Powiadamiaj o
gość

6 Komentarze
Starsze
Najnowszy Najczęściej zagłosowano
Informacje zwrotne w linii
Wyświetl wszystkie komentarze
Pyra

Idiotyczny. Czy któryś z tych komputerowych nurków myśli kiedykolwiek o tym, co mówi? Mam na myśli, że wymyśliłeś to, trzymając za nos.

Powiedzenie „twierdząc, że są mądrzy, stali się głupcami…” ma tutaj duże znaczenie.