Stop Killer Robots, zanim będzie za późno, naukowcy mówią Davos Forum

Udostępnij tę historię!

Uwaga TN: Globalne spotkanie elit w Davos spotyka się z uwagą naukowców, którzy boją się zabójczych robotów skierowanych przeciwko ludzkości lub przynajmniej prowadzących do wyścigu zbrojeń, z wyjątkiem rozwoju robotów-zabójców. 

Świat musi działać szybko, aby zapobiec przyszłości, w której autonomiczne roboty ze sztuczną inteligencją przemierzają pola bitwy zabijając ludzi, naukowców i ekspertów od broni, ostrzeganych podczas elitarnego spotkania w Alpach Szwajcarskich.

Muszą zostać uzgodnione zasady uniemożliwiające rozwój takiej broni, powiedzieli na styczniowym spotkaniu miliarderów, naukowców i przywódców politycznych 19-23 w ośnieżonym ośrodku narciarskim Davos.

Angela Kane, niemiecka wysoka przedstawiciel ONZ ds. Rozbrojenia z 2012-2015, powiedziała, że ​​świat bardzo powoli podejmuje środki zapobiegawcze w celu ochrony ludzkości przed śmiercionośną technologią.

„Może być za późno” - powiedziała podczas debaty w Davos.

„Jest wiele krajów i wielu przedstawicieli społeczności międzynarodowej, którzy naprawdę nie rozumieją, o co chodzi. Rozwój ten ogranicza się do pewnej liczby krajów rozwiniętych ”- powiedział Kane.

Naukowcy twierdzą, że rozmieszczenie broni autonomicznej stanowiłoby nową niebezpieczną erę w wojnie.

„Nie mówimy o dronach, w których ludzki pilot kontroluje drona” - powiedział Stuart Russell, profesor informatyki na Uniwersytecie Kalifornijskim w Berkeley.

„Mówimy o broni autonomicznej, co oznacza, że ​​nikt za nią nie stoi. AI: broń sztucznej inteligencji ”, powiedział na forum w Davos. „Bardzo dokładnie, broń, która może lokalizować i atakować cele bez interwencji człowieka”.

Russell powiedział, że nie przewidział dnia, w którym roboty będą walczyć w wojnach o ludzi, a pod koniec dnia jedna ze stron mówi: „OK, wygrałeś, więc możesz mieć wszystkie nasze kobiety”.

Ale niektórzy szefowie nauki i technologii 1,000, w tym brytyjski fizyk Stephen Hawking, powiedzieli w liście otwartym w lipcu zeszłego roku, że rozwój broni o stopniu autonomicznej zdolności decyzyjnej może być wykonalny w ciągu lat, a nie dekad.

Wezwali do wprowadzenia zakazu autonomicznej broni ofensywnej, która jest poza znaczącą kontrolą człowieka, ostrzegając, że świat ryzykuje poślizgiem w wyścigu zbrojeń sztucznej inteligencji i budzi alarm o ryzyko, że taka broń dostanie się w ręce brutalnych ekstremistów.

Przeczytaj całą historię tutaj…

Zapisz się!
Powiadamiaj o
gość

1 Komentarz
Starsze
Najnowszy Najczęściej zagłosowano
Informacje zwrotne w linii
Wyświetl wszystkie komentarze
FreeOregon

Problem ma charakter kulturowy, a nie technologiczny.

Jeśli akceptujemy morderstwo jako rozwiązanie wyzwań tych, którzy myślą inaczej niż my, czy ma to znaczenie, w jaki sposób angażujemy się w zabijanie?