Świat musi działać szybko, aby zapobiec przyszłości, w której autonomiczne roboty ze sztuczną inteligencją przemierzają pola bitwy zabijając ludzi, naukowców i ekspertów od broni, ostrzeganych podczas elitarnego spotkania w Alpach Szwajcarskich.
Muszą zostać uzgodnione zasady uniemożliwiające rozwój takiej broni, powiedzieli na styczniowym spotkaniu miliarderów, naukowców i przywódców politycznych 19-23 w ośnieżonym ośrodku narciarskim Davos.
Angela Kane, niemiecka wysoka przedstawiciel ONZ ds. Rozbrojenia z 2012-2015, powiedziała, że świat bardzo powoli podejmuje środki zapobiegawcze w celu ochrony ludzkości przed śmiercionośną technologią.
„Może być za późno” - powiedziała podczas debaty w Davos.
„Jest wiele krajów i wielu przedstawicieli społeczności międzynarodowej, którzy naprawdę nie rozumieją, o co chodzi. Rozwój ten ogranicza się do pewnej liczby krajów rozwiniętych ”- powiedział Kane.
Naukowcy twierdzą, że rozmieszczenie broni autonomicznej stanowiłoby nową niebezpieczną erę w wojnie.
„Nie mówimy o dronach, w których ludzki pilot kontroluje drona” - powiedział Stuart Russell, profesor informatyki na Uniwersytecie Kalifornijskim w Berkeley.
„Mówimy o broni autonomicznej, co oznacza, że nikt za nią nie stoi. AI: broń sztucznej inteligencji ”, powiedział na forum w Davos. „Bardzo dokładnie, broń, która może lokalizować i atakować cele bez interwencji człowieka”.
Russell powiedział, że nie przewidział dnia, w którym roboty będą walczyć w wojnach o ludzi, a pod koniec dnia jedna ze stron mówi: „OK, wygrałeś, więc możesz mieć wszystkie nasze kobiety”.
Ale niektórzy szefowie nauki i technologii 1,000, w tym brytyjski fizyk Stephen Hawking, powiedzieli w liście otwartym w lipcu zeszłego roku, że rozwój broni o stopniu autonomicznej zdolności decyzyjnej może być wykonalny w ciągu lat, a nie dekad.
Wezwali do wprowadzenia zakazu autonomicznej broni ofensywnej, która jest poza znaczącą kontrolą człowieka, ostrzegając, że świat ryzykuje poślizgiem w wyścigu zbrojeń sztucznej inteligencji i budzi alarm o ryzyko, że taka broń dostanie się w ręce brutalnych ekstremistów.
Problem ma charakter kulturowy, a nie technologiczny.
Jeśli akceptujemy morderstwo jako rozwiązanie wyzwań tych, którzy myślą inaczej niż my, czy ma to znaczenie, w jaki sposób angażujemy się w zabijanie?