To szalone myślenie. Ryzyko niewłaściwego użycia przez nieuczciwy i autorytarny rząd i terrorystów wynosi 100 procent. Jednak technokraci wymyślają, ponieważ potrafią, a nie dlatego, że wykazano taką potrzebę. ⁃ Edytor TN
Kraje szybko rozwijają się „zabójcze roboty” - maszyny ze sztuczną inteligencją (AI), które niezależnie zabijają - ale idą w ślimaczym tempie w uzgadnianiu globalnych zasad ich wykorzystania w przyszłych wojnach, ostrzegają ekspertów od technologii i praw człowieka.
Od dronów i pocisków rakietowych po czołgi i okręty podwodne, półautonomiczne systemy uzbrojenia są używane od dziesięcioleci do eliminacji celów w dzisiejszej wojnie - ale wszystkie są pod nadzorem człowieka.
Dramatyzacja / symulacja
Narody takie jak Stany Zjednoczone, Rosja i Izrael inwestują obecnie w rozwój śmiercionośnych autonomicznych systemów broni (LAWS), które mogą samodzielnie identyfikować, namierzać i zabijać osoby - ale do tej pory nie istnieją żadne międzynarodowe przepisy regulujące ich użycie.
„Konieczna jest jakaś ludzka kontrola… Tylko ludzie są w stanie dokonać oceny rozróżnienia, proporcjonalności i środków ostrożności w kontekście walki” - powiedział Peter Maurer, przewodniczący Międzynarodowego Komitetu Czerwonego Krzyża (MKCK).
„(Budowanie konsensusu) to poważny problem, z którym mamy do czynienia i nie jest zaskakujące, że ci, którzy dziś zainwestowali dużo zdolności i mają pewne umiejętności, które obiecują im korzyści, są bardziej niechętni niż ci, którzy tego nie robią”.
MKCK nadzorował przyjęcie konwencji genewskich z 1949 r., Które określają prawa wojenne i prawa ludności cywilnej do ochrony i pomocy podczas konfliktów, i współpracuje z rządami w celu dostosowania tych zasad do współczesnej wojny.
Badacze AI, analitycy obrony i robotyści twierdzą, że PRAWA, takie jak roboty wojskowe, nie są już ograniczone do sfery science fiction lub gier wideo, ale szybko przechodzą od kart graficznych do laboratoriów inżynierii obronnej.
W ciągu kilku lat mogą zostać rozmieszczeni przez wojska państwowe na polu bitwy, dodają, malując dystopijne scenariusze roju dronów poruszających się po mieście, skanujących i selektywnie zabijających swoje cele w ciągu kilku sekund.
Śmierć według algorytmu
Wzbudziło to obawy etyczne ze strony grup zajmujących się prawami człowieka i niektórych ekspertów technicznych, którzy twierdzą, że przekazywanie maszynom mocy życia i śmierci narusza zasady godności ludzkiej.
Dodają, że PRAWA są nie tylko narażone na ingerencję i hakowanie, które skutkowałyby zwiększoną liczbą ofiar wśród ludności cywilnej, ale także spowodowałyby wątpliwości, kto byłby pociągnięty do odpowiedzialności w przypadku niewłaściwego użycia.
„Nie dajcie się zwieść nonsensowi tego, jak inteligentna będzie ta broń” - powiedział Noel Sharkey, przewodniczący Międzynarodowego Komitetu ds. Kontroli Broni Robotów.
„Po prostu nie można ufać algorytmowi - bez względu na to, jak sprytny - wyszukuje, identyfikuje i zabija właściwy cel, zwłaszcza w złożoności wojny” - powiedział Sharkey, który jest również ekspertem w dziedzinie sztucznej inteligencji i robotyki na brytyjskim University of Sheffield. .
Jezus mówi: „Albowiem będzie wielki ucisk, jakiego nie było od początku świata aż do dzisiaj, i nie będzie. I jeśliby te dni nie były skrócone, żadne ciało nie byłoby zbawione; ale ze względu na wybranych te dni zostaną skrócone. " Mateusza 24: 22-23. Jeśli teraz przeczytasz Księgę Objawienia, rozdział 9, zobaczymy uwolnionych czterech aniołów i armię przygotowaną na idealny czas, i zabiją 1/3 ludzkości. Również armia liczy 200 milionów i siedzi na dziwnych koniach. Mają pancerze ognia i... Czytaj więcej "
Naprawdę trudno pojąć, jak późna jest godzina. Nie ma powrotu, a sytuacja będzie się pogarszać. Księga Objawienia wydaje się nam teraz tak realna. Myślenie, że wszystko zostanie zniszczone, jest trudne do pojęcia. Ale na pewno wszystko zostanie zniszczone. „Ale dzień Pański nadejdzie jak złodziej w nocy; w którym niebiosa przeminą z wielkim hałasem, a żywioły roztopią się w gorącym żarze, a ziemia i dzieła, które na niej są, zostaną spalone. Widząc to... Czytaj więcej "