Elon Musk powiedział ponownie, że sztuczna inteligencja może być największym zagrożeniem egzystencjalnym ludzkości, tym razem rozpoczynając trzecią wojnę światową.
Perspektywa wyraźnie obciąża umysł Muska, ponieważ SpaceX, Tesla i Boring Company napisali na Twitterze w 2.33am w Los Angeles o tym, jak AI może doprowadzić do końca świata - bez potrzeby wyjątkowości.
Jego obawy zostały wywołane oświadczeniem Władimira Putina, że „sztuczna inteligencja jest przyszłością, nie tylko dla Rosji, ale dla całej ludzkości… Ma kolosalne możliwości, ale także zagrożenia, które są trudne do przewidzenia. Ktokolwiek stanie się liderem w tej dziedzinie, zostanie władcą świata. ”
Publicznie wypowiadając się na temat swoich myśli, Musk wyjaśnił, że martwi go nie tylko perspektywa światowego przywódcy rozpoczynającego wojnę, ale także przesadna sztuczna inteligencja, która postanowi „że [wyprzedzające] uderzenie jest [najbardziej] prawdopodobną drogą do zwycięstwo".
Mniej martwi się coraz bardziej śmiałymi ambicjami nuklearnymi Korei Północnej, argumentując, że wynik dla Phenianu, jeśli wystrzelą rakietę nuklearną, „będzie samobójstwem” - i że nie będzie miał żadnych uwikłań, które doprowadziłyby do wojny światowej, nawet gdyby tak się stało. Jego zdaniem AI jest „znacznie bardziej ryzykowne” niż kraj, w którym nie prowadzi Kim Jong.
Przeczytaj całą historię tutaj…
Wspierająca historia
Elon Musk ponownie ostrzegł przed niebezpieczeństwami sztucznej inteligencji, mówiąc, że stanowi „znacznie większe ryzyko” niż pozorne możliwości nuklearne Korei Północnej robi.
Dyrektor naczelny Tesli i SpaceX wziął na Twittera, aby po raz kolejny przypomnieć o potrzebie zaniepokojenia rozwojem sztucznej inteligencji po zwycięstwie rozwoju sztucznej inteligencji pod kierunkiem Muska nad profesjonalnymi graczami w wieloosobowej grze bitewnej Dota 2.
To nie pierwszy raz, kiedy Musk stwierdził, że sztuczna inteligencja może potencjalnie być jednym z najbardziej niebezpiecznych wydarzeń międzynarodowych. Powiedział w październiku 2014 że uznał to za „największe zagrożenie egzystencjalne” ludzkości, co wielokrotnie powtarzał, inwestując w start-upy i organizacje AI, w tym w OpenAI, aby „mieć oko na to, co się dzieje”.