Sztuczna inteligencja doprowadzi do ludzkiej duszy, a nie jej zniszczy

Udostępnij tę historię!

Od dawna stwierdzałem, że cele technokratów i transhumanistów są przepojone czystą fantazją i nigdy nie zostaną osiągnięte tak, jak sobie wyobrażają. „Dusza” człowieka nigdy nie zostanie załadowana do komputera. Roboty inteligentniejsze od człowieka nigdy nie będą przemierzać miejskich krajobrazów. To pozostawia im możliwość sfałszowania tego, w czym już osiągają biegłość.  Edytor TN

Elon Musk zrównał Sztuczną Inteligencję z „przywoływaniem demona” i alarmuje, że AI rozwija się szybciej niż ktokolwiek zdaje sobie sprawę, stwarzając egzystencjalne zagrożenie dla ludzkości. Stephen Hawking ostrzegł, że AI może wystartować i opuścić rasę ludzką, ograniczoną powolnym tempem ewolucji, w pyle. Bill Gates uważa się w obozie za zaniepokojonego super wywiadem. I chociaż Mark Zuckerburg lekceważy potencjalne zagrożenie AI, Facebook niedawno wyłączył silnik AI po tym, jak podobno odkrył, że stworzył nowy język, którego ludzie nie mogą zrozumieć.

Obawy dotyczące sztucznej inteligencji są całkowicie logiczne, jeśli wszystko, co istnieje, to materia fizyczna. Jeśli tak, byłoby nieuniknione, że sztuczna inteligencja - zaprojektowana przez naszą inteligencję, ale zbudowana na lepszej platformie niż biochemia - przekroczyłaby ludzkie możliwości, które pojawiają się przypadkowo.

W rzeczywistości, w czysto fizycznym świecie, w pełni zrealizowana sztuczna inteligencja powinna być uznana za właściwy wynik doboru naturalnego; my, ludzie, powinniśmy z tego skorzystać, póki możemy. W końcu prędzej czy później ludzkość przestanie istnieć, niezależnie od tego, czy zabraknie słońca, czy czegoś bardziej przyziemnego, w tym wyginięcia wywołanego sztuczną inteligencją. Do tego czasu nie byłoby lepiej zmaksymalizować ludzki rozkwit za pomocą sztucznej inteligencji zamiast rezygnować z jej korzyści w nadziei na przedłużenie daty końcowej ludzkości?

Jak to wszystko może się wydawać, w rzeczywistości to, co wiemy o ludzkim umyśle, zdecydowanie sugeruje, że pełna AI nie nastąpi. Sama materia fizyczna nie jest w stanie wytworzyć całościowych, subiektywnych doświadczeń, takich jak oglądanie zachodu słońca podczas słuchania mew morskich, a zaproponowane mechanizmy zaradzenia znanym brakom materii w porównaniu z umysłem, takie jak powstające właściwości, są nieodpowiednie i sfałszowane. Dlatego jest wysoce prawdopodobne, że mamy niematerialne umysły.

To prawda, że ​​formy AI już osiągają imponujące wyniki. Wykorzystują brutalną siłę, ogromną i szybką pamięć, automatyzację opartą na regułach i warstwy dopasowywania wzorców, aby wykonywać swoje niezwykłe wyczyny. Ale to przetwarzanie nie jest świadome, postrzegające, czujące, poznawcze. Przetwarzanie nie wykracza poza zamierzone działania, nawet jeśli wyniki są nieprzewidywalne. Technologia oparta na tym poziomie sztucznej inteligencji często będzie dość niezwykła i na pewno musi być dobrze zarządzana, aby uniknąć niebezpiecznych następstw. Jednak sama w sobie AI nie może prowadzić do prawdziwej replikacji ludzkiego umysłu.

Pełnej sztucznej inteligencji - czyli sztucznej inteligencji zdolnej do dopasowania, a być może nawet przewyższenia ludzkiego umysłu - nie da się osiągnąć, jeśli nie odkryjemy za pomocą środków materialnych podstawy istnienia niematerialnych umysłów, a potem nie nauczymy się, jak nadawać to maszynom. W filozofii podstawowy problem nazywany jest problemem „jakości”. Nasza świadomość zewnętrznych przedmiotów i kolorów; nasza samoświadomość; nasze konceptualne rozumienie czasu; nasze doświadczenia transcendencji, czy to zwykły zachwyt przed pięknem, czy matematyczna prawda; lub nasze stany mistyczne, wszystkie wyraźnie wskazują na coś, co jest jakościowo różni się od świata materialnego. Każdy, kto ma przyzwoite zrozumienie fizyki, informatyki i ludzkiego umysłu, powinien być w stanie to wiedzieć, szczególnie osoby najbardziej zaniepokojone możliwościami AI.

Przeczytaj całą historię tutaj…

Zapisz się!
Powiadamiaj o
gość

0 Komentarze
Informacje zwrotne w linii
Wyświetl wszystkie komentarze