ChatGPT może mieć nieodwracalne konsekwencje dla nauki i podejmowania decyzji

Wikipedia Commons
Udostępnij tę historię!
Istnieją dwa aspekty umysłu. Jedna dotyczy tego, co myślisz, a sztuczna inteligencja może w mgnieniu oka napełnić twój mózg bzdurami. Drugim aspektem jest to, jak myślisz lub jak dochodzisz do wniosków, przekonań itp. ChatGPT i sobowtóry mają potencjał, aby przeprogramować twój mózg i po cichu zmienić ścieżki podejmowania decyzji. Jest to szczególnie niebezpieczne dla młodzieży do 25 roku życia, ponieważ mózgi są ustawiane na całe życie. ⁃ Redaktor TN

Współczesna trajektoria ludzkości została zdefiniowana przez kilka punktów zwrotnych. Wynalezienie między innymi elektryczności, żarówki, systemu telegraficznego, komputera i Internetu zasygnalizowało nowe nieodwracalne kamienie milowe w naszym modus vivendi. Niedawne wprowadzenie ChatGPT może jednak okazać się czymś więcej niż punktem zwrotnym. Może to trwale zakłócić nasz styl życia; jego bloopers Wokistyczne napady złości jednakże.

ChatGPT jest obecnie najszybciej rozwijającą się aplikacją konsumencką w historii. W ciągu dwóch miesięcy od uruchomienia w listopadzie 2022 r. ChatGPT zgromadził ponad 100 milionów użytkowników. Jego twórca OpenAI, który zaczynał z 375 pracownikami i niewielkimi dochodami, jest teraz wyceniany $ 30 mld i wciąż rośnie.

Jak to działa? Mówiąc ogólnie, ChatGPT agreguje dane ze źródeł internetowych i syntetyzuje odpowiedzi na zapytanie w ciągu kilku sekund. Jest to obecnie najbardziej wszechstronny ze stajni nowych dużych modeli językowych opartych na sztucznej inteligencji. Może komponować nuty, pisać kody oprogramowania, rozwiązywać równania matematyczne, pisać powieści, eseje i rozprawy, wśród wielu innych zadań. Może służyć naukowcom do tłumaczenia swoich oryginalnych prac – napisanych w ojczystym języku – na język angielski. Wraz z ewolucją narzędzi AI, takich jak ChatGPT, mogą one zastąpić działalność człowieka w szerokim, ale nieobliczalnym spektrum. Stawką mogą być setki milionów miejsc pracy.

Jego najbardziej bezpośredni wpływ będzie jednak dotyczył obszaru ludzkiego uczenia się i podejmowania decyzji.

Uczenie się człowieka

Uczenie się człowieka to proces trwający całe życie, kształtowany przez niezliczone czynniki. Obejmują one (między innymi) doświadczenie, instynkt, interakcje, błędy (i poprawki), introspekcję, osobisty niepokój, śmiałość, opiekę, dane tekstowe i indywidualną psychikę. Większość z tych warunków wstępnych jest obca ChatGPT i obejmuje to aksjomat „bez bólu bez korzyści” dla ludzkiego uczenia się i rozwoju.

Na narzędzia AI nie mają również wpływu ograniczenia ludzkie, takie jak ograniczenia czasowe, zmęczenie, „dni wolne” i dolegliwości. Z biegiem czasu te ograniczenia skłoniły ludzi do delegowania swoich obowiązków egzystencjalny wymóg myślenia i uczenia się do maszyn. Nieubłagana cyfryzacja uczyniła nas również biegłymi w tym wiedząc, gdzie i jak szukać informacji zamiast uczenie się, jak zachować te same informacje. Ilu z nas zapamiętuje w dzisiejszych czasach numery telefonów rodziny, współpracowników i przyjaciół? Cyfrowa kula jest teraz niezbędna do poruszania się po drogach (np. Waze, Mapy Google), gotowania (kanały wideo), naprawy urządzeń (kanały DIY) i wielu innych przyziemnych czynności. Nasze codzienne zadania szybko stają się coraz liczniejsze mechanistyczny, wypierając naszą zdolność do tworzenia czegoś nowego lub zmieniającego zasady gry. Stajemy się przedłużeniem naszych maszyn zamiast odwrotnie. W rezultacie ludzkość stoi obecnie w obliczu ery zbiorowego odrętwienia i konformizmu.

Nie ma lepszego sposobu na sprawdzenie, w jaki sposób narzędzia sztucznej inteligencji mogą wpływać na nasze zdolności myślenia i uczenia się, niż obserwacja wpływu ChatGPT na sektor edukacji globalnej. Zarówno uczniowie, jak i nauczyciele używają teraz ChatGPT jako dodatku edukacyjnego, narzędzia do oszukiwania lub cyfrowej kuli.

Ostatnia badanie przeprowadzone przez Walton Family Foundation i Impact Research wykazały, że większość nauczycieli (51%) i wielu uczniów już korzysta z ChatGPT w szkołach. Kolejna ankieta z udziałem 1,000 amerykańskich szkół wyższych okazało się, że 30% uczniów używało ChatGPT do zadań pisemnych, a 60% z nich używało go w „ponad połowie swoich zadań”. ChatGPT przeszedł wiele egzaminy na wysokim poziomie, w tym egzamin Wharton MBA, amerykański egzamin medyczny, kilka egzaminów prawniczych i finał w Stanford Medical School.

Papiernie może również używać ChatGPT do tworzenia artykułów i raportów naukowych. Naukowcy, którzy wykorzystują takie wymyślone dane lub celowo fałszują proces badawczy za pomocą generatywnej sztucznej inteligencji, mogą promować polityki i produkty szkodliwe dla społeczeństwa. Świat nie może sobie pozwolić na kolejną koronapsychozę!

Podsumowując, zarówno uczniowie, jak i nauczyciele są coraz bardziej zastraszani przez Wszechmocną Sztuczną Inteligencję. Sztuczna inteligencja podnosi poprzeczkę studentom, profesorom i różnym profesjonalistom. Sortowanie autentycznych artefaktów również staje się coraz trudniejsze.

As Krzysztof Kanan, profesor nadzwyczajny informatyki na Uniwersytecie w Rochester zauważył ostatnio: „Trudniej jest ustalić, kto wie co i kto otrzymuje pomoc od takich rzeczy jak ChatGPT”. Kilka szkół w Nowym Jorku, Hongkongu, Bangalore i innych krajach zakazało uczniom korzystania z ChatGPT w swoich zadaniach z powodu obaw o „plagiat”, oszustwa i dezinformację.

Podczas gdy ChatGPT jest doskonałym narzędziem do badania złożonych koncepcji i wątków integracja wiedzyw rzeczywistości może przekształcić większość użytkowników w potulnych konsumentów danych generowanych przez sztuczną inteligencję. Długotrwała bierność za pośrednictwem mediów cyfrowych zanika zdolność myślenia.

Kolejną wadą ChatGPT jest jego potencjał do poszerzenia szeroko dyskutowanej przepaści cyfrowej. Podania o pracę, awanse, stypendia itp. będą w przeważającej mierze faworyzować cyfrowych posiadaczy nad cyfrowymi nieposiadającymi, zwłaszcza gdy wymagane są opłaty abonamentowe za dostęp.

W tej chwili nauczyciele nie są w stanie określić etycznych granic ChatGPT i przyjmują postawę wyczekującą. Same ramy etyczne mogą być tworzone za pomocą narzędzi takich jak ChatGPT lub przy ich pomocy. Aini Suzana Ariffin, profesor nadzwyczajny studiów politycznych na Universiti Teknologi Malaysia, jest przekonana, że ​​pedagodzy nie muszą się niepokoić. „Ramy etyczne dla generatywnych narzędzi sztucznej inteligencji, takich jak ChatGPT, pozwolą ustalić, co wspomaga proces uczenia się, a co go utrudnia. Może to zająć trochę czasu i będzie wymagać wielu dyskusji, ale lepiej zacznijmy już teraz”.

Podejmowanie decyzji przez ludzi

Rząd Singapuru ogłosił niedawno, że jego urzędnicy służby cywilnej zaczną używać ChatGPT, aby zmniejszyć obciążenie pracą. Ma to sens, ponieważ powtarzalne lub przyziemne zadania można przyspieszyć za pomocą narzędzi AI. Jednak w miarę jak generatywne narzędzia sztucznej inteligencji stają się wykładniczo bardziej inteligentne i wydajne – i rzeczywiście tak się stanie – kompleks zarządzania może stopniowo zostać przejęty przez maszyny. Ta wyłaniająca się forma porządku społecznego nazywa się „algokracja”; taki, w którym algorytmy, zwłaszcza sztuczna inteligencja i łańcuch bloków, są stosowane w całym spektrum rządzenia. Algokracja nieuchronnie pociąga za sobą predykcyjne zarządzanie. Berlińska policja już włączyła do swojej embrionalnej formy algokracji przewidywanie działań policji system. Czy mamy do czynienia z Raport mniejszości społeczeństwo w niedalekiej przyszłości?

ChatGPT przyspiesza również przepływ informacji na najwyższe szczeble decyzyjne rządu lub organizacji – omijając tradycyjne role strażników biurokracji na poziomach pośrednich. Chociaż można to uznać za mile widzianą zmianę w walce z biurokracją, brak tradycyjnych mechanizmów kontroli i równowagi może prowadzić do stanowczych decyzji o opłakanych implikacjach społeczno-ekonomicznych. Wyobraź sobie przeszczepienie takiego algokratycznego systemu decyzyjnego do infrastruktury broni jądrowej supermocarstwa wojskowego?

ChatGPT ponosi również ryzyko naruszenia prywatności i wycieku danych osobowych w sektorach takich jak bankowość i opieka zdrowotna. Skuteczność generatywnych narzędzi sztucznej inteligencji jest napędzana przez stale rosnącą ilość danych, które są stale zapętlane z powrotem do ich sieci neuronowych. To dążenie do dokładności, wydajności i szybkości może skutkować narażeniem prywatnych danych w ramach procesu uczenia maszynowego.

W obszarze opieki zdrowotnej, świadoma zgoda opieki zdrowotnej wspomaganej przez sztuczną inteligencję może zostać zmniejszona, ponieważ pacjenci mogą albo nie rozumieć, na co wyrażają zgodę, albo mogą nadmiernie ufać „inteligentnemu i bezstronnemu” systemowi opartemu na maszynach. Staje się bardziej złowieszczy, gdy segregacja jest stosowana w sytuacjach krytycznych. Tradycyjnie segregacja zależy od uczciwości i umiejętności obecnego personelu medycznego, a także dostępnych zasobów in situ. Algorytm może jednak beznamiętnie zorganizować segregację w oparciu o „wartość pacjenta dla społeczeństwa”; oczekiwana długość życia wywnioskowana z danych; oraz koszty związane z ratowaniem życia pacjenta.

Etyczne wymiary segregacji za pośrednictwem sztucznej inteligencji nie zostały rozwiązane. Warto jednak zauważyć, że współzałożyciel Microsoftu, Bill Gates, jest za panele śmierci dla nieuleczalnie chorych, którzy „nie przynoszą korzyści społeczeństwu” i których zachowanie może rzekomo zrównoważyć pracę „stu tysięcy nauczycieli”. Rozciągając tę ​​​​logikę dalej, możemy być świadkami przyszłego mandatu dla „inteligentnych dzieci”, które rzekomo zaludnią „inteligentne społeczeństwo”. Wyrafinowane algorytmy przyszłości mogą oddzielić genetyczne dobra od genetycznych niedoborów za pomocą testów DNA płodu i narzędzi, takich jak preimplantacyjna diagnostyka genetyczna (PGD). Ten eugeniczny impuls został eufemistycznie nazwany „dobroczynnością prokreacyjną”. Nawiasem mówiąc, Bill Gates wsparł finansowo chińską firmę, która pracuje nad stworzeniem „superdzieci”. Czy można się dziwić, że Microsoft jest głównym sponsorem finansowym OpenAI?

Czy ostatecznie etyczne ramy sztucznej inteligencji zostaną zablokowane przez Tech Titans, którzy mogą określić projekt, parametry i cele generatywnych narzędzi sztucznej inteligencji? Czy też nasi wybrani przywódcy będą próbowali szukać synergicznego współistnienia sztucznej inteligencji i ludzi.

Przeczytaj całą historię tutaj…

O wydawcy

Patrick Wood
Patrick Wood jest wiodącym i krytycznym ekspertem w dziedzinie zrównoważonego rozwoju, zielonej gospodarki, agendy 21, 2030 i historycznej technokracji. Jest autorem Technocracy Rising: The Trojan Horse of Global Transformation (2015) i współautorem Trilaterals Over Washington, Volumes I i II (1978–1980) wraz z nieżyjącym Antonim C. Suttonem.
Zapisz się!
Powiadamiaj o
gość

12 Komentarze
Starsze
Najnowszy Najczęściej zagłosowano
Informacje zwrotne w linii
Wyświetl wszystkie komentarze
Val Walerian

ChatGPT może mieć nieodwracalne konsekwencje. Technokraci nie dbają o stan psychiczny i psychologiczny populacji, a i tak to robią, pomimo realizacji omówionych w artykule. Nie mogą sobie pomóc. Chcą, aby populacja utknęła w myśleniu grupowym, bezsensownych ideologiach opartych na kontroli i postawili sobie za cel zastraszanie i eliminowanie indywidualizmu w jak największym stopniu. Zajmują się symulacjami i przybliżeniami, będąc w mentalności redukcjonistycznych wzorców myślowych i modeli materialnych, z których wszystkie zaprzeczają naturze Ducha, kim naprawdę jesteśmy. Są więc egzystencjalnie niedojrzali i niebezpieczni, przywiązani do wielu... Czytaj więcej "

Anne

Słuszne uwagi. Wynalazcy złych rzeczy bez wątpienia chcą, aby wszyscy byli w zgodzie z diabłem i antychrystem. Dlatego nie mam zaufania do większości dzisiejszych osiągnięć medycznych i technologicznych. Jest dla mnie jasne jak słońce, że wszystko to prowadzi do systemu bestii i wielkiego ucisku.

Erik Nielsen

Dobry. Widzę wielu młodych ludzi już zamkniętych w mentalnym matrixie, z którego nie mogą się wydostać.

Nie potrafią wyciągać prostych logicznych wniosków i po prostu ignorują udokumentowaną rzeczywistość.

Ale problem dla nas polega na tym, jak zerwać się z ich haka? Wiszą na nas jak ołów, aby stworzyć swój prosty światopogląd.
Nie możemy kontynuować negatywnego życia jako pielęgniarki psychologiczne dla 3-5 miliardów niepełnosprawnych umysłowo, którzy myślą, że są gwiazdami filmowymi jako cyfrowi nomadzi.

[…] Przeczytaj oryginalny artykuł […]

Anne

ChatGPT może uczyć się bez mojego udziału. I mogę się uczyć bez jego pomocy. Jeśli pomyśleć o tym. ChatGPT uczy się więcej za darmo, przeszukując bazy danych pod kątem zapytań od osób, które z niego korzystają. Nie chcę poznawać CharGPT. Nie chcę też, aby ChatGPT wiedział o moim istnieniu. Nowoczesna technologia może być dobra, jeśli jest tworzona przez etycznych ludzi o dobrych intencjach. Ale kiedy jest jasne jak słońce, diabeł tkwi w szczegółach. Trzymam się z dala od wszystkiego lub kogokolwiek, na kim ma ręce.

[…] ChatGPT może mieć nieodwracalne konsekwencje dla uczenia się i podejmowania decyzji […]

[…] ChatGPT może mieć nieodwracalne konsekwencje dla uczenia się i podejmowania decyzji […]

Elle

Ten program stanowi ostatni gwóźdź do trumny ogłupiania ludzkości zaraz po publicznej edukacji. Poszukiwacze prawdy muszą teraz zachować czujność w Internecie, wiedzieć, skąd pierwotnie pojawiły się fakty na dany temat i zbudować bibliotekę osobistej wiedzy, którą można się dzielić, tak aby, gdy zobaczymy informacje powtarzane przez „ChatCrap”, rozpoznaliśmy je jako takie i ich unikaliśmy . Na początku nie powinno to być trudne, dopóki tyrani nie zamkną dostępu do prawdziwych informacji, o których wiemy, że nadejdą. Do tego czasu jest TAK wielu strażników wiedzy online, którzy polują na fretki... Czytaj więcej "

DawnieR

„ChatGPT może mieć nieodwracalne konsekwencje dla uczenia się i podejmowania decyzji”……

Jesteśmy LOOOOOOOOONG przeszłości, dzięki naszym SKOOLS (przeliterowane celowo)!!

[…] ChatGPT może mieć nieodwracalne konsekwencje dla uczenia się i podejmowania decyzji […]

[…] ChatGPT może mieć nieodwracalne konsekwencje dla uczenia się i podejmowania decyzji […]

[…] 15 MARCA 2023 | CHATGPT MOŻE MIEĆ NIEODWRACALNE KONSEKWENCJE DLA NAUKI I PODEJMOWANIA DECYZJI […]