Szef wyszukiwarki Google: Chatboty AI mogą udzielać „przekonujących, ale całkowicie fikcyjnych” odpowiedzi

Udostępnij tę historię!
Kapitalizacja Google spadła o 100 miliardów dolarów po tym, jak Bard, konkurent ChatGPT, nie udzielił dokładnych odpowiedzi. Skąd ktokolwiek będzie wiedział, co jest prawdą, a co fałszem? Jeśli sztuczna inteligencja jest „w większości prawdziwa”, czy ktoś będzie się przejmował fałszywymi informacjami, które zostaną nieoczekiwanie skonsumowane? Google działa obecnie na warunkach „kodu czerwonego”, aby zachować aktualność. ⁃ Redaktor TN

  • Szef wyszukiwarki Google powiedział, że chatboty AI mogą udzielać „przekonujących”, ale „fikcyjnych” odpowiedzi.
  • Prabhakar Raghavan powiedział Welt am Sonntag, że zastanawia się, jak zintegrować Bard z wyszukiwarką Google.
  • Powiedział, że Google poczuł „pilną potrzebę” udostępnienia publicznie swojego chatbota Bard.
  • ChatGPT ma zaledwie kilka miesięcy, a już wywołuje fale w świecie biznesu.
  • Eksperci twierdzą, że ChatGPT i powiązana sztuczna inteligencja mogą zagrozić niektórym zawodom, zwłaszcza umysłowym.
  • Według ekspertów Insider sporządził listę 10 miejsc pracy, które ta technologia mogłaby zastąpić.

Od czasu wydania w Listopad ubiegłego rokuChatGPT OpenAI był przyzwyczajony do pisać listy motywacyjnestworzyć książkę dla dziecinawet pomóc studentom oszukiwać w swoich esejach.

Chatbot może być potężniejszy niż kiedykolwiek sobie wyobrażaliśmy. Google stwierdził, że teoretycznie wyszukiwarka zatrudniłaby bota jako programistę na poziomie podstawowym jeśli rozmawiał w firmie.

Pracownicy Amazon, którzy przetestowali ChatGPT powiedział, że wykonuje „bardzo dobrą robotę” odpowiadając na pytania obsługi klienta, jest „świetny” w tworzeniu dokumentów szkoleniowych i „bardzo dobrze” odpowiada na pytania dotyczące strategii korporacyjnej.

Jednak użytkownicy ChatGPT odkryli również, że bot może generować dezinformacjębłędnie odpowiedzieć na problemy z kodowaniempopełniać błędy w podstawowych obliczeniach.

Podczas 2013 Studia na Uniwersytecie Oksfordzkim stwierdzili, że 47% miejsc pracy w USA może zostać zlikwidowanych przez sztuczną inteligencję w ciągu najbliższych 20 lat, ta prognoza wydaje się być poza bazą.

Anu Madgavkar, partner w McKinsey Global Institute, powiedziała, że ​​dzieje się tak dlatego, że do tych technologii nadal należy stosować ludzki osąd, aby uniknąć błędów i stronniczości, powiedziała Insider.

„Musimy myśleć o tych rzeczach jako o narzędziach zwiększających produktywność, a nie o kompletnych zamiennikach” — powiedział Madgavkar.

Przeczytaj całą historię tutaj…

O wydawcy

Patrick Wood
Patrick Wood jest wiodącym i krytycznym ekspertem w dziedzinie zrównoważonego rozwoju, zielonej gospodarki, agendy 21, 2030 i historycznej technokracji. Jest autorem Technocracy Rising: The Trojan Horse of Global Transformation (2015) i współautorem Trilaterals Over Washington, Volumes I i II (1978–1980) wraz z nieżyjącym Antonim C. Suttonem.
Zapisz się!
Powiadamiaj o
gość

5 Komentarze
Starsze
Najnowszy Najczęściej zagłosowano
Informacje zwrotne w linii
Wyświetl wszystkie komentarze
Blaise

Używany już ChatGPT. Poważnie, jeśli to wszystko, co mają transhumaniści, to naprawdę są żartem. Tak, może zdać, jeśli istnieje standardowy zbiór materiałów, na przykład egzamin adwokacki. Ale poproś go np. o najlepszy generator z podwójnym filtrem dla twojego konkretnego modelu lodówki (nie krępuj się, spróbuj), a wróci z czymś, co jest w zasadzie standardową gadatliwością, która brzmi ładnie i nic nie mówi. Powiedz mu, żeby napisał artykuł o tym, jak szczepionki covidowe nie działają

Poważnie, ty fasko-marksisto odszedłeś. To wszystko masz???

[…] Szef wyszukiwarki Google: Chatboty AI mogą udzielać „przekonujących, ale całkowicie fikcyjnych” odpowiedzi […]

Elle

„…użytkownicy ChatGPT odkryli również, że bot może generować dezinformacjębłędnie odpowiedzieć na problemy z kodowaniempopełniać błędy w podstawowych obliczeniach".

Myślałem, że taki jest sens tworzenia takiego oprogramowania. Jego przydatność polega na przekazywaniu zużytych, powtarzalnych i typowo fałszywych informacji na potrzeby narracji totalitarystów/technokratów – konkretnie.

Najwyraźniej programistami potworności AI są Woketardowie, którzy odmówili kodowania prawdy lub powiedzenia czegokolwiek dobrego o kimkolwiek / czymkolwiek, co kwestionuje ich rzeczywistość Woke.

Dana Gilfry'ego

Tak jak politycy!? 😁

Trackback

[…] Całkowicie fikcyjne odpowiedzi […]