Profesor: Wojowniczy liberałowie upolityczniają sztuczną inteligencję

Udostępnij tę historię!
Chociaż pierwotnie opublikowany w grudniu 2020 r., ten artykuł napisany przez emerytowanego profesora informatyki i inżynierii ma kluczowe znaczenie dla zrozumienia zagrożenia stwarzanego przez „obudzony” ChatGPT Open AI i Google Bard. Jeśli są obudzeni lub stronniczy, dzieje się tak dlatego, że tak zostało im pisane.

Jedno zastrzeżenie, które muszę rzucić, to to, że proces uczenia się sztucznej inteligencji pochłania dosłownie wszystko w Internecie, który zawiera wysoki procent obudzonych/stronniczych informacji. Uczenie się z obudzonych historii, książek, filmów itp. Może wystarczyć, aby doprowadzić do przebudzenia sztucznej inteligencji. Niemniej jednak możliwe byłoby programowe odrzucenie wyciągniętych wniosków, ale nie podjęto żadnych wysiłków, aby to zrobić. ⁃ Redaktor TN

Co zrobisz, jeśli decyzje, które kiedyś podejmowali ludzie, ze wszystkimi ich uprzedzeniami, zaczną być podejmowane przez algorytmy, które z matematycznego punktu widzenia nie są zdolne do stronniczości? Jeśli jesteś racjonalny, powinieneś świętować. Jeśli jesteś wojującym liberałem, rozpoznajesz ten rozwój jako śmiertelne zagrożenie i walczysz o odzyskanie kontroli.

Można to zobaczyć na konferencjach AI. W zeszłym tygodniu uczestniczyłem w edycji 2020 NeurIPS, wiodącej międzynarodowej konferencji dotyczącej uczenia maszynowego. To, co zaczęło się jako małe zgromadzenie, teraz skupia wystarczającą liczbę osób, aby wypełnić arenę sportową. W tym roku po raz pierwszy NeuroIPS wymagał, aby większość dokumentów zawierała oświadczenie o „szerszym wpływie” i podlegała ocenie przez komisję etyczną. Każdy artykuł opisujący na przykład, jak przyspieszyć algorytm, musi teraz zawierać sekcję dotyczącą społecznych dóbr i zła tego niejasnego postępu technicznego. „Niezależnie od jakości naukowej lub wkładu” – głosiło zaproszenie do składania dokumentów – „zgłoszenie może zostać odrzucone ze względu na… w tym metody, zastosowania lub dane, które tworzą lub wzmacniają nieuczciwą stronniczość”.

To był dopiero ostatni obrót mechanizmu zapadkowego. Poprzednie obejmowały zmianę nazwy konferencji na bardziej poprawną politycznie i wymaganie od uczestników wyraźnego zaakceptowania obszernego „kodeksu postępowania”, zanim będą mogli się zarejestrować, co pozwala konferencji wyrzucić uczestników za opublikowanie w mediach społecznościowych czegoś, co nie spodobało się urzędnikom. Mówiąc poważniej, pojawiła się cała poddziedzina sztucznej inteligencji, której wyraźnym celem jest między innymi „debiasing” algorytmów. To jest teraz w pełnym rozkwicie.

Opublikowałem kilka tweetów, w których pojawiły się pytania dotyczące ostatnich zmian — i tłum anulujących zstąpił na mnie. Obelgi, drwiny, groźby — co tylko chcesz. Można by pomyśleć, że naukowcy byliby ponad takimi zachowaniami, ale nie. Zwróciłem uwagę, że NeurIPS jest odstający w wymaganiu szerszych oświadczeń o wpływie, a anulujący wielokrotnie zmieniali temat. Argumentowałem przeciwko upolitycznieniu sztucznej inteligencji, ale uznali to za zaprzeczenie, że jakiekolwiek względy etyczne są ważne. Dyrektor korporacyjny ds. badań nad uczeniem maszynowym, również profesor Caltech, opublikował na Twitterze, aby wszyscy mogli zobaczyć długą listę osób do anulowania, których jedynym przestępstwem było obserwowanie mnie lub polubienie jednego z moich tweetów. Temu samemu tłumowi udało się zmusić mój uniwersytet do wydania oświadczenia zaprzeczającego moim poglądom i potwierdzającego jego liberalne referencje.

Dlaczego zamieszanie? Dane mogą oczywiście mieć uprzedzenia, podobnie jak analitycy danych. A algorytmy kodowane przez ludzi mogą w zasadzie robić wszystko, co im powiemy. Ale algorytmy uczenia maszynowego, podobnie jak prawie wszystkie algorytmy, które można znaleźć w podręcznikach informatyki, są w zasadzie tylko złożonymi formułami matematycznymi, które nie wiedzą nic o rasie, płci ani statusie społeczno-ekonomicznym. Nie mogą być rasistami ani seksistami bardziej niż formuła y = ax + b.

Bestsellerowa książka Daniela Kahnemana pt. Myślenie, szybko i powoli, ma cały rozdział o tym, w jaki sposób algorytmy są bardziej obiektywne niż ludzie, a zatem podejmują lepsze decyzje. Jednak dla wojowniczego liberalnego umysłu są to szamba niegodziwości i muszą zostać oczyszczone.

Algorytmy czyszczące oznaczają w praktyce wprowadzanie do nich uprzedzeń faworyzujących określone grupy, w efekcie przywracając w zautomatyzowanej formie kontrolę społeczną, której tak bardzo zależy lewicy politycznej. Innymi słowy „Debiasing” oznacza dodanie uprzedzeń. Nic dziwnego, że powoduje to, że algorytmy działają gorzej w zamierzonej funkcji. Algorytmy oceny kart kredytowych mogą odrzucić bardziej wykwalifikowanych kandydatów, aby zapewnić przyjęcie takiej samej liczby kobiet i mężczyzn. Algorytmy konsultacji w sprawie zwolnienia warunkowego mogą zalecać uwolnienie bardziej niebezpiecznych przestępców w celu uwolnienia proporcjonalnej liczby białych i czarnych. Niektórzy nawet opowiadają się za zakazem używania w algorytmach wszystkich zmiennych skorelowanych z rasą lub płcią, ponieważ są one równoznaczne z podkreśleniem. To nie tylko uniemożliwiłoby uczenie maszynowe i wszystkie jego zalety, ale jest szczególnie ironiczne, biorąc pod uwagę, że właśnie te zmienne są tym, czego potrzebujemy, aby oddzielić decyzje od tych, które chcemy wykluczyć.

Jeśli zakwestionujesz to lub jakiekolwiek inne z szerokiego zakresu liberalnych żądań dotyczących sztucznej inteligencji, czeka cię wiele smutku. Im bardziej prominentny naukowiec zostanie odwołany, tym lepiej, ponieważ wysyła najbardziej mrożącą krew w żyłach wiadomość wszystkim innym, zwłaszcza młodszym naukowcom. Jeff Dean, legendarny szef sztucznej inteligencji w Google, oraz Yann LeCun, główny naukowiec AI na Facebooku i współzałożyciel głębokiego uczenia się, mają jedno i drugie. Znaleźli się po stronie niezadowolenia liberalnej grupy.

Konserwatyści do tej pory byli w dużej mierze nieświadomi przyspieszającej ingerencji postępowej polityki w sztuczną inteligencję. Gdyby sztuczna inteligencja była nadal niejasną i niedojrzałą dziedziną, mogłoby to być OK, ale czas na to już dawno minął. Algorytmy w coraz większym stopniu kierują naszym życiem i tylnymi drzwiami mogą narzucić wojowniczo liberalne (w rzeczywistości nieliberalne) społeczeństwo. Za każdym razem, gdy przeprowadzasz wyszukiwanie w Internecie, korzystasz z mediów społecznościowych lub otrzymujesz rekomendacje od Amazon lub Netflix, algorytmy wybierają to, co widzisz. Algorytmy pomagają w selekcji kandydatów do pracy, wyborców, do których mają być kierowane kampanie polityczne, a nawet osoby, które umawiają się na randki. Zarówno przedsiębiorstwa, jak i ustawodawcy muszą zapewnić, że nie zostaną one naruszone. I wszyscy musimy być świadomi tego, co się dzieje, abyśmy mogli mieć coś do powiedzenia. Ja, na przykład, po tym, jak zobaczyłem, jak postępowcy beztrosko przypisują uprzedzenia nawet algorytmom, które najwyraźniej nie mogą ich mieć, zacząłem kwestionować ortodoksyjny pogląd na ludzkie uprzedzenia. Czy naprawdę jesteśmy tak głęboko i nieodwracalnie rasistami i seksistami, jak twierdzą? Myślę, że nie.

Pedro Domingos jest emerytowanym profesorem informatyki i inżynierii na Uniwersytecie Waszyngtońskim.

Przeczytaj całą historię tutaj…

O wydawcy

Patrick Wood
Patrick Wood jest wiodącym i krytycznym ekspertem w dziedzinie zrównoważonego rozwoju, zielonej gospodarki, agendy 21, 2030 i historycznej technokracji. Jest autorem Technocracy Rising: The Trojan Horse of Global Transformation (2015) i współautorem Trilaterals Over Washington, Volumes I i II (1978–1980) wraz z nieżyjącym Antonim C. Suttonem.
Zapisz się!
Powiadamiaj o
gość

4 Komentarze
Starsze
Najnowszy Najczęściej zagłosowano
Informacje zwrotne w linii
Wyświetl wszystkie komentarze

[…] Przeczytaj oryginalny artykuł […]

Słoneczny

Według moich szacunków, po usunięciu Internetu (wkrótce), nastąpi ponowne uruchomienie z GPT i Bardem itp. al., jako nasze nowe i jedyne opcje wyszukiwarki. Oznacza to, że będziemy karmieni tym, co chcą, żebyśmy wiedzieli i tylko tym, co chcą, żebyśmy wiedzieli. Zniknie „możesz teraz swobodnie poruszać się po kabinie”. Ugh. Pamiętaj to? „Czy korzystając z Google otrzymujesz więcej niż jedną odpowiedź? Oczywiście, że tak. Cóż, to jest błąd. Mamy więcej błędów na sekundę na świecie. Powinniśmy być w stanie udzielić Ci właściwej odpowiedzi... Czytaj więcej "

wendy

Uwielbiam to stwierdzenie, „algorytmy, które są matematycznie niezdolne do stronniczości”. Algorytmy to kody tworzone przez biblioteki technologiczne. Oczywiście, że są zdolni do stronniczości. Posunąłbym się o krok dalej, mówiąc, że cały cel sztucznej inteligencji i ogólnie algorytmów polega na tym, że ich twórcy kierują nas w stronę jednej zasady, jednego poglądu, opłacalnej, akceptowalnej odpowiedzi. Jeśli chodzi o zakupy, oczywiście skierują nasze pieniądze tam, gdzie chcą. Nie wydaliby na to miliardów, chyba że dostaliby nagrodę pieniężną. Gdyby sztuczna inteligencja była naprawdę bezstronna, żadna z nich... Czytaj więcej "

Trackback

[…] Wojowniczy liberałowie upolityczniają […]