Czy sztuczna inteligencja stanie się naprawdę głupia?

sztuczna inteligencja
Udostępnij tę historię!
Otaczający go szum pro-AI oferuje inteligencję na poziomie ludzkim, ale rzeczywistość może być znacznie mniejsza. AI może znaleźć wąskie obszary zastosowania, ale żadna wiedza nie może prowadzić do mądrości. ⁃ Edytor TN

Trudno dziś iść gdziekolwiek, nie wspominając o sztucznej inteligencji (AI). Słyszysz o tym, czytasz o tym i ciężko jest znaleźć zestaw prezentacyjny (na dowolny temat), który o nim nie wspomina. Nie ma wątpliwości, że wokół tematu jest dużo szumu.

Podczas gdy szum zwiększa świadomość AI, ułatwia także niektóre głupie działania i może odwracać uwagę ludzi od znacznego postępu. Wyodrębnienie rzeczywistości z bardziej dramatycznych nagłówków obiecuje zapewnić znaczące korzyści inwestorom, przedsiębiorcom i konsumentom.

Sztuczna inteligencja zyskała ostatnio dużą popularność dzięki dużym sukcesom, takim jak wygrana Watsona przez IBM w Jeopardy i pokonanie przez Google AlphaGo mistrza świata w grze „Go”. Waymo, Tesla i inni również poczynili wielkie postępy z pojazdami samojezdnymi. Ekspansywność aplikacji AI została schwytana przez Richarda Watersa w Financial Times [tutaj}: „Jeśli pojawił się jednoczący komunikat leżący u podstaw technologii konsumenckiej na wystawie [na pokazie elektroniki użytkowej]… to było to:„ AI we wszystkim ”.”

Wysokie sukcesy w dziedzinie sztucznej inteligencji pobudziły także wyobraźnię ludzi do tego stopnia, że ​​skłoniły inne dalekosiężne wysiłki. Jeden pouczający przykład został udokumentowany przez Thomasa H. Davenporta i Rajeeva Ronanki w Harvard Business Review [tutaj]. Opisują: „W 2013 MD Anderson Cancer Center uruchomił projekt„ strzału księżyca ”: diagnozowanie i zalecanie planów leczenia niektórych form raka za pomocą systemu poznawczego IBM Watson.” Niestety system nie działał i według 2017 „ projekt został zawieszony po tym, jak koszty przekroczyły milion 62 USD - a system musiał być jeszcze stosowany u pacjentów. ”

Wody również wychwycił inny komunikat - temperament oczekiwań. Odnosząc się do „osobistych asystentów głosowych”, zauważa, „nie jest jasne, czy technologia jest w stanie stać się naprawdę przydatna jako zamiennik smartfona w nawigacji po cyfrowym świecie”, oprócz „odtwarzania muzyki lub sprawdzania” wiadomości i pogoda ”.

Mnóstwo innych przykładów łagodnych oczekiwań. Generva Allen z Baylor College of Medicine i Rice University ostrzegła [tutaj], „Nie ufałbym bardzo dużej części odkryć, które są obecnie dokonywane przy użyciu technik uczenia maszynowego stosowanych do dużych zestawów danych”. Problem polega na tym, że wiele z tych technik ma na celu dostarczenie konkretnych odpowiedzi, a badania wiążą się z niepewnością. Opracowała: „Czasami byłoby o wiele bardziej przydatne, gdyby powiedzieli:„ Myślę, że niektóre z nich są naprawdę zgrupowane, ale nie jestem pewien co do innych ”.”

Co gorsza, w skrajnych przypadkach AI nie tylko osiąga gorsze wyniki; jeszcze go nie wdrożono. The FT raporty [tutaj], „Cztery firmy 10 europejskich startupów zajmujących się sztuczną inteligencją nie używają programów sztucznej inteligencji w swoich produktach, wynika z raportu, który podkreśla szum wokół technologii”.

Cykle zawyżonych oczekiwań, po których następują fale rozczarowania, nie są zaskoczeniem dla tych, którzy od dawna są wokół sztucznej inteligencji: zbyt dobrze wiedzą, że to nie jest pierwsze rodeo dla AI. Rzeczywiście wiele prac koncepcyjnych pochodzi z 1950-ów. Przeglądając niektóre z moich notatek, ostatnio natknąłem się na reprezentatywny artykuł badający sieci neuronowe w celu doboru akcji - datowany na 1993 [tutaj].

Najlepszym sposobem na uzyskanie punktu widzenia na sztuczną inteligencję jest przejście bezpośrednio do źródła, a Martin Ford daje nam taką możliwość poprzez swoją książkę, Architekci wywiadu. Książka, zorganizowana jako seria wywiadów z wiodącymi w branży badaczami, naukowcami i przedsiębiorcami, zawiera użyteczną historię sztucznej inteligencji i podkreśla kluczowe kierunki myślenia.

Z książki wyłaniają się dwa spostrzeżenia na wysokim poziomie. Jednym z nich jest to, że pomimo odmiennego pochodzenia i osobowości respondentów, istnieje duży konsensus w ważnych sprawach. Po drugie, wiele priorytetów i obaw najważniejszych badań nad sztuczną inteligencją różni się znacznie od tych wyrażanych w mediach głównego nurtu.

Weźmy na przykład pojęcie sztucznej inteligencji ogólnej (AGI). Jest to ściśle związane z pojęciem „osobliwości”, która jest punktem, w którym sztuczna inteligencja odpowiada ludzkiej - na jej drodze do ogromnego przekroczenia ludzkiej inteligencji. Pomysł ten wzbudził obawy ludzi dotyczące sztucznej inteligencji, które obejmują masową utratę pracy, zabójcze drony i wiele innych dramatycznych przejawów.

Wiodący badacze AI mają bardzo różne poglądy; jako grupa AGI całkowicie ich nie niepokoi. Geoffrey Hinton, profesor informatyki na Uniwersytecie w Toronto oraz wiceprezes i inżynier Google, powiedział: „Jeśli masz pytanie:„ Kiedy otrzymamy dane dowódcy [z serialu Star Trek] ”, to ja nie sądzę, że tak to będzie się rozwijać. Nie sądzę, że dostaniemy takie pojedyncze rzeczy ogólnego przeznaczenia. ”

Yoshua Bengio, profesor informatyki i badań operacyjnych na uniwersytecie w Montrealu, mówi nam: „Przed nami naprawdę trudne problemy i że jesteśmy daleko od sztucznej inteligencji na poziomie ludzkim”. Dodaje: „wszyscy jesteśmy podekscytowani, ponieważ zrobiliśmy duży postęp w wspinaniu się na wzgórze, ale gdy zbliżamy się do szczytu wzgórza, możemy zacząć widzieć szereg innych wzgórz rosnących przed nami. ”

Barbara Grosz, profesor nauk przyrodniczych na Uniwersytecie Harvarda, wyraziła swoją opinię: „Nie sądzę, aby AGI to właściwy kierunek”. Twierdzi, że ponieważ ściganie AGI (i radzenie sobie z jej konsekwencjami) jest tak daleko w przyszłości, że służą one jako „odwrócenie uwagi”.

Innym częstym wątkiem wśród badaczy AI jest przekonanie, że do AI należy się przyzwyczaić zwiększać ludzka praca zamiast zastąpić to. Cynthia Breazeal, dyrektor grupy robotów osobistych w medialnym laboratorium MIT, otacza problem: „Pytanie dotyczy synergii, komplementarności, augmentacji, która pozwala nam poszerzać ludzkie możliwości w zakresie tego, co robimy, co pozwala nam aby naprawdę mieć większy wpływ na świecie. ”Fei-Fei Li, profesor informatyki w Stanford i główny naukowiec w Google Cloud, opisał:„ AI jako technologia ma tak duży potencjał, aby poprawić i zwiększyć siłę roboczą, a także po prostu zastąpić to."

James Manyika, prezes i dyrektor McKinsey Global Institute zauważył, że ponieważ 60% zawodów ma około jedną trzecią swoich działań automatycznych, a tylko około 10% zawodów ma więcej niż 90% zautomatyzowanych, „wiele innych zawodów zostanie uzupełnionych lub uzupełnionych technologiami niż zostanie zastąpiony. ”

Ponadto AI może tylko zwiększać ludzka praca, o ile może skutecznie działać zludzka praca. Barbara Grosz zwróciła uwagę: „Powiedziałam kiedyś, że„ systemy AI są najlepsze, jeśli są projektowane z myślą o ludziach ”. Kontynuowała: „Zalecam, abyśmy dążyli do zbudowania systemu, który jest dobrym partnerem dla zespołu i współpracuje z nami tak dobrze, że nie zdajemy sobie sprawy, że nie jest on ludzki”.

David Ferrucci, założyciel Elemental Cognition i dyrektor ds. Sztucznej inteligencji w Bridgewater Associates, powiedział: „Przyszłość, którą przewidujemy w Elemental Cognition, ściśle i płynnie współpracuje z ludzką i maszynową inteligencją”. Opracował: „Uważamy to za partnerstwo myślowe. „Yoshua Bengio przypomina nam jednak o wyzwaniach związanych z utworzeniem takiego partnerstwa:„ Nie chodzi tylko o precyzję [z AI], chodzi o zrozumienie ludzkiego kontekstu, a komputery mają absolutnie zero wskazówek na ten temat ”.

Interesujące jest to, że istnieje spora zgoda co do kluczowych pomysłów, takich jak AGI, nie jest w tej chwili szczególnie przydatnym celem, sztuczną inteligencję należy stosować do zwiększania siły roboczej, a nie ją zastępować, a sztuczna inteligencja powinna współpracować z ludźmi. Interesujące jest również to, że te same lekcje potwierdzają doświadczenia korporacyjne.

Richard Waters opisuje, w jaki sposób implementacje sztucznej inteligencji wciąż znajdują się na dość podstawowym etapie w FT [tutaj]: „Odrzuć badania gee-whiz, które prowadzą do wielu nagłówków (komputer, który może pokonać ludzi w Go!), A technologia jest na podstawowym etapie”. Zauważa również: „Ale poza tą„ konsumeryzacją ”IT , który włożył w ręce łatwych w użyciu narzędzi, przegląd wewnętrznych systemów i procesów firmy wymaga dużego nakładu pracy. ”

Podnoszenie ciężarów wymaga czasu i jest tam wyjątkowo mało firm. Ginni Rometty, szefowa IBM, określa aplikacje swoich klientów jako „przypadkowe akty cyfrowe” i opisuje wiele projektów jako „chybione”. Andrew Moore, szef AI w firmie Google w chmurze, opisuje ją jako „Artisanal AI”. Rometty wyjaśnia: „Zaczynają zwykle od izolowanego zestawu danych lub przypadków użycia - takich jak usprawnienie interakcji z określoną grupą klientów. Nie są przywiązani do głębszych systemów, danych ani przepływu pracy firmy, co ogranicza ich wpływ ”.

Podczas HBR przypadek MD Anderson Cancer Center stanowi dobry przykład projektu sztucznej inteligencji, który prawdopodobnie został przekroczony, a także stanowi doskonałe wskazanie rodzajów pracy, które sztuczna inteligencja może znacznie poprawić. W tym samym czasie centrum próbowało zastosować sztuczną inteligencję do leczenia raka, „grupa IT eksperymentowała z wykorzystaniem technologii poznawczych do wykonywania znacznie mniej ambitnych zadań, takich jak wydawanie rekomendacji hotelowych i restauracyjnych dla rodzin pacjentów, określanie, którzy pacjenci potrzebowali pomocy przy płaceniu rachunki i rozwiązywanie problemów informatycznych pracowników. ”

Przeczytaj całą historię tutaj…

Zapisz się!
Powiadamiaj o
gość

0 Komentarze
Informacje zwrotne w linii
Wyświetl wszystkie komentarze