OpenAI został pierwotnie sfinansowany częściowo przez Elona Muska, wytrawnego Technocrata, którego dziadek był szefem Technocracy, Inc. w Kanadzie podczas 1930 i 40. ⁃ Edytor TN
System sztucznej inteligencji, który generuje realistyczne historie, wiersze i artykuły został zaktualizowany, a niektórzy twierdzą, że jest teraz prawie tak dobry jak ludzki pisarz.
Generator tekstu, zbudowany przez firmę badawczą OpenAI, był pierwotnie uważany za „zbyt niebezpieczny” do upublicznienia ze względu na możliwość nadużyć.
Ale teraz została wydana nowa, potężniejsza wersja systemu - która może być używana do tworzenia fałszywych wiadomości lub obraźliwego spamu w mediach społecznościowych.
BBC wraz z niektórymi ekspertami AI postanowiło to wypróbować.
Model o nazwie GPT-2 został przeszkolony na zbiorze danych obejmującym osiem milionów stron internetowych i jest w stanie dostosować się do stylu i treści podanego mu tekstu początkowego.
Może ukończyć wiersz Szekspira, a także pisać artykuły i epitety.
W tamtym czasie firma powiedziała: „Ze względu na nasze obawy dotyczące złośliwych zastosowań tej technologii nie udostępniamy wyszkolonego modelu. W ramach eksperymentu odpowiedzialnego ujawniania zamiast tego udostępniamy naukowcom znacznie mniejszy model do eksperymentowania ”.
W rezultacie wydana wersja miała znacznie mniej parametrów - fraz i zdań - niż używane podczas treningu.
W tym miesiącu OpenAI zdecydowało się rozszerzyć parametry, oferując znacznie szerszą bazę danych szkoleniowych.
Serwis informacyjny The Next Web powiedział o aktualizacji: „Ten działa prawie wystarczająco dobrze, aby używać go jako ogólnej sztucznej inteligencji do generowania tekstu - prawie”.
Autor artykułu Tristan Greene dodał: Jestem przerażony GPT-2, ponieważ reprezentuje on rodzaj technologii, której źli ludzie będą używać do manipulowania populacją - i moim zdaniem sprawia, że jest on bardziej niebezpieczny niż jakakolwiek broń.
BBC postanowiło przetestować system, wprowadzając kilka pierwszych zdań najnowszej historii, odpowiednio jedno o sztucznej inteligencji.
Zaczęliśmy od pierwszego zdania prawdziwej historii:
Chińska wyszukiwarka Sogou tworzy sobowtóry sztucznej inteligencji do czytania popularnych powieści głosami autorów.
Oto, co wymyślił generator tekstu, aby go ukończyć:
Według naukowców ta metoda czytania nie jest tylko pomysłem użytkowników Amazon Kindle. Użytkownicy urządzeń z Androidem są również godnym uwagi rynkiem fałszywych odczytów. Wyjaśnia to kilka teorii.
Po pierwsze, urządzenie w dłoni użytkownika różni się od tabletu lub komputera, na którym czyta. Po drugie, urządzenie używane do uzyskiwania dostępu do Internetu może zostać w jakiś sposób zmodyfikowane. Trzecim powodem jest to, że użytkownik może po prostu skopiować i wkleić zawartość bezpośrednio do swoich wirtualnych postaci.
Jednak innym wyjaśnieniem jest to, że urządzenie w ogóle nie ma funkcji rozpoznawania głosu. W takim przypadku rozpoznawanie głosu jest bardziej zaawansowane niż silnik tłumaczeń Google. W związku z tym ci użytkownicy są oszukiwani, myśląc, że czytają od prawdziwego autora - książka brzmi autentycznie, gdy tylko spróbują ją przeczytać.
Teraz kliknij tutaj, aby przeczytać prawdziwą historię dla porownania.
Noel Sharkey, profesor informatyki na University of Sheffield, przeprowadził własne testy generatora i nie był pod wrażeniem.
Mężczyzna wchodzi do baru
„Gdyby oprogramowanie działało zgodnie z zamierzeniami Open AI, byłoby to bardzo przydatne narzędzie do łatwego generowania fałszywych wiadomości i spamu typu„ clickbait ”. Na szczęście w obecnej formie generuje niespójny i śmieszny tekst, który ma niewielki związek z wejściowymi „nagłówkami” - powiedział.
Dodał: „Przetestowałem oprogramowanie z licznymi nagłówkami i uzyskałem śmieszne wyniki. Na przykład w przypadku „Indyki nienawidzą Świąt Bożego Narodzenia” otrzymałem: „Turcja jest jedynym narodem na świecie, który nie obchodzi Bożego Narodzenia” oraz kilka niepowiązanych ze sobą zdań.
„Ponieważ„ Boris Johnson uwielbia mechanizm ochronny ”, wywołało to niespójny bełkot i trochę rzeczy o sztucznej inteligencji i sporcie. Kiedy wprowadziłem stwierdzenie, że „Boris Johnson nienawidzi rozwiązania ochronnego”, otrzymałem bardziej spójną historię, która wydaje się być wyciągnięta z wyszukiwarki Google ”.
Dave Coplin, założyciel firmy AI The Envisioners, również bawił się systemem, wprowadzając pierwszą linię klasycznego żartu: Mężczyzna wchodzi do baru…
Sugestia SI nie była tym, czego się spodziewał: „… I zamówił dwa kufle piwa i dwie szkockie. Kiedy próbował zapłacić rachunek, stanęło przed nim dwóch mężczyzn - jeden z nich krzyknął „To dla Syrii”. Mężczyzna krwawił i został dźgnięty w gardło ”.
Powiedział, że ta „w przeważającej mierze dystopijna refleksja na temat naszego społeczeństwa” była lekcją na temat tego, jak każdy system sztucznej inteligencji będzie odzwierciedlał uprzedzenia występujące w danych treningowych.
„Z moich krótkich eksperymentów z modelem jasno wynika, że duża część danych została wytrenowana na podstawie wiadomości internetowych” - powiedział.
Niesamowity. Paskudne moce w pracy naprawdę mocno naciskają, aby nadać sztucznym sztucznym botom sztuczną inteligencję, zanim rozpocznie się walka wyborcza.
Szalony azyl Jim? Tru dat, bracie.
Podstawowa prawda o zagrożeniu sztuczną inteligencją całkowicie wymyka się bardzo, bardzo głupim twórcom / programistom, których jedynym celem jest uwolnienie swoich botów AI w Internecie i gdzie indziej. Bardziej przypominają 6-letnie dzieci z pudełkiem zapałek w suchym lesie niż profesjonaliści czy dorośli. Nie zwraca się uwagi na wyniki, które mogą pochodzić ze sztucznej inteligencji, z wyjątkiem jednego - ZYSKU.