Google DeepMind odkrywa, jak zapamiętać wyniki, ucz się szybciej

Pamięć AI DeepMind
Udostępnij tę historię!

To prawdopodobnie spowodowało, że Technocrat / Transhuman Ray Kurzweil z Google ogłosił, że Osobliwość zostanie osiągnięta w 2029 r. Zamiast w 2045 r. Pamiętanie jest niebezpiecznym wynikiem, jeśli na początku są wadliwe lub, co gorsza, uprzedzone w stosunku do danych wejściowych, które je stworzyły. Nauka oparta na „wspomnieniach” sztucznej inteligencji zdecydowanie wzrośnie, ale czy dalsze uczenie się będzie oparte na rzeczywistości, czy tylko na życzliwym modelu komputerowym?  Edytor TN

Chociaż systemy AI mogą pasować do wielu ludzkich możliwości, nauka 10 zajmuje więcej czasu. Teraz, kopiując sposób działania mózgu, Google DeepMind zbudował maszynę, która wypełnia lukę.

Inteligentne maszyny mają na celowniku ludzi. Maszyny do głębokiego uczenia się mają już nadludzkie umiejętności, takie jak rozpoznawanie twarzy, granie w gry wideo, a nawet starożytna chińska gra Go. Łatwo więc myśleć, że ludzie są już uzbrojeni.

Ale nie tak szybko. Inteligentne maszyny wciąż pozostają w tyle za ludźmi w jednym kluczowym obszarze wydajności: szybkości, z jaką się uczą. Na przykład, jeśli chodzi o opanowanie klasycznych gier wideo, najlepsze maszyny do uczenia głębokiego potrzebują około 200 godzin gry, aby osiągnąć taki sam poziom umiejętności, jaki ludzie osiągają w zaledwie dwie godziny.

Tak więc informatycy bardzo chcieliby mieć sposób na przyspieszenie tempa uczenia się maszyn.

Dzisiaj Alexander Pritzel i koledzy z londyńskiej spółki zależnej DeepMind Google twierdzą, że właśnie to zrobili. Ci faceci zbudowali maszynę do głębokiego uczenia się, która jest w stanie szybko przyswajać nowe doświadczenia, a następnie działać na ich podstawie. W rezultacie powstała maszyna, która uczy się znacznie szybciej niż inne i ma potencjał, by dorównać ludziom w niezbyt odległej przyszłości.

Najpierw trochę tła. Głębokie uczenie się wykorzystuje warstwy sieci neuronowych do wyszukiwania wzorców w danych. Gdy pojedyncza warstwa rozpozna rozpoznany wzór, wysyła tę informację do następnej warstwy, która szuka wzorców w tym sygnale i tak dalej.

Tak więc w rozpoznawaniu twarzy jedna warstwa może szukać krawędzi na obrazie, kolejna warstwa dla okrągłych wzorów krawędzi (takich, jakie tworzą oczy i usta), a następna dla trójkątnych wzorów, takich jak dwoje oczu i ust. Kiedy to wszystko się dzieje, końcowy wynik wskazuje, że twarz została zauważona.

Oczywiście diabeł tkwi w szczegółach. Istnieją różne systemy informacji zwrotnej, które umożliwiają systemowi naukę poprzez dostosowanie różnych parametrów wewnętrznych, takich jak siła połączeń między warstwami. Parametry te muszą zmieniać się powoli, ponieważ duża zmiana w jednej warstwie może katastrofalnie wpłynąć na uczenie się w kolejnych warstwach. Właśnie dlatego głębokie sieci neuronowe potrzebują tak dużo szkolenia i dlaczego tak długo to trwa.

Pritzel i spółka zajęli się tym problemem za pomocą techniki, którą nazywają epizodyczną kontrolą nerwową. „Epizodyczna kontrola neuronowa wykazuje znaczną poprawę szybkości uczenia się w szerokim zakresie środowisk” - mówią. „Krytycznie nasz agent jest w stanie szybko zastosować strategie odnoszące największe sukcesy, gdy tylko zostaną osiągnięte, zamiast czekać na wiele kroków optymalizacji”.

Podstawową ideą podejścia DeepMind jest kopiowanie sposobu, w jaki ludzie i zwierzęta szybko się uczą. Ogólny konsensus jest taki, że ludzie mogą radzić sobie z sytuacjami na dwa różne sposoby. Jeśli sytuacja jest znajoma, nasze mózgi utworzyły już jej model, na podstawie którego ustalają, jak najlepiej się zachować. To wykorzystuje część mózgu zwaną korą przedczołową.

Przeczytaj całą historię tutaj…


Zobacz także Nowa sztuczna inteligencja Google jest inteligentniejsza dzięki pamięci roboczej

Zapisz się!
Powiadamiaj o
gość

0 Komentarze
Informacje zwrotne w linii
Wyświetl wszystkie komentarze