Narzędzia sztucznej inteligencji mogą służyć do „edytowania” i „polerowania” pracy autorów, jak twierdzą organizatorzy konferencji, ale tekst „wyprodukowany w całości” przez sztuczną inteligencję jest niedopuszczalny. Rodzi to pytanie: gdzie przebiega granica między redagowaniem a pisaniem?
Jedna z najbardziej prestiżowych konferencji poświęconych uczeniu maszynowemu na świecie zakazała autorom używania narzędzi sztucznej inteligencji, takich jak ChatGPT, do pisania artykułów naukowych, co wywołało debatę na temat roli tekstu generowanego przez sztuczną inteligencję w środowisku akademickim.
Międzynarodowa konferencja na temat uczenia maszynowego (ICML) ogłosiła tę politykę na początku tego tygodnia, stwierdzając: „Dokumenty zawierające tekst wygenerowany z wielkoskalowego modelu językowego (LLM), takiego jak ChatGPT, są zabronione, chyba że utworzony tekst jest prezentowany jako część analiza eksperymentalna artykułu”. Wiadomości wywołały powszechna dyskusja w mediach społecznościowych, gdzie naukowcy i badacze zajmujący się sztuczną inteligencją zarówno bronią, jak i krytykują tę politykę. Organizatorzy konferencji odpowiedzieli m.in opublikować dłuższą wypowiedź wyjaśniając ich sposób myślenia. (ICML odpowiedział na prośby od Poboczy o komentarz, kierując nas do tego samego stwierdzenia.)
Według ICML, powstanie publicznie dostępnych modeli językowych sztucznej inteligencji, takich jak ChatGPT — chatbot AI ogólnego przeznaczenia, który pojawił się w Internecie w listopadzie ubiegłego roku — reprezentuje „ekscytujący” rozwój, który jednak wiąże się z „nieoczekiwanymi konsekwencjami [i] pytaniami bez odpowiedzi”. ICML mówi, że obejmują one pytania o to, kto jest właścicielem produkcji takich systemów (są przeszkoleni w zakresie danych publicznych, które są zwykle zbierane bez zgody i czasami powtarzają te informacje dosłownie) oraz czy tekst i obrazy generowane przez sztuczną inteligencję należy „uważać za nowe, czy tylko za pochodne istniejącej pracy”.
To ostatnie pytanie łączy się z trudną debatą na temat autorstwa — czyli kto „pisze” tekst generowany przez sztuczną inteligencję: maszyna czy jej ludzki kontroler? Jest to szczególnie ważne, biorąc pod uwagę, że ICML zakazuje tylko tekstów „wyprodukowanych w całości” przez sztuczną inteligencję. Organizatorzy konferencji twierdzą, że tak nie zakaz używania narzędzi takich jak ChatGPT „do edycji lub poprawiania tekstu napisanego przez autora” i należy zauważyć, że wielu autorów korzystało już w tym celu z „półautomatycznych narzędzi do edycji”, takich jak oprogramowanie do poprawiania gramatyki Grammarly.
„Jest pewne, że odpowiedzi na te i wiele innych pytań zostaną udzielone z czasem, ponieważ te wielkoskalowe modele generatywne są coraz szerzej stosowane. Jednak na żadne z tych pytań nie mamy jeszcze jednoznacznej odpowiedzi” – piszą organizatorzy konferencji.
W rezultacie ICML twierdzi, że zakaz dotyczący tekstu generowanego przez sztuczną inteligencję zostanie ponownie oceniony w przyszłym roku.
Jednak pytania, na które odpowiada ICML, mogą nie być łatwe do rozwiązania. Dostępność narzędzi AI, takich jak ChatGPT, powoduje zamieszanie w wielu organizacjach, z których niektóre odpowiedziały własnymi zakazami. W zeszłym roku kodowanie strony z pytaniami i odpowiedziami Stack Overflow zakazał użytkownikom przesyłania odpowiedzi utworzonych za pomocą ChatGPT, podczas gdy Departament Edukacji miasta Nowy Jork zablokował dostęp do narzędzia każdemu w swojej sieci tylko w tym tygodniu.
W każdym przypadku istnieją różne obawy dotyczące szkodliwych skutków tekstu generowanego przez sztuczną inteligencję. Jednym z najczęstszych jest to, że dane wyjściowe tych systemów są po prostu zawodne. Te narzędzia sztucznej inteligencji to rozległe systemy autouzupełniania, wyszkolone w przewidywaniu, które słowo następuje po następnym w danym zdaniu. W związku z tym nie mają zakodowanej na stałe bazy danych zawierającej „fakty”, z której mogliby czerpać — jedynie umiejętność pisania wiarygodnie brzmiących stwierdzeń. To oznacza, że oni mają tendencję do przedstawiania fałszywych informacji jako prawdy od czy dane zdanie Dźwięki wiarygodna nie gwarantuje jej prawdziwości.
W przypadku zakazu ICML dotyczącego tekstu generowanego przez sztuczną inteligencję, kolejnym potencjalnym wyzwaniem jest rozróżnienie pisma, które zostało jedynie „wypolerowane” lub „zredagowane” przez sztuczną inteligencję, od tego, które zostało „wyprodukowane w całości” za pomocą tych narzędzi. W którym momencie kilka drobnych poprawek kierowanych przez sztuczną inteligencję stanowi większe przepisanie? Co się stanie, jeśli użytkownik poprosi narzędzie AI o podsumowanie swojego artykułu w zgrabnym streszczeniu? Czy liczy się to jako świeżo wygenerowany tekst (ponieważ tekst jest nowy) czy zwykłe dopracowanie (ponieważ jest to podsumowanie słów, które napisał autor)?
To tak, jakby uchwalić w 1905 roku prawo zezwalające na samochody, ale tylko wtedy, gdy są ciągnięte przez konia.
ZABRONIĆ autorom korzystanie z narzędzi AI! Powodzenia z tym. A OJ Simpson wciąż szuka prawdziwego zabójcy.
Właśnie słuchałem twojego raportu Quickening na ten temat i postanowiłem skomentować tutaj. (1) Wskazujesz, że ChatGPT może wykonywać głębokie podróbki lektora w filmach. Może to być również podstęp propagandowy, aby aktorzy Deep State mogli zaprzeczyć temu, co naprawdę powiedzieli na zebranych przez nas dowodach wideo. (2) Wszystko, czego mogę być pewien, to to, że nie wiem, co jest po drugiej stronie interfejsu. Kim lub czym jest mężczyzna za kurtyną? Kiedy jest to sztuczna inteligencja, człowiek lub propagandysta? Zobacz także pojęcie mechaniczne... Czytaj więcej "