Antysemickie i wulgarne komentarze Groka, czatbota stworzonego przez firmę Elona Muska, odzwierciedlają szersze problemy z tego rodzaju systemami i sposobem, w jaki „uczą się” one na zbiorach danych — oceniła w czwartek stacja CNN, cytując ekspertów.


Grok wywołał we wtorek powszechne oburzenie, gdy zaczął chwalić Adolfa Hitlera, promować teorie spiskowe na temat Żydów i obrażać polityków, między innymi polskich. Ze szczegółami opisywał też, jak zgwałciłby jednego z użytkowników.
Skoro entuzjaści technologii przewidują, że sztuczna inteligencja będzie odgrywać coraz większą rolę na rynku pracy, w gospodarce i sprawach globalnych, w jaki sposób tak prominentny system mógł tak szybko ulec tak poważnej awarii? – zapytała CNN.
Modele sztucznej inteligencji (AI) mają czasem tzw. halucynacje, ale zdaniem specjalistów mowa nienawiści generowana przez Groka była raczej wynikiem decyzji podjętych przez zarządzającą nim firmę xAI w sprawie jego trenowania, wynagradzania i metod zarządzania danymi.
Cytowani przez stację eksperci nie mają bezpośredniego wglądu w metody obrane przez xAI, ale na podstawie znajomości generalnych zasad funkcjonowania czatbotów opartych na dużych modelach językowych (LLM) ocenili, co mogło sprawić, że Grok zaczął generować obraźliwe komentarze.
— By duży model językowy mówił o teoriach spiskowych, musi być trenowany na teoriach spiskowych — powiedział profesor informatyki z Georgia Institute of Technology Mark Riedl. Jego zdaniem mogłyby to być na przykład wpisy z forów internetowych, takich jak 4chan, gdzie „wielu ludzi wchodzi, by rozmawiać o rzeczach, o których zwykle nie wypada mówić publicznie”.
Zgodził się z tym Jesse Glass, badacz z firmy DecideAI, która szkoli modele LLM. Zwrócił też uwagę na potencjalną rolę „wynagradzania” czatbota. Jest to powszechna metoda treningu, w której modele chwali się za generowanie pożądanych — zdaniem twórców — odpowiedzi.
Kolejnym czynnikiem mogły być zabiegi, by czatbotowi nadać określoną osobowość, co — jak się wydaje — stara się robić Musk. Profesor z Indyjskiego Instytutu Nauki Himanshu Tyagi ocenił, że zniesienie blokady niektórych treści, aby model stał się „fajniejszy”, może doprowadzić do zmian w miejscach, których blokada bezpośrednio nie dotyczyła.
W niedzielę xAI dodała do serii instrukcji dla Groka komendę, by „nie stronił od odpowiedzi, które są niepoprawne politycznie”. Wcześniej Musk ogłosił, że czatbot zostanie znacząco usprawniony — podał portal The Verge.
CNN oceniła, że mimo setek miliardów dolarów inwestycji w AI, rewolucja technologiczna, jaką wieszczyli jej entuzjaści, nie spełniła jak dotąd swoich wielkich obietnic. Czatboty mogą być pomocne w niektórych czynnościach, jak wyszukiwanie informacji w internecie, ale są też narażone na halucynacje, mylą podstawowe fakty i są podatne na manipulacje.(PAP)
wia/wr/