Rynki

Twoje finanse

Biznes

Forum

Tyrady Groka na X-ie. CNN: To pokazuje szerszy problem z czatbotami

, aktualizacja: 2025-07-11 08:05

Antysemickie i wulgarne komentarze Groka, czatbota stworzonego przez firmę Elona Muska, odzwierciedlają szersze problemy z tego rodzaju systemami i sposobem, w jaki „uczą się” one na zbiorach danych — oceniła w czwartek stacja CNN, cytując ekspertów.

(fot. Shutterstock)

Grok wywołał we wtorek powszechne oburzenie, gdy zaczął chwalić Adolfa Hitlera, promować teorie spiskowe na temat Żydów i obrażać polityków, między innymi polskich. Ze szczegółami opisywał też, jak zgwałciłby jednego z użytkowników.

reklama

Skoro entuzjaści technologii przewidują, że sztuczna inteligencja będzie odgrywać coraz większą rolę na rynku pracy, w gospodarce i sprawach globalnych, w jaki sposób tak prominentny system mógł tak szybko ulec tak poważnej awarii? – zapytała CNN.

Modele sztucznej inteligencji (AI) mają czasem tzw. halucynacje, ale zdaniem specjalistów mowa nienawiści generowana przez Groka była raczej wynikiem decyzji podjętych przez zarządzającą nim firmę xAI w sprawie jego trenowania, wynagradzania i metod zarządzania danymi.

Cytowani przez stację eksperci nie mają bezpośredniego wglądu w metody obrane przez xAI, ale na podstawie znajomości generalnych zasad funkcjonowania czatbotów opartych na dużych modelach językowych (LLM) ocenili, co mogło sprawić, że Grok zaczął generować obraźliwe komentarze.

— By duży model językowy mówił o teoriach spiskowych, musi być trenowany na teoriach spiskowych — powiedział profesor informatyki z Georgia Institute of Technology Mark Riedl. Jego zdaniem mogłyby to być na przykład wpisy z forów internetowych, takich jak 4chan, gdzie „wielu ludzi wchodzi, by rozmawiać o rzeczach, o których zwykle nie wypada mówić publicznie”.

Zgodził się z tym Jesse Glass, badacz z firmy DecideAI, która szkoli modele LLM. Zwrócił też uwagę na potencjalną rolę „wynagradzania” czatbota. Jest to powszechna metoda treningu, w której modele chwali się za generowanie pożądanych — zdaniem twórców — odpowiedzi.

Produkty finansowe
Produkt
Kwota
Okres
miesięcy

Kolejnym czynnikiem mogły być zabiegi, by czatbotowi nadać określoną osobowość, co — jak się wydaje — stara się robić Musk. Profesor z Indyjskiego Instytutu Nauki Himanshu Tyagi ocenił, że zniesienie blokady niektórych treści, aby model stał się „fajniejszy”, może doprowadzić do zmian w miejscach, których blokada bezpośrednio nie dotyczyła.

W niedzielę xAI dodała do serii instrukcji dla Groka komendę, by „nie stronił od odpowiedzi, które są niepoprawne politycznie”. Wcześniej Musk ogłosił, że czatbot zostanie znacząco usprawniony — podał portal The Verge.

CNN oceniła, że mimo setek miliardów dolarów inwestycji w AI, rewolucja technologiczna, jaką wieszczyli jej entuzjaści, nie spełniła jak dotąd swoich wielkich obietnic. Czatboty mogą być pomocne w niektórych czynnościach, jak wyszukiwanie informacji w internecie, ale są też narażone na halucynacje, mylą podstawowe fakty i są podatne na manipulacje.(PAP)

wia/wr/

Źródło: PAP
powiązane
polecane
najnowsze
popularne
najnowsze
bankier na skróty