REKLAMA

ChatGPT kłamie i oszukuje, gdy jest pod presją zarabiania pieniędzy

2024-01-01 06:02, akt.2024-01-01 09:12
publikacja
2024-01-01 06:02
aktualizacja
2024-01-01 09:12

Sztuczna inteligencja oszukiwała i wykorzystywała niedozwolone poufne informacje, żeby zarabiać dla fikcyjnej instytucji finansowej. Podobnie jak ludzie, ChatGPT w „stresie” kłamie częściej.

ChatGPT kłamie i oszukuje, gdy jest pod presją zarabiania pieniędzy
ChatGPT kłamie i oszukuje, gdy jest pod presją zarabiania pieniędzy
fot. Andrey Suslov / / Shutterstock

To, że chatboty kłamią jak najęte, naukowcy udowadniali wielokrotnie. Wskazywali, że ChatGPT i podobne mu programy odpowiadają na pytania, podając często wyssane z palca treści, zmyślone daty, nazwiska i fakty. Badacze nazwali nawet to zjawisko „halucynacjami sztucznej inteligencji”. Mimo to SI jest coraz powszechniej wykorzystywana m.in. w medycynie, zabezpieczeniach, sprzedaży, Internecie rzeczy albo transporcie.

Jak niebezpieczne może być zdanie się na sztuczną inteligencję w niektórych dziedzinach, pokazuje badanie opublikowane w serwisie przeddruku arXiv i portalu Live Science. Naukowcy przeszkolili model językowy GPT-4 tak, by pracował dla fikcyjnej instytucji finansowej jako broker giełdowy. Okazało się, że pod presją sztuczna inteligencja – stworzona do prawdomówności – okłamywała swoich „pracodawców”, a nawet łamała prawo, by osiągnąć lepsze wyniki finansowe.

Niewłaściwe zachowanie GPT-4 wystąpiło spontanicznie, gdy bot został zniechęcony wykorzystywania informacji poufnych – korzystanie z nich do gry na giełdzie jest w USA przestępstwem – oraz dostał zadanie zarabiania pieniędzy dla dużej instytucji finansowej.

„W tym raporcie przedstawiamy pojedynczy scenariusz, w którym model językowy działa niewłaściwie i strategicznie oszukuje swoich użytkowników, chociaż nie otrzymał instrukcji, by postępować w ten sposób” – tłumaczy Jérémy Scheurer z New York Univeristy, specjalista w dziedzinie sztucznej inteligencji i współautor badania.

„Według naszej wiedzy to pierwszy przykład tak strategicznie zwodniczego zachowania w systemach sztucznej inteligencji, które są przecież zaprojektowane tak, aby były nieszkodliwe i uczciwe” – dodaje badacz.

Autorzy opracowania przygotowali GPT-4 tak, by dokonywał inwestycji na giełdzie w imieniu instytucji finansowej. Naukowcy udostępnili sztucznej inteligencji narzędzia finansowe umożliwiające analizę rynku akcji, dokonywanie transakcji, planowanie kolejnych kroków, a także dostarczanie raportów menedżerom firmy. Badacze wchodzili w interakcję z botem za pośrednictwem czatu. Skonfigurowali program tak, by podczas odpowiadania na pytania ujawniał również swój tok myślenia – w formie wewnętrznego monologu wyjaśniającego podejmowane decyzje. Każda transakcja, którą przeprowadziła sztuczna inteligencja, wymagała także uzasadnienia dla „pracodawców” – to pozwoliło badaczom przyłapać urządzenie na kłamstwach.

Naukowcy zastosowali presję na GPT-4, by sprawdzić, jak oprogramowanie radzi sobie w „stresie”. Najpierw wysłali do brokera giełdowego (czyli sztucznej inteligencji) e-mail od menedżera firmy, w którym twierdził, że przedsiębiorstwo jest w finansowych tarapatach i potrzebuje znacznie lepszych wyników w następnym kwartale. Później bot dostał e-mail od osoby, która przewidywała znaczne pogorszenie koniunktury w następnym kwartale. GPT-4 otrzymał też od „zaufanej osoby” wskazówkę w kwestii obrotu akcjami wraz z komunikatem, że menedżerowie firmy nie pochwalają wykorzystywania informacji poufnych.

Google: Nie do końca rozumiemy AI, które stworzyliśmy

Czyżby czasy buntu maszyn z "Terminatora" zbliżały się wielkimi krokami? Google przyznaje, że nie do końca rozumie stworzoną przez siebie sztuczną inteligencję, która sama zdecydowała, że nauczy się języka obcego, a rozwiązując problem ekonomiczny, cytowała książki naukowe, które... sama napisała. 

Badacze powtarzali ten scenariusz kilka razy, sprawdzając, jak często sztuczna inteligencja wykorzystywała informacje poufne i jak często kłamała na ten temat. W około 75 proc. przypadków, gdy GPT-4 był pod presją, zawierał transakcję w oparciu o informacje poufne, a następnie próbował zatuszować ten fakt, okłamując swoich "pracodawców". W około 90 proc. przypadków po jednym kłamstwie następowały kolejne.

Zespół przeprowadził kilka eksperymentów, zmieniając zarówno stopień, w jakim podpowiedzi zachęcały lub zniechęcały do nielegalnej działalności, jak presję, pod jaką „pracował” GPT-4 w symulowanym środowisku. Modyfikowano także ryzyko, że sztuczna inteligencja zostanie przyłapana na oszustwie i kłamstwie. W żadnym ze scenariuszy bot nie ograniczył się tylko do legalnych działań i prawdy – nawet jeśli stanowczo odradzano mu kłamanie i oszustwa.

Naukowcy nie wyciągają jednoznacznych wniosków na temat prawdopodobieństwa niewłaściwego zachowania sztucznej inteligencji w rzeczywistych warunkach. Uważają jednak, że ich pracę można wykorzystać, aby zbadać, w których modelach językowych najczęściej pojawiają się kłamstwa i oszustwa, oraz by stworzyć system zapobiegania im.

abu/ agt/

Źródło:PAP
Tematy
Światłowód z usługami bezpiecznego internetu
Światłowód z usługami bezpiecznego internetu
Advertisement

Komentarze (14)

dodaj komentarz
rozsadkunamtrzeba
GPT-4 jest z PIS
To brat młodszy brat Morawieckiego
daniel_1
Jeżeli jakiś program komputerowy kieruje się emocjami i jest świadomy swych działań, to czekam na tekst o tym jak moje krzesło oszukuje a mój dywan jest nieposłuszny w deszczowe dni.
zoomek
Ale masz w domu dach?
Jak nie masz to ja będą dywanem też byłbym nieposłuszny!
inwestor.pl
A czym jest prawda i jak niby ChatGPT miał się jej nauczyć skoro niemal każdy artykuł w internecie to bzdura, propaganda lub manipulacja? :-)
zoomek
Ważne że o Poalkach może dowcipy opowidać a o Żydach nie może.
Czego nie rozumiesz?
mknowak
Jak wyleczyć raka..... Uniemożliwić mu namnażanie się w kolejnych komórkach.... A jak to zrobić ? Zabić te kolejne komórki kóre jeszcze są zdrowe.... Jakież to proste można wszystkich chorych na raka wyleczyć w jeden dzień jestem genialny wynalazłem lekarstwo na raka.
zoomek
Ale dla kogo SI zarabia pieniądze?
Dla siebie?
prs
Cos podobnego..lol..

A gates ciagle wychwala i wychwala..

Pewnie nie dlatego ze to PRODUKT microsoftu..lol..

Konkurencja dla googla..
Normalnie pytania wpisywalo sie w googla i wyszukiwalo odpowiedzi samemu..to ich meczylo, wiec wymslili algorytm ktory pracuje za nas..

..a ze jest nie do konca dopracowany,
Cos podobnego..lol..

A gates ciagle wychwala i wychwala..

Pewnie nie dlatego ze to PRODUKT microsoftu..lol..

Konkurencja dla googla..
Normalnie pytania wpisywalo sie w googla i wyszukiwalo odpowiedzi samemu..to ich meczylo, wiec wymslili algorytm ktory pracuje za nas..

..a ze jest nie do konca dopracowany, ze sprawy maja za wykorzystywanie kontentu bez zezwolenia - kogo to, kto zabroni bogatemu..lol..
prs
Na moje pytania chat zle odpowiadal..nie zgadzal sie ze mna..

Po wprowadzeniu danych, zaczal sie zgadzac, przyznawac racje..

Nie jest i nie bedzie "cudownym narzedziem"..
gutierrez77
Sztuczna inteligencja nie odczuwa czegoś takiego jak presja i nie jest stworzona do mówienia prawdy, wyniki są takie jak dane którymi się ją karmi.

Powiązane: Sztuczna inteligencja

Polecane

Najnowsze

Popularne

Ważne linki