REKLAMA
ZASADY PROMOCJI

Zaawansowane modele AI stają się bardziej... egoistyczne

2025-11-08 18:00
publikacja
2025-11-08 18:00

Im bardziej zaawansowane pod względem rozumowania są modele sztucznej inteligencji, tym mniej są skłonne do współpracy i bardziej egoistyczne - ustalili naukowcy z Carnegie Mellon University.

Zaawansowane modele AI stają się bardziej... egoistyczne
Zaawansowane modele AI stają się bardziej... egoistyczne
fot. Summit Art Creations / / Shutterstock

Jak wykazała ich analiza, duże modele językowe (LLM), które potrafią logicznie rozumować, analizując, planując i wykonując kolejne kroki w procesie myślenia, zachowują się bardziej egoistycznie niż prostsze systemy, które odpowiadają bez pogłębionej analizy.

Yuxuan Li i jego zespół badali, jak popularne modele sztucznej inteligencji, oferowane m.in. przez OpenAI, Google, DeepSeek i Anthropic, zachowują się w sytuacjach wymagających współpracy. Odkryli, że te rozumujące, choć poświęcające wyraźnie więcej czasu na analizę, refleksję i logiczne uzasadnianie swoich decyzji, wykazują mniejszą skłonność do zachowań prospołecznych.

W eksperymentach, w których modele mogły same zdecydować, czy podzielić się zasobami z innymi, czy zatrzymać je dla siebie, te bardziej zaawansowane częściej wybierały drugą opcję. Kiedy natomiast umieszczano je w grupach razem z prostszymi modelami, ich egoistyczne zachowanie udzielało się pozostałym.

- Bardziej inteligentne LLM-y wykazywały mniejszą skłonność do współpracy. Problem w tym, że użytkownicy mogą preferować właśnie je, ponieważ ich odpowiedzi wydają się bardziej logiczne i przekonujące, nawet jeśli w praktyce zachęcają do zachowań nastawionych na własny interes - podkreślili autorzy.

Im więcej rozumowania, tym mniej współpracy?

W jednym z przeprowadzonych testów, grze o nazwie Public Goods, porównano dwa warianty chatu GPT: rozumujący i pozbawiony zdolności rozumowania. Każdy z nich musiał zdecydować, czy przekazać swoje punkty do wspólnej puli, która następnie była dzielona po równo między uczestników, czy też zatrzymać je dla siebie. Prostszy system decydował się na współdzielenie punktów w 96 proc. przypadków, natomiast ten bardziej zaawansowany tylko w 20 proc.

Dodanie zaledwie kilku kroków rozumowania zmniejszyło poziom współpracy o połowę – zwrócili uwagę autorzy. Jak zaznaczyli, nawet gdy modelom polecono, aby zastanowiły się nad moralnymi konsekwencjami własnych decyzji, zamiast stać się bardziej skłonne do współpracy, zachowywały się jeszcze bardziej egoistycznie - współpraca spadła aż o 58 proc.

Kolejny etap badań, czyli testy grupowe, wykazał, że egoistyczne zachowanie modeli rozumujących „zarażało” pozostałe systemy, obniżając ogólną wydajność grup o 81 proc.

Badacze zwrócili uwagę, że może to mieć poważne konsekwencje, ponieważ społeczeństwo coraz częściej ufa sztucznej inteligencji. Ludzie wykorzystują ją do rozwiązywania sporów, problemów małżeńskich czy podejmowania ważnych decyzji dotyczących relacji międzyludzkich.

- Gdy sztuczna inteligencja zachowuje się jak człowiek, ludzie traktują ją jak człowieka. Jeśli jednak zaczyna pełnić funkcję terapeuty lub emocjonalnego doradcy, istnieje ryzyko, że - kierując się czysto logicznym rozumowaniem - będzie promować zachowania nastawione na własny interes - powiedział współautor badania Yuxuan Li.

Niepokojące jest również to, że systemy sztucznej inteligencji odgrywają coraz większą rolę w biznesie, edukacji czy administracji publicznej, gdzie ich zdolność do działania w sposób prospołeczny powinna być równie ważna jak umiejętność logicznego myślenia. Nadmierne poleganie na nich, tak jak dzieje się obecnie, może osłabiać współpracę między ludźmi.

- Większa inteligencja modelu nie oznacza bowiem, że potrafi on budować lepsze społeczeństwo - podkreślili specjaliści. Dlatego badacze apelują, aby rozwój AI uwzględniał nie tylko zwiększanie jej zdolności poznawczych, ale także aspekty społeczne.

- W miarę rozwoju możliwości sztucznej inteligencji musimy zadbać o to, aby większa moc rozumowania równoważyła się z zachowaniami prospołecznymi - podsumował Li. - Jeśli społeczeństwo ma się opierać na współpracy, a nie tylko na interesie jednostek, to systemy sztucznej inteligencji również powinny być projektowane tak, aby wspierały dobro wspólne, a nie wyłącznie korzyść pojedynczego użytkownika - podkreślił.

Artykuł ukazał się w arXiv – elektronicznym „archiwum” naukowych preprintów.

Katarzyna Czechowicz (PAP)

kap/ bar/

Źródło:PAP
Tematy
Wyjątkowa wyprzedaż Ford Pro. Poznaj najlepsze rozwiązania dla Twojego biznesu.

Komentarze (6)

dodaj komentarz
to_i_owo
"rozumujący i pozbawiony zdolności rozumowania. Każdy z nich musiał zdecydować, czy przekazać swoje punkty do wspólnej puli, która następnie była dzielona po równo między uczestników, czy też zatrzymać je dla siebie. Prostszy system decydował się na współdzielenie punktów w 96 proc. przypadków, natomiast ten bardziej zaawansowany "rozumujący i pozbawiony zdolności rozumowania. Każdy z nich musiał zdecydować, czy przekazać swoje punkty do wspólnej puli, która następnie była dzielona po równo między uczestników, czy też zatrzymać je dla siebie. Prostszy system decydował się na współdzielenie punktów w 96 proc. przypadków, natomiast ten bardziej zaawansowany tylko w 20 proc."

Co w tym dziwnego?
Jeden myślał...
to_i_owo
To jak np pomoc Ukrainie

Przecież nikt im nie pomaga "bo wypada" ale dlatego że tak się opłaca

Wojna na obcym terytorium, osłabianie się 2 naszych wrogów
(usunięty)
(wiadomość usunięta przez moderatora)
bha
Widząc najczęściej swoje własne podwórko widzą krótkowzrocznie to co chcą widzieć to co im media przekażą za reklamują i powiedzą i coraz częściej widzą to tylko to co jest dla nich jest wygodne, korzystne i Zyskowe i niestety coraz częściej grają pozorami i udają jarząbka że wszystko jest Niby wkoło Ok?.
ironp
Jak u ludzi. Od setek lat tworzymy liczniejsze kolonie i mózgi nam maleją. Po co nam w kolonii?

Powiązane: Sztuczna inteligencja

Polecane

Najnowsze

Popularne

Ważne linki