„Shitposty” działają jak internetowy fast food i są „pustymi kaloriami mentalnymi” – powiedział PAP dr Jakub Kuś, psycholog nowych technologii z Uniwersytetu SWPS. Ewelina Bartuzi-Trokielewicz z NASK dodała, że krótkie, prowokacyjne treści publikują w sieci „farmy lajków” i badają reakcje i zachowania odbiorców.


Zdaniem dra Kusia, przyzwyczajenie do takich treści wpływa na koncentrację i funkcjonowanie mózgu. Ekspert zaznaczył, że jest to szczególnie niebezpieczne dla osób w fazie rozwoju.
Jeśli nastolatek przyzwyczai się do permanentnego oglądania krótkich, prostych materiałów, w dorosłym życiu może mieć problemy z krytycznym myśleniem – powiedział.
Przykładem „shitposta” wygenerowanego przez AI jest grafika krążąca w sieci, przedstawiająca dziewczynkę za kierownicą samochodu, trzymającą na kolanach psa. W treści udostępnianego wpisu sugerowano, że 12-latka miała zostać zatrzymana przez policję, gdy próbowała uratować zwierzę. Na platformie X grafika została opublikowana w połowie października przez konto tintinpapa1 i zdobyła 15,4 mln wyświetleń. Dwa dni wcześniej identyczna treść pojawiła się na Facebooku, generując 66 tys. reakcji i ponad 2 tys. udostępnień.
Pod wpisami zawierającymi grafikę, widoczna jest informacja podana przez chatbot Grok, według której grafika została wygenerowana przez AI. Grok zwraca uwagę na to, że kierownica jest po złej stronie, na desce rozdzielczej nie ma zestawu wskaźników, a nawiewy dla pasażerów są zniekształcone i zdeformowane.
Mimo pozornej banalności, „shitposting” bywa wykorzystywany także przez polityków i instytucje państwowe. 19 października prezydent Stanów Zjednoczonych Donald Trump opublikował na portalu Truth Social wideo wygenerowane przez sztuczną inteligencję, na którym widać go pilotującego myśliwiec z napisem „King Trump” i zrzucającego brązowy płyn na protestujących obywateli. Wpis stanowił reakcję na trwające w USA demonstracje pod hasłem „No Kings”, wyrażające sprzeciw wobec administracji Trumpa.
Według Eweliny Bartuzi-Trokielewicz z NASK, publikowanie treści generowanych przez sztuczną inteligencję przez osoby publiczne stanowi nową strategię komunikacji. – Ten absurd i prowokacje obecne w takich materiałach nie są już tylko gestem kulturowym czy wyrazem kreatywności, lecz także elementem świadomej gry o uwagę i emocje wyborców – podkreśliła ekspertka. Jak dodała, celem tych działań nie jest bezpośrednie przekonywanie do określonych poglądów, lecz podważanie powagi debaty publicznej.
Wcześniej, 3 maja br., na portalu Truth Social Donald Trump opublikował wygenerowany przez sztuczną inteligencję wizerunek siebie jako papieża. Wpis zdobył 37,7 tys. polubień i został udostępniony 8,5 tys. razy. Tę samą grafikę Biały Dom opublikował na portalu X, gromadząc 110,6 mln wyświetleń oraz 194 tys. polubień. Jak relacjonował „The New York Times”, w maju Trump przyznał dziennikarzom, że nie jest autorem tej grafiki i nie miał z nią żadnego związku.
- Trump przesuwa granice akceptowalnego języka, żeby utrwalić przekonania, że wszystko jest przysłowiowym memem. On buduje tożsamość „lidera z internetu”, mówi śmiesznym językiem, a nie językiem instytucji i to pozwala mu dotrzeć bezpośrednio do emocji odbiorców – zauważyła ekspertka.
Zdaniem Kusia, w przypadku Trumpa mamy do czynienia z politykiem, który doskonale wie, co robi, ponieważ takie treści są atrakcyjne dla jego odbiorców. Ekspert zaznaczył jednak, że może to powodować wzrost dezinformacji. - To poważny problem przy rozwoju AI. Przy dzisiejszej technologii nie trzeba wiele, żeby stworzyć deepfake’a – ostrzegł ekspert.
Wygenerowane przez sztuczną inteligencję grafiki udostępnił również premier Izraela Benjamin Netanjahu. 9 października opublikował na portalu X stworzone przez AI zdjęcie pokazujące jego i Donalda Trumpa z Pokojową Nagrodą Nobla. Nad zdjęciem Netanjahu napisał „Dajcie Donaldowi Trumpowi Pokojową Nagrodę Nobla – zasługuje na nią”. Post zdobył 5 mln wyświetleń, a grafikę opublikował dalej sam Trump na platformie Truth Social.
Bartuzi-Trokielewicz zaznaczyła, że przedstawiciele władzy poprzez korzystanie z ironicznego i chaotycznego języka, sprawiają, że granica między żartem, a deklaracjami politycznymi zaciera się. Jak dodała, przez to, że użytkownicy mogą zareagować na emocje, a nie na fakty, to zaufanie do instytucji może ulec erozji. Zaznaczyła, że te materiały mogą spełniać różne funkcje – od prowokacji, przez autoironię, po eksperyment społeczny. Jak dodała, „shitpost” może być także formą komentarza wobec kultury przesytu, w której wartość treści mierzy się zasięgiem, a nie samą treścią.
Z kolei dr Kuś, pytany o powody popularności „shitpostingowych” treści, porównał to zjawisko do jedzenia fast foodów. – Niektórzy ludzie lubią najeść się nie do końca zdrowym jedzeniem, tak samo niektórzy konsumują „puste kalorie mentalne”. Takie informacje nic nam nie dają, ale „zapychają” nasz system poznawczy – ocenił ekspert. Jego zdaniem problem jest poważny, ponieważ niektórzy potrafią spędzać długie godziny na przeglądaniu bezwartościowych treści. – Ludziom często wydaje się, że to forma odpoczynku, jednak tak nie jest, bo nasz mózg cały czas pracuje, cały czas filtruje informacje – podkreślił.
Ekspert zaznaczył także, że zjawisko to może wpisywać się w element wojny hybrydowej. – To doskonały sposób, by „ogłupić” internautów w obcym kraju. W momencie kryzysu ludzie nie będą wiedzieć, w co mogą wierzyć. W sytuacji zagrożenia dezinformacją sami stajemy się potencjalnymi ofiarami – zauważył.
Kuś wskazał również, że internet dla wielu osób stanowi ucieczkę od codzienności i stresu, co wiąże się z psychologicznym zjawiskiem tzw. cyberdryfowania. – W tym przypadku dryfujemy od strony do strony, od mema do mema. Gdyby ktoś zapytał nas, co dokładnie widzieliśmy w tym czasie, mielibyśmy problem z odpowiedzią, bo tak naprawdę nic nie przyswoiliśmy, a jedynie „zapchaliśmy” nasz system poznawczy – wyjaśnił.
Bartuzi-Trokielewicz zwróciła uwagę na rozporządzenia mające przeciwdziałać zacieraniu się granicy między wolnością wypowiedzi, a manipulacją czy dezinformacją. Jednym z nich jest rozporządzenie o sztucznej inteligencji (AI Act) w Unii Europejskiej, które wprowadza obowiązek oznaczania treści wygenerowanych przez sztuczną inteligencję. Z kolei Akt o usługach cyfrowych (DSA) nakłada na platformy społecznościowe i innych dostawców usług cyfrowych obowiązek aktywnego ograniczania rozprzestrzeniania się dezinformacji i szkodliwych treści, a także większej przejrzystości algorytmów i moderacji.
Weronika Moszpańska, Piotr Gregorczyk (PAP)
wm/ grg/ bst/ jpn/


























































