Strony z fałszywymi treściami generowanymi przez AI mogą być destrukcyjne dla społeczeństwa, negatywnie wpływać na zaufanie do mediów oraz rozpoznawanie dezinformacji - wskazali PAP prof. Aleksandra Przegalińska oraz prezes ZPWC Maciej Kossowski.


Prof. Przegalińska ofiarą AI. To alternatywna rzeczywistość, która żyje własnym życiem
W grudniu 2025 r. specjalistka w dziedzinie sztucznej inteligencji prof. Przegalińska poinformowała w serwisie X o istnieniu szeregu stron internetowych prowadzonych przez jeden podmiot, na których znajdują się fałszywe treści na jej temat, masowo generowane przy pomocy AI. Jak podała ekspertka, na tych „farmach treści” publikowane są fake newsy także o innych osobach publicznych, m.in. aktorach i politykach, w tym wicepremierze i ministrze cyfryzacji Krzysztofie Gawkowskim oraz o znanych, polskich i zagranicznych markach.
„Po mojej interwencji konkretne wpisy zniknęły, ale same strony nadal działają, bo ich logika nie dotyczy jednej osoby ani jednego tekstu. To są fabryki treści, które w miejsce usuniętych materiałów natychmiast produkują kolejne. Dla ich twórców pojedyncza korekta czy zgłoszenie to tylko koszt operacyjny, a nie realna bariera” - przekazała PAP prof. Przegalińska.
Zaznaczyła, że kiedy zobaczyła fałszywe treści o sobie, towarzyszyło jej zdziwienie, irytacja i poczucie bezradności. „To doświadczenie jest niepokojące, bo uświadamia, jak łatwo można stworzyć alternatywną wersję rzeczywistości, która zaczyna żyć własnym życiem, niezależnie od faktów i intencji osób, których dotyczy” - podkreśliła.
Tanie, szybkie i destrukcyjne. Jak sztuczna inteligencja niszczy zaufanie do mediów
„Tego typu stron nie można w żadnym wypadku uznać za dziennikarstwo” - zaznaczył z kolei Maciej Kossowski, prezes Związku Pracodawców Wydawców Cyfrowych (ZPWC), zrzeszającego największe spółki mediowe w Polsce. Jak podkreślił Kossowski, strony z treściami o niskiej jakości powstawały od lat. Ich uruchomienie nie było trudne, ale jednak potrzebni byli do tego ludzie - wskazał.
„Teraz, z AI, jest to banalne. Jeden człowiek może tworzyć dziesiątki treści i serwisów w dowolnym temacie” - zaznaczył.
Zdaniem prof. Przegalińskiej tego typu portale powstają głównie z powodów ekonomicznych i politycznych.
„Generowanie masowych treści przez AI jest tanie, szybkie i łatwo je monetyzować przez reklamy albo manipulowanie ruchem” - zauważyła.
Oceniła, że osobom, które stoją za takimi stronami często towarzyszy też chęć wpływu na debatę publiczną, testowania narracji albo chęć wywołania chaosu informacyjnego, sprzyjającego tym, którzy potrafią nim zarządzać.
„Skutki istnienia takich stron są poważne” - podkreśliła. Jak podała, dla jednostek oznacza to „ryzyko reputacyjne, stres i konieczność ciągłego reagowania na nieprawdziwe informacje”. Natomiast dla społeczeństwa oznacza to - według ekspertki - „erozję zaufania do mediów, ekspertów i instytucji, a w dłuższej perspektywie także osłabienie zdolności do odróżniania wiedzy od dezinformacji”.
"Jakgroźne mogą być współczesne narzędzia w rękach obcych służb"
Według prezesa ZPWC, przypadek prof. Przegalińskiej powinien zostać potraktowany jako ostrzeżenie. „To prymitywne działania ukierunkowane na zarabianie pieniędzy, ale powinno nam uświadomić, jak groźne mogą być współczesne narzędzia w rękach obcych służb, które chcą destabilizować społeczeństwa” - podkreślił Kossowski. „Przykłady można mnożyć. Wyobraźmy sobie »fejkowy« serwis z poradami medycznymi lub psychologicznymi, których nikt nie weryfikuje i jakie skutki może mieć taka działalność” - podał.
Według ekspertów, walka z tym zjawiskiem wymaga kilku równoległych działań, w tym legislacyjnych. „Potrzebne są mądre regulacje, które nie zabiją innowacji, ale ograniczą rozprzestrzenianie technologii, które mogą być destrukcyjne dla społeczeństw” - ocenił Kossowski.
Jak zaznaczył prawnik oraz ekspert w zakresie wdrażania AI dr Michał Nowakowski - otoczenie prawne dla legalnego i etycznego wykorzystania sztucznej inteligencji „jest na etapie niemowlęcym”. Jego zdaniem, AI Act, czyli unijne rozporządzenie w sprawie sztucznej inteligencji „w niewielkim stopniu pomaga” w takich sytuacjach. Akt zawiera m.in. przepisy dot. praktyk zakazanych, obowiązki w zakresie przejrzystości, w tym oznaczania treści generowanych przez AI, ale - zdaniem eksperta - nie wiadomo, czy podmioty będą w ogóle stosować się do tych przepisów, po ich wejściu w życie.
Dr Nowakowski ocenił, że samo przyjęcie w UE aktu o sztucznej inteligencji to „zdecydowanie za mało”, ponieważ problemy, które wiążą się z wykorzystaniem generatywnej AI wykraczają „daleko poza zakres tego rozporządzenia”. „Dzisiejsze wyzwania wiążą się też m.in. z tworzeniem deepfakeów, naruszaniem praw własności intelektualnej, czy z nieuprawnionym wykorzystaniem wizerunku lub głosu” - podał.
Pierwszy pozew o głos AI w Polsce. Lektor kontra producent szamb
W tym ostatnim kontekście rozpatrywany może być pozew lektora Jarosław Łukomskiego wobec spółki JFC Polska, która zajmuje się produkcją szamb i oczyszczalni. Łukomski zarzuca firmie przetworzenie jego głosu przy pomocy AI, a następnie wykorzystanie go w reklamie. Spółka - jak podają media - twierdzi, że nie dopuściła się jakichkolwiek bezprawnych działań ani naruszeń. To pierwszy tego typu pozew w Polsce.
Oprócz AI Actu, który nie został jeszcze w pełni wdrożony w Polsce, osoby poszkodowane w przypadkach związanych z generatywną AI są chronione prawem cywilnym, w części dotyczącej dóbr osobistych - wyjaśnił dr Nowakowski. Do dóbr osobistych zalicza się m.in. zdrowie, wolność, cześć, swobodę sumienia, nazwisko lub pseudonim i wizerunek. Jak wskazał prawnik, naruszenie dóbr osobistych może być też przestępstwem, np. zniesławieniem czy zniewagą.
„W takiej sytuacji, poza instrumentami cywilnymi, przysługują nam rozwiązania o charakterze karnym – w tym przede wszystkim możemy i powinniśmy złożyć stosowne zawiadomienie o podejrzeniu popełnienia przestępstwa” - wskazał dr Nowakowski. Dodał, że można też poszukiwać wsparcia u platform internetowych, które „powinny dążyć np. do usunięcia krzywdzących reklam, tym bardziej, że do działania zobowiązują je przepisy unijne”.
Jak wskazał ekspert, w niektórych przypadkach naruszeń związanych z AI obowiązywać będzie także prawo prasowe, ale to zależy, czy mamy do czynienia z wydawcą. „I to może być problem w kontekście nieokreślonych wydawców, którzy nie spełniają wysokich standardów, czyli dobrych praktyk i etycznych norm oraz nie szanują przepisów prawa” - podkreślił dr Nowakowski.
Potrzebne jest silne państwo, które będzie zdolne do egzekwowania regulacji
„Nawet jeżeli stworzymy bardzo dobre przepisy – takie próby są – to o ich skuteczności będzie decydowała skuteczność sądów czy organów ochrony prawa. W świecie, w którym różne firmy i osoby działają z np. Chin czy z jurysdykcji o słabszym reżimie prawnym, trudno będzie o egzekwowanie tych praw” - ocenił. Jego zdaniem dużą rolę w tych proces odgrywać będą dostawcy internetu, domen oraz platform internetowych.
Na znaczenie platform zwrócił również uwagę prezes Kossowski. Jego zdaniem, wielkie platformy technologiczne, jak wyszukiwarki, czy social media, muszą ponosić odpowiedzialność za publikowane u nich treści. „Dłużej nie mogą działać jako pośrednicy zwolnieni z odpowiedzialności. Pełnią zbyt ważną rolę w ekosystemie informacyjnym” - podkreślił. Zauważył, że potrzebne jest przy tym „silne państwo”, które będzie zdolne do egzekwowania regulacji.
Kossowski wskazał, że konieczna jest również samoregulacja biznesu. „Mam na myśli takie firmy, jak OpenAI, czy Google, które powinny przyjąć bardzo wysokie standardy bezpieczeństwa” - zaznaczył. Przypomniał, że firma OpenAI wprowadziła ograniczenia w ChatGPT, w wyniku których AI nie generuje już zindywidualizowanych porad medycznych, co - według prezesa - jest „dobrym kierunkiem”.
Zdaniem Kossowskiego, potrzebna jest również edukacja społeczeństwa i „wsparcie wiarygodnych mediów”. Jak wyjaśnił, nie chodzi o wsparcie finansowe, a tworzenie przez państwo warunków rynkowych i legislacyjnych, które pozwolą im funkcjonować. „Musimy mieć świadomość, że »fejkowe« strony przejmują wspólnie z platformami część pieniędzy z reklamy przy bardzo niskich kosztach. Po drugiej stronie są te rzetelne media, które wydają duże pieniądze na redakcje, weryfikację informacji, publikację treści itd.” - podkreślił.
Prof. Przegalińska zaznaczyła z kolei, że „legislacja jest potrzebna, ale sama nie wystarczy, bo prawo zawsze reaguje wolniej niż technologia”. Kluczowe - jej zdaniem - są też: odpowiedzialność platform, transparentność źródeł treści, edukacja medialna i rozwijanie kompetencji krytycznego myślenia.
„Bez tego nawet najlepsze regulacje będą tylko częściowym rozwiązaniem” - podkreśliła ekspertka.
Akt o sztucznej inteligencji (AI Act) wszedł w życie 1 sierpnia 2024 r., z pewnymi wyjątkami. W lutym 2025 r. mocy nabrały m.in. przepisy dotyczące systemów AI, które są w UE zakazane. Do 2 sierpnia ub. r. kraje członkowie miały czas na powołanie organu nadzoru rynku. 2 sierpnia br. zastosowanie będzie mieć prawie cały akt (z wyjątkiem jednego artykułu), w tym przepisy dot. prawidłowego oznaczania treści wygenerowanych przez AI. W pełni akt zacznie obowiązywać w 2027 roku.
Projekt ustawy o systemach sztucznej inteligencji, autorstwa Ministerstwa Cyfryzacji, który ma wdrażać AI Act, został opublikowany po raz pierwszy 16 października 2024 r. Nadal trwają nad nim prace - w połowie grudnia ub. r. resort opublikował dwie wersje projektu i skierował je do Komitetu Stałego Rady Ministrów.
Monika Blandyna Lewkowicz (PAP)
mbl/ mrr/



























































