Narzędzia sztucznej inteligencji, wykorzystywane do redagowania informacji, robią błędy w 45 proc. tekstów – wynika z najnowszego badania European Broadcasting Union (Europejskiej Unii Nadawców), w którym teksty pisane przez sztuczną inteligencję oceniali dziennikarze.


45 proc. informacji pisanych przez narzędzia AI miało przynajmniej jeden istotny błąd, taki jak brakująca lub niepoprawna informacja źródłowa (31 proc. odpowiedzi) lub halucynacje AI i przestarzała informacja (20 proc. odpowiedzi). Oceniano też odróżnianie faktów od opinii oraz przedstawiany kontekst informacji.
Tzw. asystenci AI, z których już obecnie korzystają miliony osób do wyszukiwania informacji, „rutynowo niepoprawnie przedstawiają zawartość informacyjną, niezależnie od tego jaki język, obszar i jaka platforma AI są testowane” – podkreślono w raporcie European Broadcasting Union (EBU), europejskiej organizacji skupiającej publicznych i niekomercyjnych nadawców. W pracy nad opublikowanym w tym tygodniu raportem wzięło udział 18 nadawców z Europy (bez Polski) oraz kanadyjski publiczny nadawca CBC/Radio-Canada i amerykański NPR.
Ponad 3 tys. odpowiedzi „asystentów” ocenili dziennikarze europejskich i północnoamerykańskich stacji. Teksty były redagowane przez ChatGPT (OpenAI), Copilot (Mictosoft), Gemini (Google) i Perplexity (założone przez prywatnych amerykańskich inwestorów). Najgorzej wypadło Gemini, które robiło błędy w 76 proc. tekstów., ponad dwa razy więcej od konkurentów. Wyniki porównano z przeprowadzonym w lutym br. badaniem BBC, w którym rezultaty były nieco gorsze.
Cytowany w raporcie EBU wicedyrektor generalny Jean Philip De Tender podkreślał, że błędy AI nie są jednostkowymi przypadkami, ale „systemowymi, ponadgranicznymi i wielojęzycznymi błędami, sądzimy, że podważa to zaufanie odbiorców”. „Kiedy ludzie nie wiedzą komu ufać, kończy się to brakiem zaufania do wszystkich i to może odsuwać od uczestnictwa w demokracji” – powiedział De Tender.
W raporcie podkreślono, że już obecnie 7 proc. wszystkich użytkowników internetu korzysta z asystentów AI do przeglądu codziennych wiadomości, zaś wśród osób poniżej 25. roku życia jest to nawet 15 proc. – wynika z tegorocznego raportu Reuters Institute.
Autorzy raportu podkreślili, że dalszy cykliczny niezależny monitoring usług asystentów AI jest niezbędny. Przygotowali też narzędzie wspierające tworzenie rozwiązań, które zwiększają wiarygodność działania asystentów AI i zapewnili, że są gotowi pracować z firmami oferującymi dostęp do takich botów. Narzędzie bazuje na dwóch podstawowych pytaniach: o cechy dobrej odpowiedzi i o identyfikację problemów wymagających naprawy.
Jednocześnie EBU zwróciło się do Parlamentu Europejskiego i parlamentów krajowych, by skutecznie stosować istniejące prawo dotyczące jakości informacji, usług cyfrowych i pluralizmu mediów.
Z Toronto Anna Lach (PAP)
lach/ zm/



























































