Badacze związani z Amnesty International we współpracy z amerykańskim Instytutem Transparentności Algorytmicznej przez cały marzec 2025 r. przy użyciu 32 stworzonych na potrzeby badania kont analizowali algorytm X i treści przez niego promowane. W sumie przyjrzeli się 163 tys. wpisów pod kątem ich ładunku politycznego i emocjonalnego.
„Po 2022 r., kiedy Twitter zmienił się w X, a jego właścicielem został Elon Musk, zmianę w jakości treści można było dostrzec gołym okiem. Amnesty International postanowiło jednak spróbować uchwycić to, co każdego dnia obserwowały miliony użytkowników i »nową jakość« Twittera przełożyć na liczby. Przy okazji odsłaniając, jak działa algorytm napędzający platformę” - czytamy.
Wyniki Amnesty International opublikowała w raporcie „Śmierć przez tysiąc cięć. Jak wspomagana technologicznie przemoc na platformie X uderza w polską społeczność LGBTI”. Z badania wynika m.in., że w Polsce z platformy X korzysta 5,33 mln osób, natomiast dla całego polskojęzycznego X zatrudnionych jest jedynie dwóch moderatorów treści (to osoby, które odpowiadają za usuwanie wpisów m.in. rozsiewających fake newsy, łamiących prawo itp.).
„Z czego dla jednej z tych osób język polski jest drugim językiem. Według szacunków pracę w całym X straciło nawet 80 proc. pracowników. Ludzie ci wcześniej dbali m.in. o to, by treści publikowane przez użytkowników Twittera były zgodne z prawem i standardami platformy” - dodała „Gazeta Wyborcza”, opisując także algorytm, który promuje najbardziej radykalne treści. (PAP)
nno/ ktl/