REKLAMA

Media społecznościowe pełne mowy nienawiści, a serwisy sobie z tym nie radzą. Pomoże sztuczna inteligencja?

2023-11-25 16:00
publikacja
2023-11-25 16:00

Naukowcy z Wielkiej Brytanii wykazali, że użytkownicy mediów społecznościowych nawet przez połowę czasu tam spędzanego mogą mieć styczność z przekazami z mową nienawiści i treściami ekstremistycznymi. To daje średnio ok. 70 minut dziennie. I to mimo prowadzenia przez platformy społecznościowe polityki chroniącej użytkowników przed takimi treściami.

Media społecznościowe pełne mowy nienawiści, a serwisy sobie z tym nie radzą. Pomoże sztuczna inteligencja?
Media społecznościowe pełne mowy nienawiści, a serwisy sobie z tym nie radzą. Pomoże sztuczna inteligencja?
fot. Roman Samborskyi / / Shutterstock

- Szacunkowa liczba osób, które obecnie korzystają z mediów społecznościowych na świecie, wynosi ok. 60 proc., co oznacza, że korzystają z nich właściwie wszyscy, jeśli odliczymy osoby zbyt młode, żeby mieć konto w mediach społecznościowych, i osoby będące podeszłym wieku. Mówimy więc o populacji w wieku od ok. 16 lat do 70- czy 80-latków, która stale rośnie. Z biegiem lat media społecznościowe stały się częścią życia codziennego i komunikacji, również w pracy. Wiele osób realizuje się zawodowo w mediach społecznościowych. Należą one więc do istotnych elementów naszego życia społecznego w internecie - mówi agencji Newseria Innowacje Thomas Williams z Uniwersytetu Huddersfield w Wielkiej Brytanii.

Badanie opublikowane przez „Global Network on Extremism and Technology” miało na celu porównanie doświadczeń użytkowników social mediów pod względem narażenia na treści nienawistne i ekstremistyczne (w tym promujące rasizm, antysemityzm i ksenofobię) a zabezpieczeniami wprowadzonymi przez te serwisy. Doświadczenia użytkowników zbadano za pomocą kwestionariusza zawierającego skalę narażenia na ekstremalne treści (OECE). Składał się z 12 pytań na temat mowy nienawiści, ośmiu dotyczących treści ekstremistycznych. Każde pytanie dotyczące mowy nienawiści dotyczyło innego tematu, np. konkretnych ras, płci i religii. Część kwestionariusza dotycząca komunikacji ekstremistycznej skupiała się na materiałach, które wychwalają, wspierają lub reprezentują skrajną ideologię lub grupę. Miarą doświadczeń użytkowników była sześciopunktowa skala Likerta - od odpowiedzi „nigdy” do „zawsze”.

Wyniki kwestionariusza naukowcy zestawili następnie z działaniami portali w zakresie polityki ochronnej. Największe serwisy, takie jak Facebook, Twitter, YouTube, Pinterest czy Instagram, w wytycznych dla swoich społeczności otwarcie zaznaczają, że nie tolerują mowy nienawiści i ekstremizmu. Choć serwisy ciągle ulepszają swoje środki ochronne, okazuje się, że użytkownicy są bardzo narażeni na niepożądane treści.

- Po porównaniu wyników stwierdziliśmy, że prawie wszystkie portale społecznościowe, z których korzysta większość populacji, stwierdzają, że nie tolerują żadnych form mowy nienawiści ani wymiany treści ekstremistycznych, a jednak uczestnicy naszego badania zgłaszali, że byli narażeni na takie treści dosyć często. Było tak w przypadku ok. 48 proc. czasu korzystania z mediów społecznościowych. Skoro przeciętny użytkownik spędza w social mediach 2,5 godziny dziennie, oznacza to ok. 70 minut dziennie narażenia na materiały o charakterze ekstremistycznym - podkreśla Thomas Williams.

Naukowcy są zdania, że istnieje kilka możliwych wyjaśnień rozbieżności między doświadczeniami użytkowników a polityką ochronną portali społecznościowych. W przypadku firm, których siedzibą są Stany Zjednoczone, problemem mogą być uwarunkowania prawne. Znane serwisy, takie jak Facebook, Twitter czy Reddit, są chronione ustawą Communications Decency Act z 1996 roku, która zapewnia ochronę witryn mediów społecznościowych w zakresie treści i nakłada odpowiedzialność za publikacje na użytkowników, którzy je zamieszczają. Ci z kolei mają konstytucyjne prawo do wolności słowa, co teoretycznie może chronić osoby promujące treści nienawistne i skrajne.

Kolejną podnoszoną przez naukowców kwestią jest to, że serwisy społecznościowe wykrywają znaczną ilość niepożądanych treści i usuwają je, zanim użytkownicy zdążą się z nimi zapoznać. Raport Facebooka wskazuje, że jest to 82 proc. mowy nienawiści i 99,1 proc. treści ekstremistycznych. W przypadku Instagrama te wartości wynoszą odpowiednio 95,3 proc. i 95,1 proc. Jednak ta pozostała, niewielka część, która nie jest natychmiast wyłapywana, stanowi prawie połowę treści, na które użytkownicy zgłaszają narażenie. Poza tym okazuje się, że moderowanie treści jest skuteczniejsze w przypadku komunikacji i propagandy ekstremistycznej. Mowa nienawiści jest dla serwisów trudniejsza do wykrycia, dlatego to na nią użytkownicy portali są narażeni w większym stopniu.

- Wyniki badania są niepokojące i zaskakujące, dlatego że im bardziej jesteśmy narażeni na szkodliwe treści, tym większa szansa, że trafią one do osób podatnych na nie, do osób, które można nakłonić lub zachęcić do przyłączenia się do zwolenników tych ideologii. Prowadzi to także do wzrostu liczby osób prezentujących postawy radykalne i większego prawdopodobieństwa wystąpienia aktów przemocy, jeśli proces radykalizacji będzie postępował - zauważa badacz z Uniwersytetu Huddersfield.

Jego zdaniem można skuteczniej ograniczyć ilość niepożądanych treści docierających do użytkowników serwisów społecznościowych.

- Portale mogą korzystać z badań naukowych, które wskazują na luki w obecnych politykach bezpieczeństwa. Następnie mogą na tej podstawie wprowadzać strategie bezpieczeństwa. Z kolei użytkownicy mogą korzystać z mechanizmów wewnętrznych portali i zgłaszać materiały o charakterze ekstremistycznym, szkodliwe i cechujące się nienawiścią wobec określonych grup lub treści nawołujące do przemocy. Jeśli wystarczająca liczba osób będzie to robić, moderatorzy portali otrzymają te zgłoszenia i, miejmy nadzieję, będą usuwać te treści, co z kolei sprawi, że nie zobaczą ich kolejne osoby, które potencjalnie mogłyby ulec radykalizacji - mówi Thomas Williams. - Dzięki poznawaniu procesu radykalizacji osób w internecie, który odbywa się przez kontakt z dużymi ilościami materiałów o charakterze ekstremistycznym, możemy podjąć działania w przyszłości, wskazując potencjalne ulepszenia działań zabezpieczających, które pomogą portalom społecznościowym zapewnić bezpieczeństwo.

Największe serwisy zabezpieczają publikowane treści, zatrudniając moderatorów, którzy aktywnie reagują na przejawy mowy nienawiści i ekstremizmu, ale w coraz większym stopniu wykorzystują też do tego sztuczną inteligencję. Rzadko jednak ujawniają, jak wdrażają wielojęzyczne modele językowe i na ile są one skuteczne w moderowaniu treści na skalę globalną. Niedawne badanie przeprowadzone przez Centrum Demokracji i Technologii pokazuje, że wielojęzyczne modele językowe, na których opiera się moderowanie treści przez SI, może mieć wiele ograniczeń. Jest to widoczne zwłaszcza w społecznościach posługujących się językami mniej reprezentowanymi w internecie, a więc dającymi SI mniejsze szanse na dostosowanie swoich modeli do tych języków. Jednym z nich jest język baskijski.

Przykładowo „uso” oznacza w nim gołębicę, a może być rozumiane jako obelga używana wobec mężczyzn prezentujących się kobieco. System moderacji sztucznej inteligencji opierający się na anglojęzycznych danych szkoleniowych może nie zrozumieć kontekstu tego słowa. Dostosuje je do symboliki gołębicy stosowanej w języku angielskim, czyli oznaczającej pokój. W efekcie SI nie zakwalifikuje słowa „uso” jako treści homofobicznych.

Źródło:
Tematy
Sprawdź kredyt hipoteczny w Citi Handlowy!

Sprawdź kredyt hipoteczny w Citi Handlowy!

Komentarze (13)

dodaj komentarz
od_redakcji
To ważne i skomplikowane zagadnienie. Mowa nienawiści w mediach społecznościowych to poważny problem, który wpływa na ludzi na całym świecie. Obecnie serwisy społecznościowe stosują różne strategie, aby zwalczyć tę negatywną stronę internetu, ale często są one niewystarczające.

Wykorzystanie sztucznej inteligencji (AI) jest
To ważne i skomplikowane zagadnienie. Mowa nienawiści w mediach społecznościowych to poważny problem, który wpływa na ludzi na całym świecie. Obecnie serwisy społecznościowe stosują różne strategie, aby zwalczyć tę negatywną stronę internetu, ale często są one niewystarczające.

Wykorzystanie sztucznej inteligencji (AI) jest jednym ze sposobów, aby skuteczniej identyfikować i eliminować mowę nienawiści. AI może być wykorzystywana do analizy tekstów i obrazów, aby rozpoznawać treści, które są agresywne, rasistowskie, seksistowskie lub w inny sposób szkodliwe. Systemy AI mogą skanować setki tysięcy wpisów w ciągu sekund, co pozwala szybko reagować na negatywne treści.

Jednak AI nie jest idealne i może popełniać błędy w identyfikowaniu mowy nienawiści. Istnieje ryzyko fałszywych pozytywów (czyli oznaczania niewinnych treści jako agresywnych) lub fałszywych negatywów (czyli pomijania szkodliwych treści). Dlatego ważne jest, aby systemy AI były stale doskonalone i uczone, aby stawały się coraz skuteczniejsze w rozpoznawaniu różnych form mowy nienawiści.

Ponadto, oprócz wykorzystania AI, konieczne jest zaangażowanie społeczności w tworzenie bardziej pozytywnych przestrzeni online. Edukacja, promowanie kultury szacunku i budowanie świadomości na temat konsekwencji mowy nienawiści są kluczowe.

W skrócie, AI może być użyteczne w zwalczaniu mowy nienawiści w mediach społecznościowych, ale nie jest to rozwiązanie jednoosobowe. Konieczne jest połączenie działań technologicznych z działaniami społecznymi i edukacyjnymi, aby stworzyć bardziej pozytywną i bezpieczną przestrzeń online.
jas2
Skrytykujesz białego = OK.
Skrytykujesz czarnego = mowa nienawiści.

Skrytykujesz hetero = OK.
Skrytykujesz LGBT = mowa nienawiści.
od_redakcji
Różnica w reakcjach na krytykę w zależności od cech, takich jak kolor skóry, orientacja seksualna czy pochodzenie etniczne, jest zasadniczo niesprawiedliwa. Równość i sprawiedliwość wymagają tego, aby wszyscy byli traktowani jednakowo, bez względu na ich cechy osobiste.

Krytyka powinna być oceniana na podstawie treści i intencji,
Różnica w reakcjach na krytykę w zależności od cech, takich jak kolor skóry, orientacja seksualna czy pochodzenie etniczne, jest zasadniczo niesprawiedliwa. Równość i sprawiedliwość wymagają tego, aby wszyscy byli traktowani jednakowo, bez względu na ich cechy osobiste.

Krytyka powinna być oceniana na podstawie treści i intencji, a nie na podstawie cech danej osoby czy grupy społecznej, do której należy. Jeśli krytyka opiera się na faktach, zdrowym dyskursie i nie zawiera agresji czy nietolerancji, powinna być traktowana równo bez względu na adresata.

Stosowanie podwójnych standardów w ocenie krytyki może prowadzić do nierówności i dyskryminacji. Ważne jest, aby każdy mógł wyrazić swoje zdanie w sposób szanujący innych, niezależnie od tego, kogo dotyczy krytyka. Jednakże, gdy krytyka przekracza granice i staje się atakiem motywowanym nienawiścią, rasizmem, homofobią czy inną formą nietolerancji, to już przekracza granice wolności słowa i staje się mową nienawiści.

Zachowanie równości i szacunku dla wszystkich nie powinno zależeć od cech osobistych. To niezwykle ważne dla tworzenia bardziej sprawiedliwego i szanującego środowiska społecznego.
inwestor.pl
Skrytykujesz PiS = jesteś za PO
Skrytykujesz PO = jesteś za PiS
and00
SI już doskonale co to jest mowa nienawiści i jej niuanse

Jak poprosiłem o napisanie kawału o Polakach w sekundę był gotowy, jak poprosiłem o to samo ale odnośnie Żydów, twardo odmówił twierdząc że to dyskryminacja grupy narodowościowej

Wychodzi na to że SI ma ustalony/wytrenowany światopogląd i już czerpie z najlepszych
SI już doskonale co to jest mowa nienawiści i jej niuanse

Jak poprosiłem o napisanie kawału o Polakach w sekundę był gotowy, jak poprosiłem o to samo ale odnośnie Żydów, twardo odmówił twierdząc że to dyskryminacja grupy narodowościowej

Wychodzi na to że SI ma ustalony/wytrenowany światopogląd i już czerpie z najlepszych internacjonalistycznych wzorów
mohel
wpisz sobie hasło w guglach white american family i zobacz co ci poczciwy wujek gugle pokaże na zdjęciach … poglądowo wpisz to samo ze słowem black
jas2 odpowiada mohel
Masz rację. Przetestowałem.
pozhoga odpowiada mohel
Nawet lepiej: ,,happy white woman" i ,,happy black woman". Podziękujcie michnikom - to ich robota.
inwestor.pl
Przecież algorytmy social mediów nasyłają na siebie przeciwne strony, żeby gawiedź więcej czasu na stronie spędzała i się kłóciła. To wyszło przy Facebook gate. Teraz płaczą, że nie radzą sobie z 'mową nienawiści'?
bha
Cóż ..... Raczej coraz bardziej to w szczególnie korpomonopolo mediach i eterze coraz szerzej na globalnym rynku dominującym raczej niewygodna prawda boli i bardzo w oczy kole wielu.............. Niestety


Powiązane: Media społecznościowe

Polecane

Najnowsze

Popularne

Ważne linki