REKLAMA
RELACJA Z FORUM FINANSÓW

Eksperci: Część materiałów AI z rozebranymi dziećmi jest Polsce legalna, trzeba zmienić prawo

2025-08-03 18:00
publikacja
2025-08-03 18:00

Wygenerowane przez AI materiały z rozebranymi dziećmi są w Polsce legalne, jeśli nie przedstawiają czynności seksualnych; należy pilnie zmienić to prawo - alarmują w rozmowie z PAP biegli sądowi Amanda Krać-Batyra i Tomasz Sidor.

Eksperci: Część materiałów AI z rozebranymi dziećmi jest Polsce legalna, trzeba zmienić prawo
Eksperci: Część materiałów AI z rozebranymi dziećmi jest Polsce legalna, trzeba zmienić prawo
fot. Agencja Wschod / / FORUM

Zgodnie z 202 art. Kodeksu karnego rozpowszechnianie i posiadanie treści pornograficznych z udziałem osoby małoletniej podlega karze pozbawienia wolności od 3 miesięcy do 5 lat. Chodzi o materiały z prawdziwymi, żywymi dziećmi, niezależnie od tego, czy jest na nich ukazana czynność seksualna.

Natomiast posiadanie i rozpowszechnianie materiałów wytworzonych czy przetworzonych przez sztuczną inteligencję, na których widoczne jest realistycznie rozebrane dziecko, czy też ukazane w stylu bajkowym, ale bez czynności seksualnej, nie jest w Polsce karane – wskazała w rozmowie z PAP biegła z zakresu antropologii sądowej Amanda Krać-Batyra.

Jak dodała, podobnie jest w przypadku materiałów z dziećmi ubranymi w sposób seksualizujący (np. w samą bieliznę, stroje kąpielowe, kabaretki czy pończochy), które nie ukazują jednak rzeczywistych czynności seksualnych ani prawdziwych, żyjących dzieci.

W Polsce legalne są też opowieści, czyli słowny opis czynności seksualnych wobec dziecka oraz nagrania audio w tym zakresie - dodał w rozmowie z PAP biegły z zakresu informatyki śledczej Tomasz Sidor.

Jak wskazali eksperci, problemem jest definicja zawarta w artykule 202 Kodeksu karnego, który penalizuje produkcję, posiadanie i rozpowszechnianie materiałów „przedstawiających wytworzony albo przetworzony wizerunek małoletniego uczestniczącego w czynności seksualnej”.

- Musimy pilnie zmienić to prawo – alarmują biegli. Jak wskazała Krać-Batyra, prace nad nową treścią artykułu 202 kk już trwają, postulują je głównie środowiska pozarządowe oraz część instytucji publicznych (np. Dyżurnet działający przy NASK), związanych z ochroną dzieci. Główny postulat to zastąpienie pojęcia „treści pornograficzne przedstawiające wytworzony albo przetworzony wizerunek małoletniego uczestniczącego w czynności seksualnej” terminem przyjętym w prawodawstwie unijnym, czyli „materiały ukazujące seksualne wykorzystanie dziecka” (z ang. „child sexual abuse material” – CSAM) – wskazała ekspertka.

- Słowo „pornografia” nie powinno być używane w przepisach odnoszących się do dziecka, bo pornografia to legalny biznes rozrywkowy skierowany dla dorosłych – zaznaczyła.

Jak przekazał Tomasz Sidor, część krajów UE, w tym Słowenia, Belgia czy Niemcy podchodzą bardziej restrykcyjne do przepisów związanych z materiałami CSAM.

- Tego typu przestępstwa przekraczają granice państw. Tymczasem w jednym kraju pewne zachowania są penalizowane, a w innym legalne. W związku z tym występuje poważny problem z międzynarodowym ściganiem przestępstw popełnianych przez osoby z zaburzonymi preferencjami seksualnymi – mówił biegły.

Jak wskazał, generowanie CSAM jest możliwe przez modele AI ogólnodostępne w internecie, co stanowi poważne wyzwanie. Są też modele, które można uruchomić na swoim urządzeniu i przygotować tak, by omijały filtry nakładane przez producentów. - Nie potrzeba do tego specjalnego sprzętu. Często wystarczy laptop z dedykowaną kartą graficzną - mówił Tomasz Sidor. Dodał, że istnieją również modele AI specjalnie trenowane w celu „rozbierania” przedstawionych na zdjęciach dzieci lub generowania materiałów CSAM, do których dostęp na zasadzie subskrypcji cyberprzestępcy sprzedają w Darknecie.

Praca nad materiałami CSAM, których jeden podejrzany potrafi mieć na urządzeniu tysiące, niesie ze sobą ogromne obciążenie psychiczne dla biegłych, którzy często są przeciążeni albo wypaleni zawodowo – podkreśliła Amanda Krać-Batyra. Jak wskazała – zdaniem biegłych jest wytypowanie podejrzanych materiałów i opisanie ich w opinii, która trafi do policji, prokuratury czy sądu. Zaznaczyła, że organy te weryfikują nadesłane materiały, decydują o np. powołaniu seksuologa, który może zbadać preferencje podejrzanego, czy o postawieniu zarzutów i na końcu - o wydaniu wyroku.

– Zawsze wskazuję materiały, które są według mnie są podejrzane, nawet jeśli w świetle polskiego prawa ich posiadanie nie jest zabronione. Jednak rzadko kiedy w takich sprawach zapadają wyroki skazujące. Kiedyś zgłosiłam, że podejrzany miał na urządzeniu setki reklamowych zdjęć niemowlaków w śpioszkach, które pobrał ze stron sprzedających ubranka. Prokurator zadzwonił do mnie z pretensjami, że przecież tam nie ma nic nielegalnego – wspomina ekspertka.

Część biegłych korzysta ze sztucznej inteligencji, która ma pomóc we wstępnym wytypowaniu CSAM, jednak i tu pojawiają się problemy. – Zdarzają się „fałszywe pozytywy” (z ang. false positive), czyli sytuacje, w których AI oznacza jako podejrzane materiały w ogóle nie związane z dziećmi, np. zdjęcia, na których były pierogi ze śmietaną, pyzy ze skwarkami, czy borsuk – mówiła biegła. Jak dodała, zdarzają się też tzw. „fałszywe negatywy” (z ang. false negative), czyli sytuacje, w których AI nie wykrywa CSAM.

- Jeśli źle zakwalifikowany materiał trafi do sądu, będzie go bardzo łatwo podważyć. A biegły odpowiada karnie za złożenie fałszywej opinii, nawet jeśli zrobi to nieumyślnie – zaznaczyła Krać-Batyra.

Jak wskazali eksperci, aby narzędzia AI mogły skutecznie pomagać w wykrywaniu CSAM, powinny być specjalnie w trenowane w tym celu oraz wyjaśnialne, co oznacza, że dostępna jest informacja, dlaczego algorytm podjął taką, a nie inną decyzję. Jednak twórcy AI strzegą tajemnic związanych z algorytmami – wskazała ekspertka. Nie są też chętni do udzielania informacji ani udostępniania narzędzi do wykrywania materiałów wygenerowanych przez AI - dodał Tomasz Sidor.

Monika Blandyna Lewkowicz (PAP)

mbl/ malk/ lm/

Źródło:PAP
Tematy
Miejski model Ford Puma. Trwa wyjątkowa wyprzedaż

Komentarze (3)

dodaj komentarz
samsza
Zgodnie z 202 art. Kodeksu karnego rozpowszechnianie i posiadanie treści pornograficznych z udziałem osoby małoletniej podlega karze pozbawienia wolności od 3 miesięcy do 5 lat. Chodzi o materiały z prawdziwymi, żywymi dziećmi, niezależnie od tego, czy jest na nich ukazana czynność seksualna.
samsza
W PRL w latach 60-70 rodzice szli do fotografa robić zdjęcia niemowlętom, też rozebranym, ludzie mają spalić te zdjęcia ?
Przypominam sobie filmy mainstream, zwykłe filmy, gdzie np. myją dziecko w wannie, nic tam nie widać, ale dziecko jest z kontekstu "rozebrane", nagie, to jak ktoś ma taki film na półce, to do paki?
W PRL w latach 60-70 rodzice szli do fotografa robić zdjęcia niemowlętom, też rozebranym, ludzie mają spalić te zdjęcia ?
Przypominam sobie filmy mainstream, zwykłe filmy, gdzie np. myją dziecko w wannie, nic tam nie widać, ale dziecko jest z kontekstu "rozebrane", nagie, to jak ktoś ma taki film na półce, to do paki?
Trzeba w domu wszystko przejrzeć?

Powiązane: Dzieci

Polecane

Najnowsze

Popularne

Ważne linki