Prace nad wdrożeniem do polskiego prawa unijnych przepisów o DSA zmierzają ku końcowi i jeśli ustawa zyska aprobatę prezydenta, obywatele otrzymają potężny oręż w walce z platformami takimi jak Facebook, Instagram czy TikTok. Pomimo to nie ustają obawy o wolność wypowiedzi i możliwość nadmiernej moderacji ze strony platform cyfrowych. Bankier.pl przyjrzał się, czemu naprawdę służy DSA i czy głosy krytyków są uzasadnione.


21 listopada 2025 r. Sejm przyjął nowelizację Ustawy o świadczeniu usług drogą elektroniczną, która ma wdrożyć unijne wymogi DSA do polskiego porządku i określić krajowy nadzór i sankcje. Projekt przeszedł już przez Senat, który wprowadził do niej poprawki, m.in. możliwość zaskarżenia decyzji o blokowaniu treści do sądu. Ustawę musi teraz ponownie zaakceptować Sejm, a następnie trafi ona do prezydenta, nie ma jednak pewności, czy zostanie podpisana. Wątpliwości wobec przepisów nie milkną, z jednej strony bowiem mamy zapewnienia o ochronie praw użytkowników platform internetowych, z drugiej ryzyko nadmiernych regulacji i cenzury.
Po co wprowadzono DSA?
Rozporządzenie DSA, czyli Digital Services Act (Akt o usługach cyfrowych) zostało wprowadzone w Unii Europejskiej, aby uporządkować zasady funkcjonowania dużych platform internetowych, m.in. Facebooka, Instagrama czy TikToka, w reakcji na rosnące problemy z treściami online, dezinformacją, mową nienawiści, ale także handlem nielegalnymi towarami czy brakiem przejrzystości w działaniu algorytmów. Jak zauważa Fundacja Panoptykon, firmy technologiczne nie ponosiły społecznej odpowiedzialności za swoje działania, kontrolując przepływ informacji dzięki niejasnym algorytmom. Unijni urzędnicy w DSA wymusili na platformach obowiązek usuwania nielegalnych treści, większą przejrzystość rekomendacji i reklam oraz wprowadzenie mechanizmów odwoławczych od decyzji o blokowaniu treści, dzięki czemu użytkownicy zyskali większą ochronę swoich praw.
Zgodnie z przepisami państwa członkowskie miały wdrożyć przepisy DSA do lutego 2024 r. poprzez powołanie KUC, czyli koordynatora usług cyfrowych, który będzie odpowiedzialny za implementację DSA na gruncie krajowym. W Polsce będzie nim prezes Urzędu Komunikacji Elektronicznej, jednak przepisów wdrażających unijne regulacje wciąż brak. Ustawa jest w trakcie procesu legislacyjnego i budzi wiele emocji zarówno wśród polityków, jak i ekspertów od bezpieczeństwa i zwykłych obywateli.
Prawa użytkowników Internetu pod większą ochroną
Wdrożenie DSA do prawa krajowego wzmacnia prawa użytkowników serwisów internetowych i nakłada na platformy konkretne obowiązki:
- Usuwanie i zgłaszanie nielegalnych treści – użytkownik musi wiedzieć, dlaczego jego materiały zostały usunięte, ale i mieć możliwość szybkiego zgłoszenia treści niezgodnych z prawem.
- Ścieżka odwoławcza – możliwość odwołania od decyzji platformy poprzez jej wewnętrzny system lub drogą pozasądową.
- Przejrzystość algorytmów i rekomendacji — reklamy muszą być odpowiednio oznaczone z podaniem przyczyny ich wyświetlenia konkretnemu użytkownikowi; zabronione będzie pokazywanie treści wrażliwych, dotyczący np. religii czy pochodzenia, a duże serwisy będą musiały umożliwić wyłączenie personalizowanych rekomendacji.
- Zwiększona ochrona nieletnich – dzieci i młodzież nie będą mogły widzieć nieodpowiednich materiałów jak hazard czy pornografia, a spersonalizowane reklamy będą całkowicie zabronione.
- Zakaz „dark patterns” – agresywne wyskakujące okienka, czerwone przyciski czy utrudnienia w odmowie akceptacji plików cookies są wykluczone.
W czym DSA przyda się przeciętnemu obywatelowi? Przede wszystkim użytkownicy mediów społecznościowych i platform cyfrowych będą mogli łatwiej zgłaszać nielegalne treści, np. oszustwa, mowę nienawiści itd. Jeśli nasz wpis zostanie zablokowany, będziemy mogli odwołać się od decyzji bezpośrednio w serwisie lub przy pomocy zewnętrznego podmiotu (KUC). Treści reklamowe platformy muszą odpowiednio oznaczać, z kolei strumień wiadomości (tzw. feed) użytkownik będzie mógł modyfikować, rezygnując z podpowiedzi algorytmów.
Polskie DSA idzie krok dalej
Nowelizacja ustawy o świadczeniu usług drogą elektroniczną wprowadziła bardziej rygorystyczne zasady wdrażające DSA. Prezes UKE, czyli polski koordynator usług cyfrowych, miał otrzymać szerokie kompetencje do blokowania treści w Internecie niezaskarżalnymi decyzjami, co spotkało się z falą oburzenia i oskarżeniami o cenzurę i nadużycia. W efekcie przesłanki do usuwania materiałów ograniczono do zamkniętego katalogu 27 przestępstw wymienionych zarówno w Kodeksie karnym, jak i Kodeksie karno-skarbowym oraz innych ustawach (m.in. o prawach autorskich, własności przemysłowej i ochronie zdrowia przed używaniem tytoniu), do których należą m.in.
- Przemoc lub groźby karalne ze względu na rasę, pochodzenie, wyznanie i przynależność polityczną,
- Namowa i pomoc w doprowadzeniu do samobójstwa,
- Groźby karalne,
- Wykorzystanie wizerunku pokrzywdzonego prowadzące do szkody majątkowej lub osobistej,
- Przestępstwa związane z treściami pornograficznymi, szczególnie wobec dzieci i młodzieży poniżej 15 lat (utrwalanie i rozpowszechnianie wizerunku nieletniego, reklamy),
- Propagowanie i pochwalanie zachowań pedofilskich,
- Propagowanie ideologii totalitarnych i nawoływanie do nienawiści na tle etnicznym, narodowościowym, wyznaniowym,
- Doprowadzenie do niekorzystnego rozporządzenia mieniem,
- Naruszanie praw autorskich,
- Oszustwa komputerowe,
- Oszustwa podatkowe, unikanie opodatkowania.
W zamkniętej liście przestępstw nie znalazło się zniesławienie czy znieważenie funkcjonariusza publicznego i ochrona dóbr osobistych, co mogło stwarzać ryzyko nadużywania uprawnień np. do blokowania niewygodnych opinii w Internecie. Senat w najważniejszej z naniesionych poprawek usunął rygor natychmiastowej wykonalności decyzji prezesa UKE o blokowaniu treści, dodając możliwość jej zaskarżenia do sądu powszechnego, dzięki czemu kontrowersyjne materiały pozostaną na platformie do czasu rozpatrzenia sprawy. Różnice między DSA w ogólnym brzmieniu i polskich przepisach zamieściliśmy poniżej.
|
Wdrożenie DSA w Polsce |
||
|---|---|---|
|
Element regulacji |
Rozporządzenie DSA |
Nowelizacja ustawy o świadczeniu usług drogą elektroniczną |
|
Koordynator treści cyfrowych (KUC) |
Każde państwo członkowskie musi wyznaczyć krajowego KUC. |
Prezes UKE pełni rolę krajowego koordynatora, odpowiedzialnego za współpracę z Komisją Europejską i innymi państwami UE. |
|
Podział kompetencji między organami |
Państwa członkowskie mają swobodę w określeniu, które instytucje wykonują poszczególne zadania. |
Ustawa szczegółowo określa, które zadania przypisane są Prezesowi UKE, UOKiK i KRRiT, w tym, kto może nakładać kary, kontrolować treści i prowadzić procedury odwoławcze. |
|
Odwołanie od decyzji platform |
Platformy muszą posiadać wewnętrzne procedury odwoławcze. |
Użytkownicy mogą zgłaszać odwołania do Prezesa UKE lub Prezesa KRRiT, jeśli platforma zablokowała treść lub odmówiła przywrócenia dostępu. |
|
Kontrola sądowa |
Brak |
Możliwość odwołania do sądu od decyzji platform internetowych i od decyzji prezesa UKE. |
|
Katalog treści i przestępstw podlegających interwencji |
Platformy muszą usuwać treści nielegalne według prawa krajowego. |
Wykaz 27 rodzajów treści i przestępstw wymagających szybszej interwencji i szczególnego nadzoru. |
|
Źródło: Bankier.pl |
||
Druga strona medalu, czyli widmo nadregulacji
Wprowadzenie DSA w Polsce budzi wiele emocji, z których te negatywne skupiają się na większej władzy platform internetowych i ryzyku nadmiernego blokowania („over-moderation”). Serwisy takie jak Facebook czy Instagram już teraz poprzez algorytmy decydują o tym, co widzą użytkownicy, jeśli jednak staną w obliczu konieczności większego moderowania treści, to zaczną usuwać materiały prewencyjnie, by nie być oskarżone o zaniechania. Takie działania, zamiast wzmacniać prawa obywateli, mogą ograniczać wolność słowa, co budzi jeszcze więcej obaw, gdy zwrócimy uwagę na to, że krajowy koordynator będzie wyznaczał instytucje pełniące rolę „zaufanych podmiotów sygnalizujących”, których zgłoszenia przyjmowane będą priorytetowo.
Przepisy unijne najczęściej ujmuje się jako pomoc w walce z dezinformacją, co bywa wykorzystywane jako powód usuwania treści, niestety w polskim prawie nie istnieje definicja tego pojęcia, a co stwarza ryzyko nadużyć ze strony samych platform technologicznych, jak i urzędników. Podobnie rzecz ma się z mową nienawiści, która – jak zauważa Fundacja Panoptykon – spełnia przesłanki opisane w artykułach 256 i 257 Kodeksu karnego (zakaz dyskryminacji etnicznej, rasowej, wyznaniowej itd.), ale w przepisach wdrażających DSA nie obejmuje np. polityków czy osób LGBT+. Brak wyraźnych definicji stwarza ryzyko usuwania treści neutralnych, np. kierowanych wobec migrantów, które w ocenie platform albo KUC mogą nosić znamiona dyskryminacji, ale w samym przekazie nie zawierać ani gróźb karalnych, ani nawoływania do agresji.
Czy Internetowi grozi cenzura?
Los krajowych przepisów wdrażających DSA pozostaje niepewny. Z jednej strony ustawa to ważne narzędzie, które zobowiązuje big techy do większej odpowiedzialności za moderację treści, wyświetlanie ich użytkownikom, szczególnie nieletnim, i możliwość odwołania się od decyzji. Nie od dziś wiadomo, że polityki serwisów takich jak Facebook czy TikTok były traktowane przez obie strony dość powierzchownie, a autorzy treści musieli mierzyć się z bezsilnością, widząc usuwanie neutralnych postów, które algorytm uznał za podejrzane. Z tego względu ustalenie zamkniętego katalogu przestępstw, które mają stanowić przesłankę do blokowania treści, nie wydaje się złe, ale nie da się przy tym uniknąć wrażenia, że platformy obawiając się konsekwencji i kar, zaostrzą moderację jeszcze bardziej.
W sprawie cieszą poprawki wprowadzone przez Senat, dzięki którym prezes UKE nie będzie mógł jedną decyzją usuwać podejrzane treści, a użytkownik zyska szansę odwołania do sądu. Z drugiej jednak strony do czasu rozpatrzenia sprawy wpis czy wideo pozostaną w serwisie, co może mijać się z celem ustawy. Zmiany musi jeszcze przegłosować Sejm, a potem o losie nowelizacji zdecyduje prezydent, który już zapowiadał, że na cenzurę się nie zgodzi. Ustawa może wzmocnić pozycję internautów w starciu z big techami, jednak obawy o ryzyko nadużyć pozostają w mocy.


















































