Korea Południowa jako pierwszy kraj na świecie wdrożyła w czwartek kompleksowe przepisy dotyczące sztucznej inteligencji – podały władze w Seulu. Nowe prawo ma regulować systemy wysokiego ryzyka oraz zwalczać dezinformację i deepfake’i. Krytycy ostrzegają, że wymogi mogą hamować innowacje.


Wicepremier, minister nauki Be Kjung Hun, były szef działu badań nad AI w koncernie elektronicznym LG, oświadczył na konferencji prasowej, że ustawa zapewni „krytyczny fundament instytucjonalny” dla ambicji kraju, by stać się jedną z trzech czołowych potęg w dziedzinie AI. Nowe prawo wyprzedza podobne regulacje w Unii Europejskiej, które mają być wdrażane etapowo do 2027 roku.
Kluczowy stały nadzór ludzi
Ustawa o podstawach rozwoju AI definiuje systemy o dużym wpływie jako te, które istotnie oddziałują na bezpieczeństwo i życie obywateli, m.in. w sektorze nuklearnym, transporcie, rekrutacji i diagnostyce medycznej. Kluczowym wymogiem wobec firm wdrażających rozwiązania oparte na sztucznej inteligencji jest zapewnienie stałego nadzoru ludzkiego nad procesami decyzyjnymi algorytmów.
Firmy muszą również wyraźnie oznaczać treści wygenerowane przez AI, jeśli trudno je odróżnić od rzeczywistości. Za brak takich etykiet grożą grzywny do 30 mln wonów (ok. 20,4 tys. dolarów).
Wymogi na gigantów
Przepisy nakładają konkretne wymogi na największe podmioty. Zagraniczne firmy o globalnych przychodach przekraczających 1 bln wonów (ok. 680 mln USD) lub mające w Korei Płd. ponad milion użytkowników dziennie muszą wyznaczyć oficjalnego lokalnego przedstawiciela. Kryteria te obejmują obecnie m.in. Google i OpenAI.
Rząd przewidział roczny okres karencji na dostosowanie się do wymogów, ale sektor technologiczny wyraża obawy co do tempa zmian. Eksperci branżowi wskazują, że niejasny język ustawy może skłaniać firmy do asekuracyjnych działań w obawie przed naruszeniem prawa, co ograniczy ich rozwój i innowacyjność względem zagranicznych rywali.
Krzysztof Pawliszak (PAP)
krp/ akl/
























































