ChatGPT, Gemini, Copilot – to narzędzia sztucznej inteligencji, które są w biurach na porządku dziennym. Jednak, gdy pracownicy używają ich „po cichu”, powstaje shadow AI - niewidoczny dla firmy mechanizm, który może wyprowadzić poufne informacje prosto w ręce cyberprzestępców. Sprawdziliśmy, jakim ryzykiem jest obarczone to zjawisko i jak zapobiegać niebezpiecznym sytuacjom.


Sztuczna inteligencja na dobre zagościła w codziennej pracy wielu firm. Narzędzia oparte na sztucznej inteligencji pomagają pisać teksty, analizować dane, generować obrazy czy usprawniać komunikację. Jednak wraz z ich rosnącą popularnością pojawia się nowe zjawisko – shadow AI, czyli korzystanie z tej technologii poza oficjalnymi kanałami i bez zgody organizacji.
Co to jest shadow AI?
Termin shadow AI nawiązuje do pojęcia shadow IT, które od lat opisuje nieautoryzowane wykorzystywanie technologii informatycznych w miejscu pracy. Jednak w przypadku AI chodzi o sytuacje, w których pracownicy samodzielnie korzystają z narzędzi takich jak ChatGPT, Copilot, Gemini czy Midjourney, aby szybciej wykonać zadanie, napisać raport, czy przygotować prezentację - nie informując o tym swoich przełożonych lub działu IT.
Dzieje się tak najczęściej z dobrych intencji - chcą zaoszczędzić czas, zwiększyć produktywność albo po prostu sprawdzić, „czy AI da radę”. Problem zaczyna się wtedy, gdy do publicznych modeli trafiają poufne dokumenty czy informacje o klientach.
Duże ryzyko ujawnienia danych
Jak twierdzi Matt Ausman, CIO w Zebra Technologies, największym zagrożeniem jest tu możliwość ujawnienia na zewnątrz poufnych danych firmowych.
– Prowadzone w pracy rozmowy wideo i audio, aplikacje do komunikacji wewnętrznej oraz poczta elektroniczna często zawierają poufne informacje dotyczące przedsiębiorstwa, jego pracowników, odbiorców i partnerów. Mogą to być dane finansowe, własność intelektualna, informacje dotyczące ładu korporacyjnego i regulacji, a także dane osobowe, które wymagają szczególnej ochrony w zakresie przechowywania, dostępu, komunikacji i usuwania – mówi Bankier.pl Matt Ausman. – Jeśli organizacja pozwala pracownikom lub stronom trzecim korzystać z własnych generatywnych, lub agentowych rozwiązań AI w ramach komunikacji wideo, audio lub tekstowej, oznacza to, że te dane są przechwytywane i przechowywane przez sztuczną inteligencję. Prawdopodobnie są też wykorzystywane do trenowania modeli AI i być może do innych celów - w zależności od warunków, jakie użytkownicy zaakceptowali, a których większość nie czyta.
Dwa przykre scenariusze
Zdaniem eksperta Zebra Technologies, ujawnienie danych może nastąpić na dwa sposoby:
- ponowne wykorzystanie danych firmy, które może zakładać umowa z dostawcą narzędzia. Najczęściej wynika to z wynegocjowanych postanowień lub z faktu, że pracownicy korzystają z osobistych wersji sztucznej inteligencji. Jeśli narzędzie AI jest bezpłatne, firma stojąca za nim musi w jakiś sposób zarabiać - najczęściej właśnie poprzez wykorzystanie danych użytkowników,
- nieumyślne ujawnienie danych przez dostawcę rozwiązania AI, co może nastąpić w wyniku cyberataku czy niewłaściwych zabezpieczeń systemowych. Korzystając z usług zewnętrznych dostawców narzędzi AI, firmy powierzają im ochronę swoich danych.
– W raportach internetowych wskazuje się, że od 13 proc. do nawet 45 proc. danych wprowadzanych do narzędzi generatywnej AI potencjalnie ujawniało dane klientów lub inne informacje wrażliwe, stwarzając ryzyko dla bezpieczeństwa lub zgodności – twierdzi Matt Ausman. – Oznacza to, że poufne dane trafiają poza system zarządzania i bezpieczeństwa firmy, a organizacja traci nad nimi kontrolę i wgląd. Może to również stanowić naruszenie krajowych lub regionalnych przepisów o ochronie danych oraz niewątpliwie podważać zaufanie pracowników, partnerów i klientów.
Furtka do nowych form oszustw
Według Matta Ausmana korzystanie z osobistych narzędzi AI oznacza również, że wyciekłe dane mogą zostać wykorzystane przez cyberprzestępców do tworzenia bardziej zaawansowanych oszustw typu deep fake (audio i wideo), phishingu lub smishingu.
– Takie oszustwa mogą wykorzystywać prywatne dane firmy lub pracowników, co zwiększa ich wiarygodność i skuteczność – uważa ekspert. – Pojawiały się również przypadki, w których narzędzia AI generowały poufne dane. Istnieje ryzyko, że użytkownicy sztucznej inteligencji w dowolnym miejscu na świecie, wprowadzając zapytania do modelu generatywnego, mogą otrzymać w odpowiedzi poufne informacje, które model przyswoił w procesie uczenia z innych źródeł.
AI może wymknąć się spod kontroli
Również zdaniem Przemysława Wójcika, prezesa AMP SA, shadow AI to coraz poważniejsze wyzwanie dla organizacji, ponieważ pracownicy bardzo często korzystają z narzędzi sztucznej inteligencji poza kontrolą działu bezpieczeństwa czy IT.
– Może to prowadzić do nieświadomego ujawnienia danych osobowych, poufnych informacji biznesowych lub konfiguracji systemów, co stanowi realne zagrożenie dla bezpieczeństwa – mówi Bankier.pl Przemysław Wójcik. – Narzędzia AI przechowują i przetwarzają wówczas dane w sposób, nad którym organizacja nie ma żadnej kontroli. Dlatego nawet jedno wklejenie fragmentu umowy czy logów serwera może być traktowane jako incydent. Często dane te mogą być przetwarzane na serwerach poza obszarem UE i RODO. Dodatkowym ryzykiem są halucynacje modeli AI, czyli generowanie fałszywych informacji, które mogą wprowadzać pracowników w błąd i prowadzić do błędnych decyzji biznesowych.
Złośliwe oprogramowanie umożliwia cyberataki
Tymczasem najnowsze dane dotyczące zagrożenia ze strony AI są porażające. Raport Elastic 2025 Global Threat Report, oparty na ponad miliardzie punktów danych z rzeczywistych środowisk produkcyjnych, pokazuje, że sztuczna inteligencja zrewolucjonizowała przestępczość internetową. Cyberprzestępcy wykorzystują modele AI do masowego generowania złośliwych programów, kradzieży danych poprzez logowanie z różnych przeglądarek i automatyzowania ataków na chmurę.
– W ciągu roku zaobserwowaliśmy 15 proc. wzrost wykorzystania AI do tworzenia złośliwego oprogramowania, które umożliwia cyberataki – twierdzi Przemysław Wójcik. – Najgorzej jest w środowisku Windows. Ataki z wykorzystaniem rozwiązań stworzonych przez sztuczną inteligencję wzrosły tu o ponad 32,5 proc. Są one ostatnio szczególnie obserwowane w sektorach energetycznym, finansowym, ale także zdrowotnym. W wyniku takich działań cyberprzestępców dochodzi do kradzieży danych osobowych, które później są sprzedawane na czarnym rynku albo blokowana jest infrastruktura IT celem zdobycia okupu.
Koniec z nieautoryzowanym AI w pracy?
Jak twierdzi Matt Ausman, zespoły ds. bezpieczeństwa IT coraz częściej wprowadzają wytyczne i narzędzia mające na celu powstrzymanie zjawiska tzw. „BYOAI” (Bring Your Own AI), w tym blokowanie dostępu do nieautoryzowanych aplikacji AI na komputerach służbowych.
– Coraz więcej firm inwestuje też w niezawodne i bezpieczne narzędzia sztucznej inteligencji, dzięki czemu potrzeba korzystania z prywatnych rozwiązań przez pracowników będzie stopniowo zanikać – uważa ekspert. – Wierzę, że z czasem będziemy obserwować ogólny spadek korzystania z zewnętrznych narzędzi AI. Gdy kilka lat temu rozpoczął się boom na sztuczną inteligencję, firmy dysponowały ograniczonymi możliwościami blokowania dostępu do takich narzędzi – zwłaszcza tych zintegrowanych z aplikacjami korporacyjnymi lub istniejącymi aplikacjami webowymi. To się jednak zmienia, a obecnie dostępne są coraz bardziej zaawansowane mechanizmy kontroli i blokowania.
Pracownicy muszą wiedzieć, jak korzystać ze sztucznej inteligencji
Zdaniem Przemysława Wójcika pracownicy często korzystają z AI, nie rozumiejąc konsekwencji ani zasad bezpiecznego przetwarzania danych.
– Aby skutecznie się zabezpieczyć, organizacja powinna wprowadzić formalną politykę korzystania z AI oraz jasno określić, jakie narzędzia są dozwolone – uważa prezes AMP SA. – Niezbędne jest także wdrożenie bezpiecznych rozwiązań AI. Kolejnym elementem ochrony są mechanizmy techniczne, takie jak web filtering, monitoring zdarzeń w SIEM oraz blokowanie nieautoryzowanych usług AI. Kluczową rolę odgrywa także klasyfikacja informacji oraz minimalizacja danych wysyłanych do systemów zewnętrznych. Tylko połączenie technologii, procedur i edukacji pozwala skutecznie ograniczyć ryzyka związane z Shadow AI. Jeżeli organizacja podejdzie do tego odpowiedzialnie, AI może być ogromnym wsparciem, ale bez kontroli staje się jednym z największych zagrożeń współczesnego środowiska pracy.
Wiele wskazuje na to, że shadow AI to zjawisko, które będzie rosnąć wraz z dostępnością i łatwością użycia narzędzi sztucznej inteligencji. Zamiast je ignorować, warto je zrozumieć i kontrolować. Firmy, które się tego nauczą, zyskają nie tylko większą efektywność czy przewagę konkurencyjną na rynku, ale przede wszystkim bezpieczeństwo.





























































