REKLAMA
JANUSZ KRYPTO

Nie ufaj temu, co widzisz i słyszysz. Tak AI zmienia oszustwa, bankowość czy rynek pracy

Tomasz Goss-Strzelecki2025-12-26 06:00zastępca redaktora naczelnego Bankier.pl
publikacja
2025-12-26 06:00

Deepfejki stały się potężną bronią w rękach grup przestępczych i obcych wywiadów. O tym, jak oszuści dzięki AI infiltrują firmy, jakie szkody wyrządzają i czy są sposoby, by się przed tym obronić, rozmawiamy z dr Pragiem Sharmą, ekspertem ds. sztucznej inteligencji w globalnej grupie bankowej Citi i współautorem raportu nt. deepfejków.

Nie ufaj temu, co widzisz i słyszysz. Tak AI zmienia oszustwa, bankowość czy rynek pracy
Nie ufaj temu, co widzisz i słyszysz. Tak AI zmienia oszustwa, bankowość czy rynek pracy
/ Shutterstock

Jeszcze dwa lata temu oszustwa finansowe z wykorzystaniem sztucznej inteligencji stanowiły margines. Dziś to problem coraz poważniejszy. Wśród nich wyróżniają się zwłaszcza oszustwa z wykorzystaniem różnych elementów deepfejku – generowanego przez AI wideo, audio czy zdjęć.

Według danych z opublikowanego w listopadzie raportu Citi Institute, jednostki badawczej globalnego banku Citi, ich udział w ogólnej liczbie fraudów wzrósł bowiem z 0,1% w 2022 r. do blisko 5% w 2024 r. I prawdopodobnie wkrótce będzie jeszcze wyższy, bo liczba deepfejków podwaja się co pół roku. Szacuje się przy tym, że globalny koszt cyberprzestępczości osiągnie w 2025 roku zawrotne 10,5 biliona dolarów wobec 3 bilionów dolarów dekadę wcześniej.

Warto dodać, że jest to istotny problem także dla przedsiębiorstw. W sektorze kredytów konsumenckich deepfejki odpowiadają już za blisko 12% wszystkich prób oszustw, a w branży nieruchomości za około 8% – czytamy w raporcie Citi Institute.

Materiały prasowe

Bariery dla oszustów praktycznie zniknęły

 – Jednym z kluczowych powodów tak szybkiego wzrostu tego rodzaju przestępstw jest wzrost możliwości technologii. Jednak sama technologia nie wystarczy. Kluczowa jest jej powszechna dostępność. Chodzi mi w szczególności o dostępność modeli open-source. ​​ Jedynym, co powstrzymuje dziś kogoś przed wykorzystaniem tej technologii zarówno w dobrych, jak i niecnych celach, jest brak wiedzy, jak uruchamiać i trenować modele językowe, lub brak dostępu do niezbędnego sprzętu – mówi Bankier.pl Prag Sharma, dyrektor Future of Finance, think tanku działającego w ramach grupy Citi.

– Zanim pojawiły się duże modele językowe (LLM), oszustwa wykorzystujące tekst wymagały sporo pracy manualnej i były prymitywne. LLM pozwoliły generować tekst, który brzmi bardzo realistycznie. AI od początku niesie możliwości związane z hiperpersonalizacją – dostosowaniem usług do potrzeb konkretnej grupy a nawet konkretnej osoby. I tak samo dzieje się w przypadku oszustów i generowanych przez nich deepfejków – zauważa ekspert.

Ekspert Citi zwraca uwagę, że rewolucja dotyczy zwłaszcza tzw. multimodalności w komunikacji. – Przestępcy świetnie łączą tekst, audio i wideo w spójną i coraz bardziej wiarygodną całość. Narzędzia nie są już domeną hakerów. Bariera wejścia dla przestępców praktycznie zniknęła – mówi Sharma.

W raporcie Citi przytoczony jest opisywany już w mediach przykład z 2024 roku dotyczący brytyjskiej korporacji z oddziałem w Hongkongu. Pracownik tego biura otrzymał zaproszenie na wideokonferencję z dyrektorem finansowym i innymi członkami zarządu. Temat: tajna transakcja i pilny przelew środków. Pracownik widział twarze swoich przełożonych, słyszał ich głosy. Wykonał polecenie, przelewając 200 milionów dolarów hongkońskich (około 25 milionów USD) na wskazane konta. Haczyk? Na tym spotkaniu on był jedynym prawdziwym człowiekiem. Wszyscy pozostali „uczestnicy” byli deepfejkami generowanymi w czasie rzeczywistym.

– Jesteśmy w fazie, w której technologia rozwija się tak szybko, że większość z nas nawet nie pojmuje jej możliwości – komentuje Sharma. – Jeśli ktoś dzwoni z jakąś ofertą, powiemy „nie, dziękuję”, bo nauczyliśmy się ignorować podejrzane telefony. Ale jeśli będzie to wideo i audio połączone jako deepfejk, będziemy znacznie bardziej skłonni uwierzyć.

Szczególnie niepokojącym trendem, na który wskazuje Sharma i raport Citi, jest infiltracja miejsc pracy dzięki AI. Nie chodzi tylko o pieniądze z wynagrodzenia – ale o dostęp do firmowych systemów, tajemnic handlowych i własności intelektualnej.

Kiedyś wirus, dziś sztuczna inteligencja

Jedna z amerykańskich firm technologicznych w rozmowie z autorami raportu Citi przyznała, że aż połowa otrzymywanych przez nią ostatnio CV jest fałszywych. Prognozy są pesymistyczne – szacuje się, że do 2028 roku co czwarty profil kandydata do pracy na świecie może być całkowicie lub częściowo wygenerowany.

Motywacją bywa nie tylko zwykła chęć zdobycia etatu, na który oszust nie miałby szans w normalnych warunkach, bądź zatrudnienia się na kilku etatach jednocześnie, ale także zorganizowana przestępczość czy działania na szczeblu państwowym.

–  Infiltracja danej organizacji, jej systemów z udziałem człowieka daje znacznie większe możliwości dalszego działania niż na przykład przedostanie się do systemów firmy za pomocą trojana (rodzaj wirusa komputerowego – red.)  – zauważa ekspert.

Raport wskazuje na konkretnego gracza: Koreę Północną. Szacuje się, że w ciągu ostatniego roku północnokoreańscy pracownicy IT, używając fałszywych tożsamości i technologii deepfejk, przeniknęli do ponad 320 firm na Zachodzie.

– To nie są indywidualne działania dla szybkiego zarobku. To zorganizowane, strategiczne operacje. Państwo zapewnia zasoby i narzędzia, wybiera kierunek ataku – mówi Sharma.

Przestępcy celują w stanowiska zdalne, używają AI do generowania CV i profili w mediach społecznościowych, a podczas rozmów kwalifikacyjnych wykorzystują klonowanie głosu i wideo, by podszyć się pod nieistniejących kandydatów. Po zatrudnieniu zyskują zaś legalny dostęp do infrastruktury firmy.

Zero trust i AI kontra AI

Jakie mogą być strategie obrony przed deepfejkami? Raport Citi i nasz rozmówca wskazują m.in. na model tzw. zerowego zaufania (ang. Zero Trust) w komunikacji. – Zero trust oznacza, że domyślnie nie uwierzymy i nie powiemy nikomu: „dziękuję, że Pan dzwoni, proszę, tu są wszystkie dane”. Przeciwnie, potrzebujemy dodatkowej weryfikacji – wyjaśnia Sharma.

Każda interakcja może być weryfikowana w czasie rzeczywistym.

– Musimy szukać sygnałów ostrzegawczych w biometrii behawioralnej. Sposób, w jaki użytkownik pisze na klawiaturze czy wchodzi w interakcję z naszym systemem, tworzy unikalny wzorzec. Jeśli wykryjemy odstępstwo, system powinien automatycznie wymusić dodatkową weryfikację. To niektóre z mechanizmów, które już funkcjonują, a teraz musimy je skutecznie rozszerzyć na obszar generatywnej AI – wyjaśnia Sharma.

–  Dziś podrobiony głos brzmi tak realistycznie, że jego odróżnienie „na ucho” staje się praktycznie niemożliwe – dodaje ekspert Citi. Syntetyczne głosy potrafią już naśladować emocje, takie jak radość, gniew czy empatię, co tym bardziej czyni je niezwykle trudnymi do odróżnienia od ludzkich. Jakie rozwiązanie stosują banki? Np.sztuczną inteligencję, która działa w ramach infrastruktury call center, i w czasie rzeczywistym analizuje strumień audio, by wyłapać ewentualne syntetyczne artefakty pozostawione przez AI przestępców, nie wpływając w żaden sposób na toczącą się rozmowę.

– Wkraczamy w erę rozwiązań, które wykorzystują samą sztuczną inteligencję do walki z fałszerstwami stworzonymi z pomocą AI. Wśród takich rozwiązań jest np. analiza nienaturalnych ruchów czy badanie mikro-zmian odcienia skóry, które różnią się w wideo prawdziwym i wygenerowanym. To innowacyjne metody, ale trzeba pamiętać, że to nieustanny wyścig zbrojeń – gdy organizacje wdrażaja zabezpieczenie, druga strona już szuka sposobów na jego obejście – dodaje ekspert.

Przestępcy coraz częściej będą wykorzystywać tzw. agentów AI i branża finansowa już się na to przygotowuje. „Oszuści mogą wykorzystywać agentów na dużą skalę, aby podszywać się pod kadrę kierowniczą, manipulować pracownikami lub wprowadzać w błąd klientów. Podnosi to poprzeczkę. Instytucje finansowe muszą wyjść poza weryfikację użytkowników i zająć się również weryfikacją tożsamości, intencji i pochodzenia agentów AI” – czytamy w raporcie Citi Institute.

Deepfejki będą jak e-maile ze spamem?

Na tego typu zabezpieczenia mogą sobie pozwolić korporacje. A co ze społeczeństwem, równie mocno zagrożonym oszustwami z wykorzystaniem sztucznej inteligencji? Prag Sharma jest optymistą. – Ludzie radzą sobie coraz lepiej z rozpoznawaniem, co jest deepfejkiem, a co nie. Dowiadują się, jakie są ograniczenia tej technologii, na co zwracać uwagę – mówi.

– Sądzę, że będzie tak jak z oszustwami e-mailowymi. Niewiele osób się dziś nabiera na historie o księciu z egzotycznego kraju. Tego typu maile pojawiły się 20 lat temu i krążą do dzisiaj, ale większość od razu trafia do spamu – zauważa ekspert.

Jego zdaniem w walce z deepfejkami i ogólnie wszelkiego rodzaju dezinformacją może paradoksalnie pomóc tzw. AI slop, czyli niskiej jakości treści tworzone dzięki AI (np. pozbawione sensu obrazki czy wideo), które coraz większą falą zalewają media społecznościowe, pomagając identyfikować oszustwa generowane przy pomocy AI. – Gdy będzie tego za dużo, sprawi to, że jako społeczeństwo zaczniemy zwracać coraz większą uwagę na to, jakie treści są prawdziwe, a jakie nie. Będziemy domagać się dowodów, że to co oglądamy, jest prawdą – podsumowuje Prag Sharma.

Źródło:
Tomasz Goss-Strzelecki
Tomasz Goss-Strzelecki
zastępca redaktora naczelnego Bankier.pl

Od stycznia 2025 r. zastępca redaktora naczelnego Bankier.pl. Wcześniej przez ponad dwie dekady związany z Gazetą Giełdy i Inwestorów „Parkiet”, gdzie przeszedł ścieżkę od dziennikarza w dziale zagranicznym do stanowiska zastępcy redaktora naczelnego, odpowiedzialnego m.in. za sekcję finansowo-gospodarczą oraz treści na portalu parkiet.com. Posiada licencję maklera papierów wartościowych.

Tematy
Otwórz konto firmowe mBiznes Standard w mBanku wraz z kartą firmową Mastercard i zyskaj łącznie 700 zł premii
Otwórz konto firmowe mBiznes Standard w mBanku wraz z kartą firmową Mastercard i zyskaj łącznie 700 zł premii

Komentarze (4)

dodaj komentarz
nierzad
Tak wlasnie robie,nie ufam w zadne slowo wypowiedziane przez tuska i kaczynskiego i ich pretorian.
marianpazdzioch
Jakoś miliony firm wysyłają przelewy i nikt ich na AI nie robi. Jeżeli spółka ma jasne procedury i nie wysyła 200 mln spod palca, to nie ma takich problemów. Swoją drogą takie rzeczy robi się poprzez rachunki escrow, depozyty notarialne, czy inne tego typu rozwiązania.
marianpazdzioch
Swoja drogą tyle mówi się o informatyzacji, sieciach blockchain, a w bankach nie ma nawet czegoś takiego jak weryfikacja posiadacza rachunku. Technologia zamiast służyć ludziom wykorzystywana jest do rozrywki, spekulacji i celów przestępczych.
zoomek
Znam osobiście 80cio latka od którego wyciągają kasę na "młodą żonę" z Ameryki. Którąś już kolejną. Nic nie da sobie wytłumaczyć. Wyprzedaje majątek obecnie. Właśnie sprzedał auto, w kolejce garaż w mieście.

Powiązane: Cyberbezpieczeństwo

Polecane

Najnowsze

Popularne

Ważne linki