REKLAMA
JANUSZ KRYPTO

Deepfake i AI w natarciu. Banki ostrzegają, oszuści zarabiają

Wojciech Boczoń2025-10-29 14:00analityk Bankier.pl
publikacja
2025-10-29 14:00

Sztuczna inteligencja zmienia narzędzia oszustów. Dzięki modelom generatywnym przestępcy tworzą głosy, teksty i fałszywe strony szybciej, niż kiedykolwiek. To pozwala im działać na większą skalę i z większą skutecznością.

Deepfake i AI w natarciu. Banki ostrzegają, oszuści zarabiają
Deepfake i AI w natarciu. Banki ostrzegają, oszuści zarabiają
fot. AI / / Bankier.pl

Sztuczna inteligencja nie wymyśliła oszustw. Ułatwiła jednak ich wykonanie. Tradycyjne ataki, takie jak phishing czy wyłudzenia inwestycyjne, zyskały wiatr w żagle. Zamiast ręcznie pisać setki wiadomości, oszuści używają generatorów tekstu, które w kilka minut tworzą dopracowane, spersonalizowane maile. Zamiast podstawiać jedną fałszywą stronę, mogą natychmiast uruchomić ich dziesiątki z drobnymi wariantami treści, by ominąć filtry. To nie jest tylko teoria. Raporty z ostatnich lat pokazują wyraźny wzrost wykorzystania narzędzi AI w tego typu atakach.

Automatyzacja pracy przestępców ma trzy główne efekty. Po pierwsze zwiększa skalę. Zamiast pojedynczych kampanii można uruchomić setki wariantów ataku jednocześnie. Po drugie zwiększa trafność. Modele AI potrafią analizować publiczne profile czy posty w mediach społecznościowych, by dopasować komunikat do konkretnej ofiary. Po trzecie poprawia wiarygodność. Generowane głosy i filmy deepfake wyglądają i brzmią coraz bardziej realistycznie.

Jak oszuści wykorzystują AI krok po kroku:

  • Rozpoznanie celu. Automaty zbierają publiczne dane. Analiza jest szybka i tania.
  • Tworzenie treści. Model generatywny pisze e-maile, SMS-y i opisy stron. Treści można spersonalizować masowo.
  • Generowanie mediów. Sztuczna inteligencja potrafi sklonować głos lub wygenerować krótkie wideo z „mową” fałszywego CEO lub celebryty.
  • Wdrożenie skali. Skrypty automatycznie wysyłają wiadomości, uruchamiają landing page i monitorują, które warianty działają najlepiej.
  • Pranie i transfer środków. Zyski są szybko wyprowadzane przez wiele małych kont i usług płatniczych.

AI może się dziś pojawić w każdym etapie ataku. To nie tylko „lepsze maile”, ale kompletne, zautomatyzowane łańcuchy oszustwa.

Głosowe i wideo deepfejki - zagrożenie dla banków i klientów

Najbardziej medialny efekt niosą klony głosu i deepfake wideo. Przestępcy nagrywają rozmowy z ofiarami albo tworzą fałszywe nagrania twarzy i głosu, które wyglądają jak prawdziwe. W praktyce oznacza to, że oszust może „zadzwonić” do kierownika z banku lub do klienta i przekonać go, że rzeczywiście rozmawia z zaufaną osobą. To może zmienić reguły bezpieczeństwa oparte na weryfikacji głosowej lub prostych potwierdzeniach telefonicznych. Jak podaje CSIRT KNF: liczba złośliwych domen i kampanii podszywających się pod instytucje finansowe rośnie, coraz częściej pojawiają się nagrania i fałszywe wypowiedzi wykorzystujące AI.

Czy AI czyni oszustów „bardziej skutecznymi” niż ludzie?

Tak i nie. AI robi dwie rzeczy: zwiększa efektywność i obniża próg wejścia. Grupy zorganizowane mogą skorzystać najbardziej, bo mają infrastrukturę i know-how, by skalować działania. Małe „operacje” stają się także łatwiejsze dla jednego operatora technicznego. To oznacza wzrost liczby ataków i większe straty ogółem dla rynku. Z drugiej strony wiele narzędzi AI generuje ślady i powtarzalność, które specjaliści ds. bezpieczeństwa mogą analizować i blokować. Jednakże tempo rozwoju narzędzi do wykrywania pozostaje w tyle za kreatywnością atakujących. Raporty branżowe wskazują, że instytucje często nie nadążają z inwestycjami w detekcję deepfake’ów i szkolenia personelu.

Nie można polegać tylko na technologii

Przestępcy coraz częściej wykorzystują sztuczną inteligencję do tworzenia wyrafinowanych ataków wymierzonych w osoby fizyczne. Generatywne modele, takie jak GPT, pozwalają im przygotowywać perfekcyjnie sformułowane wiadomości phishingowe i SMS-y, które trudno odróżnić od autentycznej korespondencji bankowej czy urzędowej. Dzięki analizie danych osobowych ofiar możliwe jest personalizowanie treści, co zwiększa skuteczność manipulacji psychologicznej.

AI umożliwia również tworzenie niezwykle realistycznych fałszerstw tożsamości i multimediów, tzw. deepfake. Oszuści generują filmy, nagrania audio i zdjęcia przedstawiające rzekomo rzeczywiste osoby – polityków, celebrytów czy członków rodzin ofiar – i wykorzystują je do wymuszeń, wyłudzeń lub kampanii dezinformacyjnych, np. fałszywych reklam inwestycyjnych.

Jednym z najgroźniejszych zastosowań AI jest automatyzacja cyberataków. Przestępcy wykorzystują sztuczną inteligencję do generowania tysięcy wiadomości phishingowych w różnych językach, obsługi czatów z ofiarami, a nawet dynamicznego modyfikowania złośliwego oprogramowania w celu obejścia zabezpieczeń. W połączeniu z botnetami działającymi 24/7 takie ataki stają się niemal autonomiczne. Systemy AI samodzielnie testują i dopasowują strategie, aby zwiększyć skuteczność infiltracji.

Z drugiej strony, ta sama technologia staje się kluczowym narzędziem w walce z cyberprzestępczością. Banki i instytucje finansowe coraz częściej wykorzystują AI do analizy zachowań użytkowników i wykrywania nietypowych transakcji, co ogranicza ryzyko strat. Jednak przewaga przestępców wynika z ich elastyczności i szybkości wdrażania innowacji, podczas gdy systemy obronne są ograniczone regulacjami i procesami certyfikacyjnymi.

W obliczu rosnącej skali zagrożeń nie możemy polegać wyłącznie na technologii – równie ważne jest budowanie świadomości użytkowników i ich odporności na manipulację. Tylko połączenie innowacyjnych narzędzi obronnych z edukacją społeczną pozwoli skutecznie ograniczyć ryzyko wynikające z przestępczego wykorzystania AI.

Katarzyna Majewska
p.o. prezes PZU Życie

Konkretny przykład: fałszywe reklamy i kampanie inwestycyjne

Kilka dni temu zagraniczne media pisały o grupie przestępców, która wyłudziła miliony dolarów m.in. w Brazylii. Za pomocą AI stworzyli deepfejki reklam z wizerunkiem znanej modelki, oraz innych celebrytów, które namawiały do fałszywych inwestycji. Efekt był taki, że ofiary ufały przekazowi i wpłacały środki. To pokazuje, że AI nie tylko poprawia techniczną stronę ataku, ale też jego psychologiczną siłę.

Najbardziej narażeni są użytkownicy starsi, mniej doświadczeni i osoby o ograniczonym dostępie do rzetelnych informacji. Ofiary, które szukają „szybkich” wiadomości o inwestycjach lub kończą rozmowę na jednym potwierdzeniu, to łatwy cel. W Polsce raporty sektora pokazują, że ataki inwestycyjne i phishing związany z finansami, stanowią dużą część wykrywanych kampanii, a straty potrafią być znaczące.

Co robią instytucje finansowe i regulatorzy?

Banki i ubezpieczyciele inwestują w AI po swojej stronie, tworząc systemy wykrywające anomalie w płatnościach i modele ocen ryzyka. Firmy z branży finansowej coraz częściej stosują modele przeciwdziałania fraudowi, opierające się na uczeniu maszynowym. Regulatorzy i zespoły takie jak CSIRT KNF monitorują i zgłaszają tysiące złośliwych domen.

AI daje przestępcom nowe możliwości. Automatyzacja przyspiesza i zwiększa skalę oszustw. Jednocześnie, to także narzędzie obronne, jeśli instytucje zainwestują w systemy wykrywające scamy AI i edukację. Dla użytkownika najważniejsze jest, aby zachować zdrowy sceptycyzm i sprawdzać informacje innymi kanałami. Jak pokazują krajowe i międzynarodowe raporty, to wyścig zbrojeń między kreatywnością przestępców, a zdolnością obrony instytucji. To walka technologii z technologią.

Bankier.pl
Źródło:
Wojciech Boczoń
Wojciech Boczoń
analityk Bankier.pl

Ekspert z zakresu bankowości. Autor komentarzy, poradników, artykułów i branżowych raportów o bankowości. Redaktor prowadzący serwisu PRNews.pl. Autor cyklu raportów "Polska bankowość w liczbach". Dziennikarz Roku 2013 według Kapituły Konkursu IX Kongresu Gospodarki Elektronicznej przy ZBP. Dwukrotnie nominowany do nagrody Dziennikarskiej im. Mariana Krzaka oraz laureat tej nagrody w 2014 r. Finalista Nagrody Dziennikarstwa Ekonomicznego Press Club Polska (2019). Laureat nagrody dziennikarskiej w XXIII edycji konkursu im. Władysława Grabskiego organizowanego przez NBP (2025). Tel. 881 083 389.

Tematy
Szukasz szybkiej i bezpiecznej pożyczki?
Szukasz szybkiej i bezpiecznej pożyczki?

Komentarze (1)

dodaj komentarz
zoomek
Cały system bankowy jest fałszywy i co?
Jajeczko.
JP Morgan zapłacił 920 mln $ za wałki na cenach srebra i działają z wałkami dalej.
"Moszna"?

Powiązane: Scamming out

Polecane

Najnowsze

Popularne

Ważne linki