– Nie ma dowodów na stosowanie deepfejków w czasie rzeczywistym. Dzisiaj większym problemem są scamy telefoniczne i fałszywe reklamy, a nie rozwiązania bazujące na AI – przekonuje Piotr Konieczny z Niebezpiecznika.


Zimą zeszłego roku „Financial Times” opisał przypadek ataku deepfejkowego na Arup, brytyjską firmę inżynieryjną, znaną m.in. z budowy opery w Sidney. Do jej pracownika w biurze w Hongkongu zadzwonili szefowie z centrali w Londynie. Pięć osób. W trakcie połączenia wideo zlecili oni pracownikowi wykonanie przelewu w wysokości 25 mln USD na wskazane konto. Transfer został zlecony. I pieniądze zniknęły.
Jak się okazało – tak przynajmniej powiedziało szefostwo Arup – połączenie wideo zostało wykreowane przez AI. Sprawa obiegła media na całym świecie i stała się pierwszym przykładem deepfejkowego ataku, zrealizowanego w czasie rzeczywistym. Czy faktycznie do niego doszło?
Piotr Konieczny, szef i założyciel Niebezpiecznika, który na wstępie przeprowadzonego podczas Scamming Out! Summit fire side chatu został przedstawiony jako deepfejkowy negacjonista, ma wątpliwości. Uważa, że informacje o generowanych na żywo obrazach czy imitacji głosu w celu dokonania oszustwa czy wyłudzenia są przesadzone. A za atakami nie stoi AI, tylko socjotechnika. Piotr Konieczny przekonuje, że użycie sztucznej inteligencji wymagałoby dużych nakładów finansowych i – z punktu widzenia logiki przestępców – jest nieopłacalne. Mniej kosztowny, za to efektywny, jest klasyczny telefon „na wnuczka”.
Jak to się ma do świadectw ofiar ataków scamerskich, zaklinających się, że słyszeli w słuchawce głos osoby bliskiej albo szefa? Piotr Konieczny proponuje prosty eksperyment.
– Gdy ktoś do was dzwoni, przekażcie telefon innej osobie, która przedstawi się w waszym imieniu. Minie chwila, zanim dzwoniący zorientuje się, że rozmawia nie z tą osobą, z którą chciał – mówi szef Niebezpiecznika.
Piotr Konieczny nie bagatelizuje zagrożeń, jakie niesie wykorzystanie sztucznej inteligencji do celów przestępczych, natomiast przestrzega przed braniem za dobrą monetę wszystkich doniesień o deepfejkach. Dotyczy to również wypowiedzi Sama Altmana, szefa OpenAI, który w lipcu podczas konferencji w Fed powiedział, że nadciąga kryzys oszustw w związku z rozwojem sztucznej inteligencji.
– Sam Altman przez AI wygenerował problem z identyfikacją, co jest prawdą, a co fałszem. Mamy i będziemy mieć spore kłopoty z odróżnieniem tego, co jest prawdą, a co fałszem. Prezes OpenAI na tym zarabia. Ale jednocześnie monetyzuje drugą stronę, stosując technologię, która ma wychwytywać, czy po drugiej stronie jest człowiek, czy AI – zauważa Piotr Konieczny.
Porównał to do metod menedżera Elvisa Presleya, który przed koncertami gwiazdora rozdawał fanom plakietki z napisem „Kocham Elvisa”, a przeciwnikom – „Nienawidzę Elvisa”.
ET


















































