Sztuczna inteligencja obchodzi procedury weryfikacji KYC na giełdach kryptowalutowych, generując niezwykle realistyczne fałszywe dokumenty tożsamości. Dzięki platformie OnlyFake można z łatwością wygenerować podrobione prawa jazdy czy paszporty, które przechodzą pozytywną weryfikację. Co gorsza, cena takich fałszywek jest śmiesznie niska i wynosi zaledwie 15 dolarów. Organy ścigania postanowiły rozprawić się z procederem, choć biorąc pod uwagę możliwości AI, może być to niezwykle trudne zadanie.
Sztuczna inteligencja obchodzi KYC
Procedura weryfikacji tożsamości KYC (Know Your Customer) jest jednym z najważniejszych zabezpieczeń giełd kryptowalutowych przed procederem prania pieniędzy. Okazuje się jednak, że sztuczna inteligencja potrafi obejść te zabezpieczenia i robi to na niespotykaną dotąd skalę.
Metoda weryfikacji KYC jest międzynarodowym standardem stosowanym przez wszystkie giełdy kryptowalutowe, aby skutecznie zapobiegać praniu brudnych pieniędzy. Procedura ta cieszyła się dużą skutecznością, jednak sztuczna inteligencja znalazła lukę w systemie.
AI generuje tak dobrze odwzorowane fałszywe dokumenty, że pozwalają one na pozytywną weryfikację KYC. W ten sposób sztuczna inteligencja obchodzi zabezpieczenia giełd kryptowalutowych.
Jak to możliwe?
Generatywna sztuczna inteligencja potrafi być niezwykle praktycznym narzędziem, ale wiele zależy od zastosowania. Cyberprzestępcy stale testują możliwości AI i wykorzystują je do nielegalnych celów. Tym razem chodzi o obejście weryfikacji KYC na giełdach krypto.
Aby stworzyć realistyczne fałszywki, AI musi zostać odpowiednio przeszkolona. Są do tego potrzebne dwie sieci neuronowe - jedna do tworzenia fałszywek, druga do ich wykrywania. Dzięki temu podróbki stają się coraz doskonalsze i trudniejsze do zdemaskowania.
Platforma OnlyFake generuje fałszywki
Potwierdzeniem, że sztuczna inteligencja potrafi obejść KYC są usługi platformy OnlyFake. Można na niej wygenerować realistyczne podróbki praw jazdy i paszportów z 26 krajów, które z łatwością przejdą weryfikację.
Koszt takiego fałszywego dokumentu to tylko 15 dolarów. Co więcej, fałszywki są tak dobrze podrobione, że są nie do odróżnienia od oryginałów. Potwierdzili to dziennikarze, którym AI wygenerowała dokumenty, które pomyślnie przeszły weryfikację KYC na giełdzie OKX.
Test fałszywych dokumentów
W sieci pojawiły się także testy użytkowników, którzy za pomocą OnlyFake wygenerowali np. paszporty na nazwisko J. Wicka. Pokazuje to, że sztuczna inteligencja z łatwością tworzy przekonujące fałszywki, które mogą posłużyć do nielegalnych celów.
Czytaj więcej: Jp morgan: korekta bitcoina zbliża się do dna - presja z grayscale słabnie. jakie sygnały daje działanie górników?
AI tworzy realistyczne podróbki
Do tworzenia przekonujących fałszywych dokumentów potrzebne są odpowiednio wytrenowane modele sztucznej inteligencji. Publicznie dostępne narzędzia jak ChatGPT czy Midjourney nie posiadają wystarczających możliwości.
Niezbędna jest sieć neuronowa, która będzie ewoluować i ciągle doskonalić umiejętność tworzenia coraz lepszych podróbek. Taka sztuczna inteligencja, odpowiednio przeszkolona, jest w stanie stworzyć fałszywe dokumenty nie do odróżnienia od prawdziwych.
Un nuevo sitio web llamado OnlyFake afirma usar neural networks (rama de la investigación informática o también mencionada cómo neuro informática) para generar fotos realistas de ID falsos por solo 15 USD
Także hiszpańscy eksperci potwierdzają, że OnlyFake wykorzystuje zaawansowane techniki sztucznej inteligencji do generowania niezwykle realistycznych fałszywych dokumentów tożsamości.
Ujawnienie danych klientów
Choć platforma OnlyFake udowodniła, że sztuczna inteligencja potrafi z łatwością obejść weryfikację KYC, to sama naraziła klientów kupujących fałszywki. Organy ścigania mogą teraz sięgnąć po ich dane.
OnlyFake przyjmuje płatności w kryptowalutach (poza Monero) więc transakcje są jawne. Dodatkowo platforma ma kanał na Telegramie, gdzie zgromadzonych jest prawie 1000 osób.
Kanał OnlyFake na Telegramie | ~1000 osób |
Płatności w krypto (bez Monero) | Transakcje jawne |
Dane te mogą posłużyć organom ścigania do namierzenia klientów kupujących fałszywe dokumenty wygenerowane przez sztuczną inteligencję.
Walka organów ścigania z fałszywkami
OnlyFake pokazał, że obecne zabezpieczenia KYC nie są wystarczające. Konieczne są zdecydowane kroki, aby ograniczyć proceder handlu fałszywymi dokumentami tworzonymi przez sztuczną inteligencję.
Niestety wszystko wskazuje na to, że w najbliższej przyszłości klonów platformy OnlyFake może być nawet kilka tysięcy. To postawi pod znakiem zapytania dotychczasową skuteczność procedur weryfikacji KYC. Dlatego też organy ścigania oraz podmioty odpowiedzialne za cyberbezpieczeństwo muszą podjąć zdecydowane kroki, aby ograniczyć proceder.
Przede wszystkim platformy kryptowalutowe powinny zwiększyć czujność i lepiej analizować przedkładane dokumenty identyfikacyjne. Być może warto wdrożyć dodatkowe mechanizmy weryfikacji oprócz samego KYC, aby utrudnić fałszowanie tożsamości za pomocą sztucznej inteligencji.
- Konieczne jest ścisłe monitorowanie działalności serwisów takich jak OnlyFake oraz ich szybkie wyłączanie.
- Należy także prowadzić działania edukacyjne i ostrzegać użytkowników przed korzystaniem z tego typu platform.
Tylko tak zdecydowane kroki są w stanie choć częściowo ograniczyć proceder sprzedaży fałszywych dokumentów generowanych przez coraz bardziej zaawansowaną sztuczną inteligencję.
Podsumowanie
Sztuczna inteligencja okazała się być nie lada wyzwaniem dla procedur weryfikacji KYC na giełdach kryptowalutowych. AI generuje bardzo realistyczne fałszywe dokumenty, które bez problemu przechodzą weryfikację. Dzieje się tak za sprawą platform takich jak OnlyFake, które za niewielkie pieniądze oferują deepfake'owe fałszywki. Taki proceder niesie ze sobą poważne konsekwencje w postaci ułatwienia cyberprzestępczości czy prania brudnych pieniędzy. Dlatego też organy ścigania muszą podjąć zdecydowane kroki, aby ograniczyć ten problem.
Niestety sztuczna inteligencja rozwija się w zawrotnym tempie, przez co walka z fałszerstwami może być niezwykle trudna. Niemniej ważne jest wzmocnienie procedur bezpieczeństwa oraz ciągły nadzór nad podmiotami oferującymi nielegalne usługi z wykorzystaniem AI.