Podczas prezentacji Strise pokazał portfolio firmy, w którym pojawiały się ostrzegawcze sygnały dotyczące możliwego udziału rosyjskich oligarchów w jej własności.
Banki i instytucje finansowe borykają się z rosnącą falą oszustw i prania brudnych pieniędzy oraz coraz większą presją, aby nadążać za zaostrzającymi się regulacjami finansowymi.
Pomimo wzrostu wydatków nawet o 10 procent rocznie na niektórych zaawansowanych rynkach w latach 2015–2022, według Interpolu branża finansowa wykrywa jedynie około 2 procent globalnych przepływów związanych z przestępczością finansową.
Obecnie niektórzy uważają, że sztuczna inteligencja (AI - Artificial intelligence) może pomóc w zmniejszeniu tego obciążenia.
W Norwegii start-up fintechowy Strise stworzył platformę AI, która skanuje rejestry publiczne i doniesienia mediów w celu sygnalizowania potencjalnych zagrożeń związanych z praniem brudnych pieniędzy w czasie rzeczywistym.
Agent AI został zaprojektowany do weryfikacji nowych wniosków o otwarcie rachunków w instytucjach finansowych podlegających europejskim przepisom dotyczącym przeciwdziałania praniu brudnych pieniędzy, takich jak banki, firmy ubezpieczeniowe i usługi płatnicze.
Zastąpienie czasochłonnego procesu
Jeśli kiedykolwiek otwierali państwo konto bankowe online, zostali państwo poproszeni o podanie takich danych, jak adres i zawód, oraz o ich aktualizację raz w roku. Jest to część procesu „poznaj swojego klienta” (KYC - Know your customer/Know your client), wymogu prawnego mającego na celu weryfikację tożsamości klientów i źródła pochodzenia ich środków finansowych.
Tradycyjnie kontrole KYC opierały się na zespołach analityków ds. zgodności, którzy przeglądali bazy danych, dokumenty korporacyjne i doniesienia prasowe w celu potwierdzenia własności, śledzenia powiązań i wykrywania potencjalnych zagrożeń.
Kontrole te mają na celu powstrzymanie przestępców przed wykorzystywaniem legalnych banków do prania brudnych pieniędzy.
Ale są one powolne i kosztowne.
„Teraz można skorzystać z sztucznej inteligencji, która wyszukuje informacje i łączy je w zupełnie nowy sposób” – powiedziała Marit Rødevand, współzałożycielka i dyrektor generalna Strise, w rozmowie z Euronews Next.
System sztucznej inteligencji Strise automatycznie identyfikuje sygnały ostrzegawcze, takie jak powiązania z osobami objętymi sankcjami, jurysdykcjami wysokiego ryzyka lub osobami powiązanymi politycznie, które mogą być podatne na korupcję.
Na przykład analitycy korzystający z tego systemu mogą dostrzec sygnały ostrzegawcze dotyczące osób znajdujących się na listach sankcyjnych oraz polityków, którzy mogą mieć „duży wpływ” lub być „bardziej podatni na korupcję” i „pranie brudnych pieniędzy” – twierdzi Robin Lycka, architekt rozwiązań w Strise.
Rosyjscy oligarchowie
Strise twierdzi, że instytucje finansowe korzystające z jego platformy są w stanie skuteczniej identyfikować i odrzucać firmy wysokiego ryzyka, zwiększając swoją zdolność obsługi spraw nawet dziesięciokrotnie bez konieczności zatrudniania dodatkowych pracowników.
Podczas prezentacji Strise pokazało portfolio firmy, w którym pojawiły się sygnały ostrzegawcze dotyczące możliwego udziału rosyjskiego oligarchy w jej własności.
„Po uzyskaniu tych informacji można zdecydować na poziomie portfolio, czy chce się zakończyć proces onboardingu z uwzględnieniem obliczonej klasyfikacji ryzyka” – powiedział Lycka.
W innym portfelu system zasygnalizował estońską firmę powiązaną z dwiema osobami skazanymi za jedno z największych oszustw kryptowalutowych w historii, opiewające na kwotę 560 milionów dolarów (480 milionów euro).
Platforma może również generować raporty i podsumowania swoich ustaleń, wykorzystując duże modele językowe (LLM - large language model) do kompilowania opisów ryzyka na potrzeby zgłoszeń regulacyjnych, co wcześniej wymagało wielu godzin ręcznego pisania.
„To, co napawa mnie nadzieją, to fakt, że możemy naprawdę wywrzeć wpływ, odchodząc od zwykłego zaznaczania pól zgodności na rzecz faktycznego uwolnienia zasobów, aby naprawdę pomóc w powstrzymaniu przestępstw finansowych i naprawdę zaangażować się w zapobieganie oszustwom” – powiedziała Rødevand.
„W mediach i osobistych historiach jest tak wiele przypadków, w których tego typu przestępstwa niszczą życie ludzi. Naprawdę chcę, abyśmy pomogli to zmienić” – dodała.
Agencja ds. przeciwdziałania praniu pieniędzy
Unia Europejska finalizuje obecnie utworzenie szeroko zakrojonej agencji ds. przeciwdziałania praniu pieniędzy (AMLA - Anti-Money Laundering and Countering the Financing of Terrorism) we Frankfurcie oraz dyrektywy unijnej, która ma wejść w życie w 2027 roku i ma na celu „zwalczanie prania pieniędzy i finansowania terroryzmu”.
Stanislaw Tosza, profesor nadzwyczajny ds. zgodności i egzekwowania prawa na Uniwersytecie Luksemburskim, powiedział Euronews Next, że reforma wprowadza „nowy obszar odpowiedzialności”.
„Stale rozszerzający się zakres obowiązków w zakresie przeciwdziałania praniu pieniędzy (AML) w połączeniu z rosnącym ryzykiem sankcji za nieprzestrzeganie przepisów sprawia, że sztuczna inteligencja staje się atrakcyjnym narzędziem dla podmiotów zobowiązanych, które chcą zarządzać tymi rosnącymi obowiązkami” – powiedział Tosza.
Dodał, że zgodnie z unijnym prawem o ochronie danych osobowych pewien stopień nadzoru ludzkiego jest wymagany, „gdy zautomatyzowane systemy podejmują decyzje, które mają znaczący wpływ na ludzi”.
Strise twierdzi, że dzięki „automatycznemu monitorowaniu klientów” udało się zmniejszyć klientom liczbę fałszywych alarmów, czyli sytuacji, w których system sygnalizuje coś jako podejrzane, mimo że jest to całkowicie legalne, o „30 do 40 procent”.
„Oznacza to znacznie mniej pracy ręcznej dla analityków, którzy w przeciwnym razie spędziliby godziny na przeglądaniu niepotrzebnych alertów o ryzyku, zamiast wykrywać rzeczywiste ryzyko i zwalczać przestępstwa finansowe” – powiedział Lars Lunde Birkeland, dyrektor marketingu Strise, w oświadczeniu dla Euronews Next.
Jednak eksperci ostrzegają, że chociaż automatyzacja może zmniejszyć liczbę fałszywych alarmów, może również utrudnić wykrywanie lub kwestionowanie błędów.
„Włączenie sztucznej inteligencji do tych procesów decyzyjnych jeszcze bardziej ogranicza przejrzystość: osobom, których to dotyczy, może być jeszcze trudniej zrozumieć podstawy takich ocen lub skutecznie je zakwestionować” – powiedział Tosza.