Nowe badanie Uniwersytetu Edynburskiego wykazało, że hakerzy rzadko skutecznie wykorzystują narzędzia AI – ani bezpośrednio w oszustwach, ani przy tworzeniu bardziej zaawansowanych narzędzi.
Nowa analiza pokazuje, że cyberprzestępcom wciąż trudno skutecznie wykorzystywać sztuczną inteligencję (AI) w swojej działalności.
W najnowszej pracy wstępnej (preprint) badacze z Uniwersytetu w Edynburgu przeanalizowali ponad 100 mln wpisów na forach cyberprzestępców, korzystając z bazy CrimeBB, która zbiera dane z podziemnych forów.
Dane analizowano ręcznie oraz z pomocą dużego modelu językowego (LLM).
Autorzy odnotowali, że choć cyberprzestępcy interesują się nauką obsługi narzędzi AI, technologia ta nie zmieniła w istotny sposób ich sposobu „pracy”.
„Wielu recenzentów i uczestników dyskusji ocenia te narzędzia [AI] jako niezbyt przydatne” – czytamy w opracowaniu.
Badacze nie znaleźli „żadnych istotnych dowodów” na to, że hakerzy z powodzeniem wykorzystują AI do usprawniania swojej działalności – ani jako pomocy w nauce, ani przy tworzeniu skuteczniejszych narzędzi.
Asystenci programistyczni oparte na AI są przede wszystkim przydatni osobom, które już dobrze programują, dlatego modele oferujące pomoc w kodowaniu nie dają im wyraźnego „skoku” skuteczności przy próbach włamywania się do urządzeń czy omijania zabezpieczeń – dodano.
„Najpierw musisz sam ogarnąć podstawy programowania, dopiero wtedy możesz używać AI i NAPRAWDĘ mieć z tego pożytek” – cytuje badanie jeden z wpisów.
Największy wpływ AI na nie do końca legalną aktywność w sieci widać na razie w łatwo automatyzowanych obszarach, takich jak tworzenie botów w mediach społecznościowych, część oszustw matrymonialnych czy nadużyć związanych z pozycjonowaniem stron (SEO), a także budowanie fałszywych witryn wypychanych wysoko w wynikach wyszukiwania, by zarabiać na reklamach.
Z recenzji wynika, że nawet najbardziej doświadczeni hakerzy korzystają z chatbotów, by uzyskać odpowiedzi na pytania dotyczące kodu lub wygenerować „ściągawki”, które ułatwiają im programowanie.
W praktyce wykorzystywana jest głównie AI oferowana w „głównym nurcie” jako legalne produkty, takie jak Claude firmy Anthropic czy Codex od OpenAI, a nie specjalne modele stworzone z myślą o cyberprzestępczości, jak WormGPT, zaprojektowany przez hakerów do generowania złośliwego oprogramowania czy maili phishingowych.
Wiele analizowanych wpisów dotyczy próśb o wskazówki, jak obejść zabezpieczenia w tych popularnych modelach, jednak cyberprzestępcom wyraźnie trudno skłonić systemy AI do złamania zasad bezpieczeństwa.
W efekcie przestawiają się na starsze, gorszej jakości modele open source, które łatwiej „złamać”. Zwykle są one jednak mniej użyteczne i „wymagają dużych zasobów”, zauważyli badacze.
Z badania wynika, że zabezpieczenia wprowadzane przez firmy rozwijające AI na razie działają.