Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Cyberprzestępcy testują AI i są rozczarowani, wynika z badania

Cyberprzestępcy interesują się sztuczną inteligencją, ale jak dotąd nie widzą jej realnych korzyści w swojej działalności – wynika z nowego badania
Cyberprzestępcy interesują się AI, ale na razie nie widzą z niej realnych korzyści w swojej działalności, wynika z nowego badania Prawo autorskie  Canva
Prawo autorskie Canva
Przez Anna Desmarais
Opublikowano dnia
Udostępnij
Udostępnij Close Button

Nowe badanie Uniwersytetu Edynburskiego wykazało, że hakerzy rzadko skutecznie wykorzystują narzędzia AI – ani bezpośrednio w oszustwach, ani przy tworzeniu bardziej zaawansowanych narzędzi.

Nowa analiza pokazuje, że cyberprzestępcom wciąż trudno skutecznie wykorzystywać sztuczną inteligencję (AI) w swojej działalności.

REKLAMA
REKLAMA

W najnowszej pracy wstępnej (preprint) badacze z Uniwersytetu w Edynburgu przeanalizowali ponad 100 mln wpisów na forach cyberprzestępców, korzystając z bazy CrimeBB, która zbiera dane z podziemnych forów.

Dane analizowano ręcznie oraz z pomocą dużego modelu językowego (LLM).

Autorzy odnotowali, że choć cyberprzestępcy interesują się nauką obsługi narzędzi AI, technologia ta nie zmieniła w istotny sposób ich sposobu „pracy”.

„Wielu recenzentów i uczestników dyskusji ocenia te narzędzia [AI] jako niezbyt przydatne” – czytamy w opracowaniu.

Badacze nie znaleźli „żadnych istotnych dowodów” na to, że hakerzy z powodzeniem wykorzystują AI do usprawniania swojej działalności – ani jako pomocy w nauce, ani przy tworzeniu skuteczniejszych narzędzi.

Asystenci programistyczni oparte na AI są przede wszystkim przydatni osobom, które już dobrze programują, dlatego modele oferujące pomoc w kodowaniu nie dają im wyraźnego „skoku” skuteczności przy próbach włamywania się do urządzeń czy omijania zabezpieczeń – dodano.

„Najpierw musisz sam ogarnąć podstawy programowania, dopiero wtedy możesz używać AI i NAPRAWDĘ mieć z tego pożytek” – cytuje badanie jeden z wpisów.

Największy wpływ AI na nie do końca legalną aktywność w sieci widać na razie w łatwo automatyzowanych obszarach, takich jak tworzenie botów w mediach społecznościowych, część oszustw matrymonialnych czy nadużyć związanych z pozycjonowaniem stron (SEO), a także budowanie fałszywych witryn wypychanych wysoko w wynikach wyszukiwania, by zarabiać na reklamach.

Z recenzji wynika, że nawet najbardziej doświadczeni hakerzy korzystają z chatbotów, by uzyskać odpowiedzi na pytania dotyczące kodu lub wygenerować „ściągawki”, które ułatwiają im programowanie.

W praktyce wykorzystywana jest głównie AI oferowana w „głównym nurcie” jako legalne produkty, takie jak Claude firmy Anthropic czy Codex od OpenAI, a nie specjalne modele stworzone z myślą o cyberprzestępczości, jak WormGPT, zaprojektowany przez hakerów do generowania złośliwego oprogramowania czy maili phishingowych.

Wiele analizowanych wpisów dotyczy próśb o wskazówki, jak obejść zabezpieczenia w tych popularnych modelach, jednak cyberprzestępcom wyraźnie trudno skłonić systemy AI do złamania zasad bezpieczeństwa.

W efekcie przestawiają się na starsze, gorszej jakości modele open source, które łatwiej „złamać”. Zwykle są one jednak mniej użyteczne i „wymagają dużych zasobów”, zauważyli badacze.

Z badania wynika, że zabezpieczenia wprowadzane przez firmy rozwijające AI na razie działają.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

Europe Today: NATO w kryzysie – co dalej z bezpieczeństwem Europy i relacjami z USA?

Proces przeciwko Mecie może zmienić media społecznościowe: co warto wiedzieć

Dzieci rysują wąsy na twarzach, żeby oszukać weryfikację wieku w sieci – i to działa