Anthropic poinformowała, że ten incydent to pierwszy udokumentowany cyberatak. Przeprowadzono go w przeważającej mierze bez udziału człowieka.
Startup Anthropic, zajmujący się sztuczną inteligencją (AI), twierdzi, że sponsorowani przez państwo hakerzy z Chin wykorzystali jego narzędzia AI do zautomatyzowanych cyberataków na duże firmy oraz rządy.
Anthropic z siedzibą w USA podał, że z „dużą pewnością” uznaje, iż hakerzy, którzy przeprowadzili około 30 ataków, należą do „chińskiej grupy sponsorowanej przez państwo”.
Hakerzy użyli narzędzia Claude Code firmy Anthropic, próbując włamać się do celów na całym świecie, w tym do agencji rządowych oraz firm finansowych i technologicznych. Według firmy „odnieśli sukces w niewielkiej liczbie przypadków”.
Anthropic nie ujawnił nazw zaatakowanych podmiotów, ale podał, że była to „pierwsza ujawniona kampania cyberszpiegowska zorganizowana z wykorzystaniem sztucznej inteligencji”.
Według Anthropic hakerzy chcieli wykorzystać Claude Code do pozyskiwania wrażliwych danych od swoich celów i ich porządkowania, aby wychwycić najcenniejsze informacje.
Choć Claude jest trenowany, by unikać szkodliwych działań, Anthropic poinformował, że hakerzy oszukali narzędzie, skłaniając je do wykonywania złośliwych, zautomatyzowanych zadań pod pretekstem testów bezpieczeństwa.
Według firmy hakerzy wykorzystali AI do przeprowadzenia 80–90 proc. kampanii, a udział człowieka był potrzebny „tylko sporadycznie”.
„Jeśli potwierdzą się ustalenia Anthropic, będzie to oznaczało, że wrogie grupy już nie eksperymentują [z AI]. One działają” – powiedział Graeme Stewart, szef sektora publicznego w firmie Check Point Software Technologies, specjalizującej się w cyberbezpieczeństwie.
Anthropic podał, że wykrył atak w połowie września i od razu wszczął dochodzenie. W ciągu kolejnych 10 dni zablokował grupie dostęp do Claude oraz skontaktował się z poszkodowanymi organizacjami i organami ścigania.
Firma ocenia, że takie ataki z czasem będą coraz skuteczniejsze, i rozszerzyła zdolności wykrywania, aby oznaczać potencjalnie złośliwą aktywność.
Dodała, że pracuje nad dodatkowymi metodami pozwalającymi badać i wykrywać rozproszone ataki na dużą skalę, takie jak ten.
Stewart stwierdził, że inne modele AI również mogą zostać wykorzystane do przestępczych ataków w sieci.
„Każdy szeroko używany asystent AI może stać się elementem przestępczego arsenału, jeśli ktoś wystarczająco zdeterminowany odpowiednio na niego wpłynie” – stwierdził.