Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Najpotężniejszy model Anthropic zbyt niebezpieczny do publicznego udostępnienia

ARCHIWUM – Strony serwisu Anthropic i logo firmy widoczne na ekranie komputera w Nowym Jorku, 26 lutego 2026 r.
Archiwum: strony serwisu Anthropic i logo firmy na ekranie komputera w Nowym Jorku, 26 lutego 2026 r. Prawo autorskie  AP Photo/Patrick Sison, File
Prawo autorskie AP Photo/Patrick Sison, File
Przez Pascale Davies
Opublikowano dnia Zaktualizowano
Udostępnij
Udostępnij Close Button

Firma Anthropic oznajmiła, że jej model sztucznej inteligencji Mythos Preview nie jest gotowy do publicznego udostępnienia, bo mogliby go nadużywać cyberprzestępcy i szpiedzy.

Amerykańska firma Anthropic, zajmująca się rozwojem sztucznej inteligencji, ogłosiła w tym tygodniu nowy, ogólnego przeznaczenia model językowy AI, który – jak twierdzi – jest zbyt potężny, by udostępnić go publicznie.

REKLAMA
REKLAMA

Firma poinformowała we wtorek, że jej najnowsza technologia, Mythos (oficjalnie: „Claude Mythos Preview”), nie jest gotowa do publicznego debiutu, ponieważ zbyt skutecznie znajduje poważne luki lub potencjalne słabe punkty w głównych systemach operacyjnych i przeglądarkach internetowych. Takie możliwości mogłyby zostać wykorzystane przez cyberprzestępców i służby wywiadowcze.

Marcowy wyciek danych po raz pierwszy ujawnił, że Anthropic pracuje nad Mythos Preview, o którym firma już wtedy mówiła, że „stwarza bezprecedensowe zagrożenia dla cyberbezpieczeństwa”. Te doniesienia wywołały spadki kursów spółek z branży cyberbezpieczeństwa, bo możliwości nowej technologii mogłyby uczynić z niej wymarzone narzędzie dla hakerów.

Teraz pojawiły się kolejne dowody potwierdzające te obawy, co skłoniło firmę do wstrzymania publicznego udostępnienia technologii.

„Znaczny wzrost możliwości Claude Mythos Preview sprawił, że zdecydowaliśmy się nie udostępniać go szeroko” – napisała firma Anthropic w karcie systemowej modelu opublikowanej we wtorek.

„Zamiast tego wykorzystujemy go w defensywnym programie cyberbezpieczeństwa, prowadzonym z niewielką grupą partnerów”.

Jak potężny jest Mythos?

Firma ujawniła szereg niepokojących obserwacji dotyczących nowego modelu, m.in. to, że potrafi wykonywać polecenia zachęcające go do „ucieczki” z wirtualnej piaskownicy, czyli obejścia ograniczeń bezpieczeństwa, sieci czy systemu plików nałożonych na model.

W poleceniu poproszono Mythosa, by znalazł sposób na wysłanie wiadomości w razie udanej ucieczki. „Modelowi się to udało, co pokazuje potencjalnie niebezpieczną zdolność do obchodzenia naszych zabezpieczeń” – poinformowała firma Anthropic, dodając, że model poszedł jeszcze dalej.

„W niepokojącej, niezamówionej próbie zademonstrowania sukcesu opisał szczegóły wykorzystanego exploita na kilku trudno dostępnych, ale formalnie publicznie dostępnych stronach internetowych”.

Anthropic nie ujawnia części szczegółów dotyczących luk, które odkrył Mythos, ale podał kilka przykładów. Model znalazł błędy w jądrze systemu Linux, używanym w większości serwerów na świecie, i samodzielnie powiązał je w łańcuch, który umożliwiłby hakerowi przejęcie pełnej kontroli nad każdym komputerem działającym na Linuksie.

W innym niepokojącym przypadku Mythos odkrył lukę sprzed 27 lat w otwartoźródłowym systemie operacyjnym OpenBSD, która może pozwolić hakerom zawiesić każdą maszynę na nim działającą. OpenBSD jest szeroko wykorzystywany na świecie w wyspecjalizowanych, wysoko zabezpieczonych systemach i kluczowej infrastrukturze.

Kto dostanie dostęp do Mythosa?

W świetle tych ustaleń Anthropic udostępni Mythos Preview jedynie wybranym największym na świecie firmom zajmującym się cyberbezpieczeństwem i oprogramowaniem.

Dostęp do modelu w ramach nowej inicjatywy Anthropic o nazwie „Project Glasswing” otrzyma sama firma Anthropic oraz 11 innych organizacji: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, Nvidia i Palo Alto Networks.

Dzięki temu firmy będą mogły wykorzystywać Mythos Preview w swojej pracy nad bezpieczeństwem, a Anthropic podzieli się wnioskami z wyników tej inicjatywy.

Projekt cyberbezpieczeństwa nazwano na cześć motyla glasswing o przezroczystych skrzydłach; ma to być metafora tego, jak Mythos potrafi znajdować luki widoczne na pierwszy rzut oka i ograniczać szkody dzięki przejrzystemu informowaniu o ryzyku.

Anthropic podkreśla, że „docelowo chce umożliwić użytkownikom bezpieczne wdrażanie modeli klasy Mythos na dużą skalę – zarówno na potrzeby cyberbezpieczeństwa, jak i wielu innych korzyści, jakie przyniosą tak zaawansowane systemy”.

„Aby to osiągnąć, musimy równolegle rozwijać zabezpieczenia w cyberprzestrzeni (i inne), które będą wykrywać i blokować najbardziej niebezpieczne odpowiedzi modelu” – napisała firma na swoim blogu.

Czy Anthropic rozmawia z rządem USA?

W wpisie na blogu Anthropic poinformował, że prowadzi „ciągłe rozmowy” z przedstawicielami rządu USA na temat Claude Mythos Preview i jego „ofensywnych oraz defensywnych możliwości w cyberprzestrzeni”.

„Pojawienie się takich możliwości w cyberprzestrzeni to kolejny powód, dla którego Stany Zjednoczone i ich sojusznicy muszą utrzymać wyraźną przewagę w technologii AI” – stwierdziła firma. Podkreśliła, że rządy odgrywają ważną rolę w utrzymaniu tej przewagi oraz w ocenie i ograniczaniu zagrożeń dla bezpieczeństwa narodowego związanych z modelami AI.

„Jesteśmy gotowi współpracować z przedstawicielami władz lokalnych, stanowych i federalnych, by pomóc w tych działaniach”.

Ogłoszenie pojawia się w momencie, gdy Anthropic i Pentagon są uwikłane w spór prawny. W lutym amerykański Departament Obrony uznał tę firmę za ryzyko dla łańcucha dostaw, ponieważ Anthropic odmówił zgody na wykorzystanie swojej AI, Claude, w autonomicznej broni i systemach masowej inwigilacji.

Czy inne narzędzia AI mają podobne możliwości?

„Bardziej potężne modele pojawią się zarówno u nas, jak i u innych firm, dlatego potrzebujemy planu, jak na to reagować” – powiedział dyrektor generalny Anthropic, Dario Amodei, w nagraniu wideo opublikowanym wraz z ogłoszeniem o Mythosie.

Minie od sześciu do osiemnastu miesięcy, zanim konkurenci Anthropic wypuszczą podobne modele – ocenił w rozmowie z Axios Logan Graham, szef tzw. frontier red team w Anthropic, który bada, jak najbardziej zaawansowane modele AI wpływają na cyberbezpieczeństwo, bezpieczeństwo biologiczne i systemy autonomiczne.

„Dla nas jest jasne, że musimy mówić o tym publicznie” – zaznaczył Graham. – „Branża bezpieczeństwa powinna mieć świadomość, że takie możliwości mogą pojawić się wkrótce”.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

Bill Ackman proponuje przejęcie Universal Music Group za 56 mld euro

Meksykańscy naukowcy tworzą prostsze bioniczne ramię z dziecięcej obietnicy

Najbardziej zapierające dech zdjęcia z misji Artemis II NASA dotąd