Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Dlaczego Anthropic i USA utknęły w sporze o kontrakt wojskowy

Na archiwalnym zdjęciu z 15 stycznia 2026 r. sekretarz obrony USA Pete Hegseth stoi przed Pentagonem w Waszyngtonie podczas ceremonii powitania japońskiego ministra obrony.
ARCHIWUM: sekretarz obrony USA Pete Hegseth przed Pentagonem podczas ceremonii powitania japońskiego ministra obrony w Waszyngtonie, 15 stycznia 2026 r. Prawo autorskie  AP Photo/Kevin Wolf, File
Prawo autorskie AP Photo/Kevin Wolf, File
Przez Anna Desmarais z AP
Opublikowano dnia
Udostępnij
Udostępnij Close Button

Firma AI Anthropic i Pentagon USA znalazły się w impasie. Oto najważniejsze informacje, które warto znać.

Rząd USA grozi zerwaniem wojskowych kontraktów z firmą Anthropic, jeśli spółka nie udostępni swojej technologii SI wojsku bez żadnych ograniczeń.

REKLAMA
REKLAMA

Anthropic tworzy chatbota Claude i jako ostatnia z dużych firm z branży nie dostarcza swojej technologii do nowej wewnętrznej sieci amerykańskiego wojska.

Prezes Anthropic, Dario Amodei, wielokrotnie podkreślał swoje etyczne obawy wobec niekontrolowanego wykorzystywania SI przez państwo. Ostrzegał m.in. przed w pełni autonomicznymi dronami bojowymi oraz masową inwigilacją wspieraną przez SI, która mogłaby śledzić osoby krytykujące władzę.

W lipcu ubiegłego roku Anthropic wygrał kontrakt o wartości 200 mln dol. (167 mln euro) z Departamentem Obrony USA na „opracowanie prototypów zaawansowanych systemów SI, które wzmocnią bezpieczeństwo narodowe Stanów Zjednoczonych” – poinformowała firma. W 2024 r. spółka zawarła z firmą Palantir Technologies partnerstwo (źródło w Angielski), by zintegrować Claude’a z oprogramowaniem amerykańskich służb wywiadowczych.

Jak informują media, sekretarz obrony USA Pete Hegseth miał we wtorek zapowiedzieć, że zakończy kontrakt wart 200 mln dol. (167 mln euro) i uzna firmę za „ryzyko dla łańcucha dostaw”, jeśli Anthropic nie spełni żądań.

Jeśli Anthropic zostanie formalnie uznany za ryzyko dla łańcucha dostaw na mocy amerykańskiego prawa zamówień publicznych procurement law (źródło w Angielski), rząd będzie mógł wykluczyć spółkę z przyznawania kontraktów, wykreślić jej produkty z listy rozważanych rozwiązań oraz nakazać głównym wykonawcom, by nie korzystali z jej usług.

Według doniesień z rozmowy Hegsetha z Dario Amodeiem, współzałożycielem i prezesem Anthropic, sekretarz miał też grozić zastosowaniem wobec firmy Ustawy o produkcji obronnej Defense Production Act (źródło w Angielski). To prawo daje prezydentowi USA szerokie uprawnienia do wydawania prywatnym firmom poleceń, by priorytetowo traktowały potrzeby bezpieczeństwa narodowego, w tym zapewnienie dostępu do swoich technologii.

Euronews Next zwróciło się do Anthropic oraz Departamentu Obrony USA o potwierdzenie tych informacji, jednak do chwili publikacji nie otrzymało odpowiedzi.

Anthropic wycofuje się z kluczowej obietnicy dotyczącej bezpieczeństwa

Od powstania w 2021 r., kiedy jej założyciele odeszli z OpenAI, Anthropic przedstawia się jako jedna z najbardziej odpowiedzialnych i skoncentrowanych na bezpieczeństwie firm wśród liderów rynku SI.

We wtorek przedstawiciele Anthropic powiedzieli w wywiadzie dla magazynu „Time”, że firma rezygnuje z dawnej obietnicy, iż nie udostępni systemu SI, dopóki nie będzie mogła zagwarantować, że zastosowane środki bezpieczeństwa są wystarczające.

Zamiast tego ogłoszono nową wersję polityki odpowiedzialnego skalowania, która opisuje ramy działania firmy na rzecz ograniczania katastrofalnych ryzyk związanych z SI.

Jared Kaplan, dyrektor naukowy Anthropic, powiedział tygodnikowi, że wstrzymywanie firmy przed trenowaniem nowych modeli, podczas gdy konkurenci pędzą naprzód bez podobnych zabezpieczeń, nie pomogłoby jej utrzymać się w wyścigu zbrojeń w dziedzinie SI.

„Gdyby jeden z twórców SI wstrzymał rozwój, żeby wdrożyć środki bezpieczeństwa, podczas gdy inni kontynuowaliby szkolenie i wdrażanie systemów SI bez silnych zabezpieczeń, świat stałby się przez to mniej bezpieczny” – czytamy w nowej polityce Anthropic.

„To właśnie twórcy z najsłabszymi zabezpieczeniami nadawaliby tempo, a odpowiedzialni deweloperzy straciliby możliwość prowadzenia badań nad bezpieczeństwem i działania na rzecz dobra publicznego”.

Polityka rozdziela ambicje Anthropic dotyczące podniesienia standardów bezpieczeństwa w całej branży od celów samej firmy, przy czym bezpieczeństwo nadal pozostaje jednym z jej głównych priorytetów.

Anthropic zapowiedział, że nowa polityka oznacza wyznaczanie „ambitnych, ale osiągalnych” planów bezpieczeństwa dla kolejnych modeli oraz publikowanie raportów ryzyka, które mają pokazywać spodziewane zagrożenia i oceniać, czy wypuszczenie danego modelu jest uzasadnione.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

Tak będzie wyglądać przyszłość kolei? Robotyczne psy i drony przejmują metro w Chinach

Czy media społecznościowe wciągają z założenia – i czy da się przechytrzyć algorytm?

Dlaczego Anthropic i USA utknęły w sporze o kontrakt wojskowy