Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Dlaczego firma AI Anthropic i USA utknęły w sporze o kontrakt wojskowy

NA ZDJĘCIU ARCHIWALNYM: minister obrony USA Pete Hegseth przed Pentagonem podczas ceremonii powitania japońskiego ministra obrony, Waszyngton, 15 stycznia 2026 r.
Archiwum: sekretarz obrony Pete Hegseth stoi przed budynkiem Pentagonu podczas ceremonii powitalnej japońskiego ministra obrony, Waszyngton, 15 stycznia 2026 r. Prawo autorskie  AP Photo/Kevin Wolf, File
Prawo autorskie AP Photo/Kevin Wolf, File
Przez Anna Desmarais z AP
Opublikowano dnia Zaktualizowano
Udostępnij
Udostępnij Close Button

Firma Anthropic, działająca w branży sztucznej inteligencji, i amerykański Pentagon utknęły w impasie. Oto najważniejsze informacje.

Rząd Stanów Zjednoczonych grozi zerwaniem kontraktów wojskowych z firmą Anthropic, jeśli ta nie udostępni swojej technologii AI do nieograniczonego wykorzystania przez wojsko. Spółka technologiczna pozostaje jednak nieugięta.

REKLAMA
REKLAMA

Dyrektor generalny Anthropic, Dario Amodei, powiedział w oświadczeniu (źródło w Angielski) z 26 lutego, że „nie może w zgodzie z własnym sumieniem przystać na żądanie Pentagonu” dotyczące nieograniczonego dostępu do systemów AI firmy.

„W pewnym, dość wąsko zakreślonym zestawie przypadków uważamy, że AI może podważać, a nie bronić wartości demokratycznych” – napisał. „Niektóre zastosowania wykraczają też po prostu poza to, co dzisiejsza technologia może bezpiecznie i niezawodnie zrobić”.

Oświadczenie Amodeia pojawiło się niespełna 24 godziny przed upływem piątkowego terminu wyznaczonego przez Departament Wojny, który domaga się nieograniczonego dostępu do Claude’a.

Anthropic stworzył chatbota Claude i jest ostatnią spośród swoich konkurentów firmą, która nie udostępniła swojej technologii na potrzeby nowej wewnętrznej sieci amerykańskiego wojska.

W lipcu ubiegłego roku Anthropic wygrał kontrakt wart 200 mln dol. (167 mln euro) z Departamentem Obrony USA na „opracowanie prototypów zaawansowanych systemów AI na potrzeby bezpieczeństwa narodowego Stanów Zjednoczonych” – podała firma. W 2024 roku spółka zawarła partnerstwo (źródło w Angielski) z firmą Palantir Technologies w celu zintegrowania Claude’a z oprogramowaniem wywiadowczym USA.

Według doniesień mediów sekretarz obrony USA, Pete Hegseth, zapowiedział 24 lutego, że zerwie kontrakt wart 200 mln dol. (167 mln euro) i uzna firmę za „zagrożenie dla łańcucha dostaw”, jeśli Anthropic nie spełni żądań.

Gdyby w myśl amerykańskiego prawa (źródło w Angielski) zamówień publicznych uznano Anthropic za zagrożenie dla łańcucha dostaw, rząd mógłby wykluczyć firmę z przetargów, usunąć jej produkty z listy rozważanych rozwiązań oraz nakazać głównym wykonawcom, by nie korzystali z tego dostawcy.

Z relacji ze spotkania Hegsetha z Amodeiem wynika też, że Hegseth zagroził zastosowaniem wobec firmy ustawy Defense Production Act (źródło w Angielski), która daje prezydentowi USA szerokie uprawnienia do zobowiązywania prywatnych przedsiębiorstw do priorytetowego zaspokajania potrzeb związanych z bezpieczeństwem narodowym, w tym do udostępniania swojej technologii.

W swoim oświadczeniu Amodei stwierdził, że kontrakty z Departamentem Wojny nie powinny obejmować przypadków, w których Claude jest wykorzystywany do masowej inwigilacji wewnątrz kraju ani integrowany z w pełni autonomiczną bronią.

Dodał, że to właśnie te zabezpieczenia, jego zdaniem, skłoniły resort do groźby wycofania Anthropic z wykorzystania przez amerykańskie wojsko.

Amodei ocenił, że oba te groźby są „wewnętrznie sprzeczne”, ponieważ jedno przedstawia Anthropic jako ryzyko dla bezpieczeństwa, a drugie głosi, że Claude jest „kluczowy dla bezpieczeństwa narodowego”.

Przyznał, że Departament Wojny może wybierać partnerów do kontraktów lepiej odpowiadających jego wizji, „jednak biorąc pod uwagę ogromną wartość, jaką technologia Anthropic wnosi dla naszych sił zbrojnych, mamy nadzieję, że zmienią zdanie”.

Chatbot AI został wdrożony w sieciach niejawnych amerykańskiego rządu, w narodowych laboratoriach jądrowych oraz wykonuje analizy wywiadowcze bezpośrednio na potrzeby Departamentu Wojny.

Redakcja Euronews Next zwróciła się o komentarz do amerykańskiego rządowego Departamentu Wojny, lecz nie otrzymała natychmiastowej odpowiedzi.

Anthropic wycofuje się z kluczowej obietnicy dotyczącej bezpieczeństwa

Anthropic od dawna przedstawia się jako jedna z bardziej odpowiedzialnych i skoncentrowanych na bezpieczeństwie firm wśród liderów AI, odkąd jej założyciele odeszli z OpenAI i założyli startup w 2021 roku.

We wtorek w wywiadzie dla magazynu „Time” Anthropic poinformował, że rezygnuje z obietnicy, iż nie wypuści na rynek systemu AI, dopóki nie będzie w stanie zagwarantować adekwatności zastosowanych środków bezpieczeństwa.

Zamiast tego firma ogłosiła nową wersję swojej polityki odpowiedzialnego skalowania, która opisuje ramy ograniczania katastrofalnych ryzyk związanych ze sztuczną inteligencją.

Jared Kaplan, dyrektor naukowy Anthropic, powiedział w rozmowie z pismem, że powstrzymywanie firmy od trenowania nowych modeli, gdy tymczasem konkurenci ruszają naprzód bez podobnych zabezpieczeń, nie pozwoliłoby jej utrzymać się w wyścigu na polu AI.

„Gdyby jeden z twórców AI wstrzymał rozwój, aby wdrożyć środki bezpieczeństwa, a inni kontynuowaliby trenowanie i wdrażanie systemów AI bez silnych zabezpieczeń, mogłoby to doprowadzić do świata, który jest mniej bezpieczny” – czytamy w nowej polityce Anthropic.

„Tempo wyznaczaliby deweloperzy z najsłabszymi zabezpieczeniami, a odpowiedzialni twórcy straciliby możliwość prowadzenia badań nad bezpieczeństwem i działania na rzecz dobra publicznego”.

Polityka oddziela ambicje Anthropic, by wprowadzać standardy bezpieczeństwa w całej branży, od celów firmy jako przedsiębiorstwa, przy czym bezpieczeństwo pozostaje dla niej priorytetem.

Anthropic zapowiedział, że nowa polityka oznacza wyznaczanie „ambitnych, lecz realnych” planów bezpieczeństwa dla swoich modeli oraz publikowanie raportów ryzyka, które mają pokazywać przewidywane zagrożenia i oceniać, czy wypuszczenie danego modelu na rynek jest uzasadnione.

Artykuł zaktualizowano 27 lutego.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

Galaxy S26 Ultra stawia na AI i „Privacy Display”. Czy to wystarczy w starciu z rywalami?

Czy media społecznościowe wciągają z założenia – i czy da się przechytrzyć algorytm?

Czatboty AI wybierały eskalację nuklearną w 95% symulowanych gier wojennych