Amerykańskie wojsko korzystało z Claude AI firmy Anthropic, lecz gdy firma odmówiła usunięcia zabezpieczeń przed masową inwigilacją i autonomiczną bronią, Pentagon zerwał kontrakt i zwrócił się do OpenAI.
Doniesienia mediów, że amerykańskie wojsko korzystało z chatbota sztucznej inteligencji (AI) Claude, stworzonego przez firmę Anthropic, podczas operacji wymierzonych w przywódców w Wenezueli i Iranie, rodzą nowe pytania o to, jak szybko AI wchodzi do działań zbrojnych.
Amerykańskie media informowały, że Claude został wykorzystany do wsparcia styczniowej operacji, która doprowadziła do schwytania przywódcy Wenezueli Nicolása Maduro. Później pojawiły się podobne doniesienia, że chatbot był również używany podczas przygotowań do operacji wymierzonej w zmarłego już najwyższego przywódcę Iranu, ajatollaha Alego Chameneiego.
Eksperci oceniają, że te wydarzenia dają rzadki wgląd w to, w jaki sposób zaawansowane systemy AI mogą już dziś wspierać planowanie wojskowe i działania wywiadowcze USA.
"Bardzo zaskoczyło mnie tak nagłe wdrożenie tych narzędzi, zwłaszcza że większa część środowiska uważa, iż nie są one jeszcze na to gotowe" – mówi Heidy Khlaaf, główna badaczka AI w amerykańskim think tanku AI Now Institute.
"Zastanawiamy się wręcz, czy te modele AI w ogóle mogą się sprawdzić w środowisku wojskowym, biorąc pod uwagę, jak bardzo są wadliwe" – powiedziała w rozmowie z Euronews Next.
Khlaaf przypomina, że badacze od dawna ostrzegają, iż duże modele językowe mogą generować niepewne lub po prostu błędne odpowiedzi, co budzi obawy o ich działanie w sytuacjach wysokiego ryzyka, takich jak operacje wojskowe.
Informacje o wykorzystaniu Claude’a pojawiają się w momencie, gdy administracja Donalda Trumpa forsuje ambitną strategię uczynienia z amerykańskiej armii formacji „AI-first”, argumentując, że szybkie przyjęcie tej technologii jest konieczne, by rywalizować z takimi przeciwnikami jak Chiny.
"Widać pośpiech”
Stany Zjednoczone wykorzystują w wojsku różne technologie automatyzacji od początku roku 2010, a dla kilku prezydentów – w tym poprzedników Trumpa, Baracka Obamy i Joe Bidena – był to jeden z priorytetów, mówią eksperci cytowani przez Euronews Next.
Jak wyjaśnia Elke Schwarz, profesor teorii polityki na Queen Mary University of London w Wielkiej Brytanii, wczesne modele AI służyły przede wszystkim do logistyki, utrzymania sprzętu czy tłumaczeń.
Zdaniem Schwarz i Khlaaf druga kadencja Trumpa przyspiesza wdrażanie generatywnych modeli AI, takich jak ChatGPT firmy OpenAI czy Claude Anthropic, w ramach swoistego "wyścigu zbrojeń AI” z przeciwnikami USA.
Polityka Stanów Zjednoczonych tworzy "poczucie pośpiechu” w rozwoju AI, ponieważ jest to "bardzo cenna technologia”, która ma utrzymać kraj przed rywalami – ocenia Giorgos Verdi, ekspert ds. polityki w think tanku European Council on Foreign Relations.
Strategia AI Acceleration Departamentu Wojny ma zapewnić USA dominację militarną, usuwając bariery we wdrażaniu AI i inwestując w strategiczne projekty, które pozwolą wojsku wyprzedzać rywali.
"Chodzi o to, by wprowadzić AI do wszystkich możliwych obszarów – i tych nieszkodliwych, i tych potencjalnie najbardziej groźnych" – tłumaczy Schwarz.
Dodaje, że poprzednie administracje podchodziły ostrożniej do wyznaczania zabezpieczeń określających, jak i kiedy takie technologie mogą być używane.
W ramach tej strategii powstała też baza danych genai.mil, która daje urzędnikom dostęp do chatbotów AI, w tym Google Gemini i Groka firmy xAI.
Projekt budżetu administracji na 2025 roku, nazwany "Big Beautiful Bill”, przewiduje również setki milionów dolarów na wojskowe projekty związane z AI.
Dokument rezerwuje 650 mln dol. (550 mln euro) na innowacje wojskowe, w tym 145 mln dol. (123 mln euro) na rozwój systemów przeciwdronowych opartych na AI.
Kolejne 250 mln dol. ma trafić na "rozwój ekosystemu AI”, a następne 250 mln dol. – na rozbudowę możliwości sztucznej inteligencji w centrum Cyber Command. Dodatkowe 115 mln dol. zarezerwowano na przyspieszenie zadań w obszarze bezpieczeństwa nuklearnego z wykorzystaniem AI.
Amerykańska armia wciąż w "fazie testów” z chatbotami AI
Ze względu na "wrodzony brak przejrzystości” trudno ocenić, jak zaawansowane są plany władz USA – przyznaje Schwarz. "W przeciwieństwie do określonej amunicji czy konkretnego systemu uzbrojenia fizycznie nie widać, co jest używane. Wszystko dzieje się w interfejsie, w zasadzie w strefie niewidoczności".
Jej zdaniem amerykańskie wojsko jest w "fazie prób”, w której testuje rozwiązania różnych firm, aby sprawdzić, do czego się nadają i gdzie leżą ich ograniczenia.
Jak podaje Anthropic, warte 200 mln dol. partnerstwo z amerykańskim wojskiem dotyczy dwuletniego programu pilotażowego, który ma wzmocnić bezpieczeństwo narodowe. Firma ma współpracować z departamentem, by "przewidywać i ograniczać potencjalne wrogie zastosowania AI” oraz wskazywać ryzyka związane z jej wdrażaniem w całym "sektorze obronnym”.
Zdaniem Schwarz sugeruje to, że systemy są sprawdzane w rzeczywistych warunkach operacyjnych, co rodzi poważne wątpliwości etyczne.
"To fatalna praktyka w obszarze, w którym w grę wchodzą ludzkie życie" – ocenia.
Verdi uważa jednak, że systemy takie jak Claude, użyte w Wenezueli i Iranie, służyły do "bardziej przyziemnych zadań”, na przykład zbierania czy analizy zdjęć satelitarnych.
"Człowiek może nie być w stanie przeanalizować każdej napływającej informacji wywiadowczej. System AI zrobi to znacznie szybciej – wyjaśnia. "Później ludzie interpretują wyniki pracy algorytmu i podejmują decyzje".
Eksperci ostrzegają przed rosnącym zainteresowaniem autonomiczną bronią opartą na AI
Badacze obawiają się, że rosnąca rola AI w planowaniu i podejmowaniu decyzji wojskowych w USA może ostatecznie doprowadzić do rozwoju autonomicznej broni.
"Wydaje mi się, że istnieje wyraźne zainteresowanie tym, by przynajmniej mieć możliwość opracowania w pełni autonomicznej broni wykorzystującej AI i w razie potrzeby z niej skorzystać" – mówi Verdi.
Jak wyjaśnia Khlaaf, za broń autonomiczną można uznać każdy system zdolny samodzielnie wykrywać, wybierać i atakować cel, bez udziału człowieka w ostatecznej decyzji.
"Zamiast więc otrzymywać rekomendację od dużego modelu językowego, którą człowiek może przyjąć albo odrzucić, cały proces byłby całkowicie zautomatyzowany" – dodaje.
Jednym z głównych argumentów za rozwijaniem takich systemów jest obawa, że jeśli któryś z rywali skonstruuje je jako pierwszy, USA zostaną w tyle – wskazuje Verdi.
Verdi i Khlaaf podkreślają jednak, że nie ma publicznie dostępnych informacji, które sugerowałyby, iż Chiny w jakikolwiek sposób zintegrowały AI ze swoimi siłami zbrojnymi.
"Chińczycy są bardzo zaniepokojeni utrzymaniem tej technologii pod kontrolą” – dodaje Verdi.
Zdolności w zakresie AI u innych przeciwników USA, takich jak Rosja, Iran czy Korea Północna, są "jeszcze mniej zaawansowane”, zauważa Verdi. Dlatego tym mniej prawdopodobne jest, by państwa te dysponowały autonomiczną bronią opartą na AI.
Tworzenie w pełni autonomicznej broni wykorzystującej sztuczną inteligencję może też sprzyjać eskalacji konfliktów – ostrzega.
Najnowszy przeddruk badania przeprowadzonego w King’s College London wykazał, że w symulowanych grach wojennych chatboty AI niemal zawsze wybierały groźbę użycia broni jądrowej.
Pentagon czeka "trudny okres przejściowy” po odejściu od Claude’a
Według Verdiego należy się spodziewać, że USA będą nadal wykorzystywać Claude’a lub innego chatbota AI w swoich operacjach, ponieważ zarówno w Wenezueli, jak i w Iranie system okazał się – jak się wydaje – bardzo skuteczny w realizacji celów misji.
Dostrzegany sukces tych operacji rodzi ryzyko, że USA będą chciały zrezygnować z kolejnych zabezpieczeń, takich jak nadzór człowieka, by technologia była jeszcze skuteczniejsza – dodaje. Wyzwanie dla Departamentu Wojny będzie polegało na znalezieniu modelu działającego równie dobrze jak Claude – ocenia Verdi.
Rząd ma stopniowo wycofać ten system w ciągu najbliższych sześciu miesięcy, ponieważ firma odmówiła zapewnienia wojsku nieograniczonego dostępu do swojej technologii, która – jak twierdzi Anthropic – mogłaby zostać wykorzystana do masowej inwigilacji lub prac nad bronią autonomiczną. Tak wynika z oświadczenia Pete’a Hegsetha, sekretarza obrony USA.
Anthropic poinformował, że Claude został wdrożony w sieciach zastrzeżonych informacji rządu USA, działa w krajowych laboratoriach jądrowych i prowadzi analizy wywiadowcze bezpośrednio na potrzeby Departamentu Wojny.
Departament Wojny podpisał umowę z OpenAI na integrację "zaawansowanych systemów AI w środowiskach niejawnych” kilka godzin po zerwaniu kontraktu z Anthropic.
"Sądzę, że Departament Wojny czeka trudny okres przejściowy, ale jednocześnie nie jest to zadanie niewykonalne" – ocenia, mówiąc o zastąpieniu Claude’a nowym systemem AI.
Jego zdaniem informacje wywiadowcze zebrane i opracowane przez Claude’a prawdopodobnie pozostaną w departamencie i będą mogły zostać wykorzystane przez kolejnego dostawcę.