Bezprecedensowy krok administracji Trumpa przeciwko Anthropic w sprawie zabezpieczeń AI zmusza rządowych kontrahentów do przemyślenia użycia chatbota Claude.
Administracja USA spełnia groźbę uznania firmy Anthropic, działającej w branży sztucznej inteligencji (AI), za ryzyko w łańcuchu dostaw. To bezprecedensowy krok, który może zmusić innych rządowych wykonawców do rezygnacji z używania chatbota AI Claude.
Pentagon poinformował w czwartkowym oświadczeniu, że „oficjalnie przekazał kierownictwu Anthropic, iż firma i jej produkty są uznawane za ryzyko w łańcuchu dostaw ze skutkiem natychmiastowym”.
Decyzja praktycznie zamknęła drogę do dalszych negocjacji z Anthropic. Zapadła niespełna tydzień po tym, jak prezydent USA Donald Trump i minister obrony Pete Hegseth oskarżyli firmę o narażanie bezpieczeństwa narodowego.
Trump i Hegseth ogłosili w zeszły piątek serię groźb kolejnych sankcji, w przeddzień wojny z Iranem. Stało się to po tym, jak dyrektor generalny Anthropic, Dario Amodei, odmówił ustępstw, ostrzegając, że produkty firmy mogą zostać użyte do masowej inwigilacji Amerykanów lub w broni autonomicznej.
Amodei oświadczył w czwartek, że „nie uważamy tej decyzji za zgodną z prawem i nie widzimy innego wyjścia, niż zaskarżyć ją w sądzie”.
„Od początku chodziło o jedną fundamentalną zasadę: o to, by wojsko mogło korzystać z technologii we wszystkich zgodnych z prawem celach” – stwierdzono w oświadczeniu Pentagonu.
„Wojsko nie pozwoli, by dostawca wchodził w łańcuch dowodzenia, ograniczając zgodne z prawem użycie kluczowych zdolności i narażając naszych żołnierzy na ryzyko” – dodano.
Amodei odparł, że wąskie wyjątki, których Anthropic domagał się, by ograniczyć inwigilację i broń autonomiczną, „dotyczą ogólnych obszarów zastosowań, a nie podejmowania decyzji operacyjnych”.
Dodał, że w ostatnich dniach prowadził z Pentagonem „owocne rozmowy” o tym, czy resort będzie mógł nadal korzystać z Claude’a lub jak zapewnić „łagodne przejście”, jeśli do porozumienia nie dojdzie.
Trump dał wojsku sześć miesięcy na wycofanie Claude’a, który jest już szeroko wykorzystywany w systemach wojskowych i bezpieczeństwa narodowego. Amodei podkreślił, że priorytetem jest, aby żołnierze nie zostali „pozbawieni ważnych narzędzi w środku poważnych działań bojowych”.
Część kontrahentów wojskowych już zrywała współpracę z Anthropic, wschodzącą gwiazdą branży technologicznej, która sprzedaje Claude’a wielu firmom i agencjom rządowym.
Koncern zbrojeniowy Lockheed Martin oświadczył, że „zastosuje się do wytycznych prezydenta i Departamentu Wojny” i poszuka innych dostawców dużych modeli językowych (LLM).
„Spodziewamy się minimalnych skutków, ponieważ Lockheed Martin nie jest uzależniony od żadnego jednego dostawcy LLM w żadnej części naszej działalności” – przekazała firma.
Nie wiadomo, jak Departament Obrony USA zinterpretuje zakres tej decyzji o uznaniu Anthropic za ryzyko w łańcuchu dostaw. Amodei powiedział, że zawiadomienie, które Anthropic otrzymał w środę z Pentagonu, wskazuje, iż dotyczy ona jedynie wykorzystania Claude’a przez klientów jako „bezpośredniej części” ich kontraktów wojskowych.
Microsoft poinformował, że jego prawnicy przeanalizowali nowe zasady i firma „może kontynuować współpracę z Anthropic przy projektach niezwiązanych z obronnością”.
Decyzja Pentagonu wywołuje falę krytyki
Decyzja Pentagonu, by zastosować przepis przeznaczony do przeciwdziałania zagrożeniom w łańcuchu dostaw ze strony zagranicznych przeciwników, spotkała się z powszechną krytyką. Zgodnie z federalnymi przepisami ryzyko w łańcuchu dostaw to „ryzyko, że przeciwnik może dokonać sabotażu, złośliwie wprowadzić niepożądane funkcje lub w inny sposób przejąć kontrolę nad systemem, aby go zakłócić, osłabić lub szpiegować”.
Senatorka USA Kirsten Gillibrand, demokratka z Nowego Jorku oraz członkini senackich komisji sił zbrojnych i wywiadu, nazwała to „niebezpiecznym nadużyciem narzędzia stworzonego do walki z technologią kontrolowaną przez przeciwników”.
„To lekkomyślne działanie jest krótkowzroczne, autodestrukcyjne i stanowi prezent dla naszych przeciwników” – napisała w czwartkowym oświadczeniu.
Neil Chilson, republikanin, były główny technolog Federalnej Komisji Handlu, obecnie szef polityki AI w Instytucie Abundance, ocenił, że decyzja wygląda na „gigantyczne przekroczenie uprawnień, które zaszkodzi zarówno amerykańskiemu sektorowi AI, jak i zdolności wojska do pozyskiwania najlepszych technologii dla amerykańskich żołnierzy”.
Wcześniej tego dnia grupa byłych urzędników ds. obrony i bezpieczeństwa narodowego wysłała list do amerykańskich ustawodawców, wyrażając „poważne zaniepokojenie” tą decyzją.
„Wykorzystanie tej kompetencji wobec krajowej amerykańskiej firmy jest głębokim odejściem od jej pierwotnego celu i tworzy niebezpieczny precedens” – napisano w liście podpisanym przez byłych urzędników i ekspertów ds. polityki, w tym byłego dyrektora CIA Michaela Haydena oraz emerytowanych dowódców sił powietrznych, lądowych i marynarki.
Dodali, że takie oznaczenie ma „chronić Stany Zjednoczone przed infiltracją ze strony zagranicznych przeciwników – przed firmami zależnymi od Pekinu czy Moskwy, a nie przed amerykańskimi innowatorami działającymi przejrzyście, w ramach rządów prawa. Zastosowanie tego narzędzia do ukarania amerykańskiej firmy za odmowę usunięcia zabezpieczeń przed masową inwigilacją wewnętrzną i w pełni autonomiczną bronią to błąd kategorii, którego konsekwencje wykraczają daleko poza ten spór”.
Anthropic notuje skok liczby pobrań wśród użytkowników
Choć firma traci duże kontrakty zbrojeniowe, w ostatnim tygodniu odnotowała gwałtowny wzrost liczby pobrań wśród użytkowników indywidualnych, którzy solidaryzują się z jej moralnym stanowiskiem. Jak podała spółka, każdego dnia tego tygodnia ponad milion osób rejestrowało się w Claude, co pozwoliło jej wyprzedzić ChatGPT firmy OpenAI i Gemini od Google’a i stać się najpopularniejszą aplikacją AI w ponad 20 krajach w sklepie App Store firmy Apple.
Spór z Pentagonem dodatkowo zaostrzył zaciętą rywalizację Anthropic z OpenAI, która zaczęła się w 2021 roku, gdy byli liderzy OpenAI, w tym Amodei, założyli Anthropic.
Kilka godzin po nałożeniu sankcji na Anthropic w zeszły piątek OpenAI ogłosiło umowę, na mocy której ChatGPT ma de facto zastąpić rozwiązania Anthropic w utajnionych środowiskach wojskowych.
OpenAI twierdzi, że zabiegało o podobne zabezpieczenia przed inwigilacją wewnętrzną i w pełni autonomiczną bronią, lecz później musiało zmienić zawarte umowy. Skłoniło to prezesa Sama Altmana do przyznania, że nie powinien był forsować porozumienia, które „sprawiało wrażenie oportunistycznego i niechlujnego”.
Amodei wyraził również żal z powodu swojej roli w tym „trudnym dniu dla firmy”. Powiedział w czwartek, że chce „bezpośrednio przeprosić” za wewnętrzną notatkę wysłaną do pracowników Anthropic, w której ostro skrytykował zachowanie OpenAI i zasugerował, że Anthropic jest karany za to, iż nie składa Trumpowi „pochlebstw rodem z dyktatury”.