Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Sąd odrzuca apelację Anthropic ws. wstrzymania etykiety ryzyka w łańcuchu dostaw USA

ARCHIWUM – strona internetowa i aplikacja mobilna Anthropic na zdjęciu wykonanym w Nowym Jorku 5 lipca 2024 r.
Na zdjęciu z 5 lipca 2024 r. w Nowym Jorku widać stronę internetową i aplikację mobilną firmy Anthropic. Prawo autorskie  AP Photo/Richard Drew, File
Prawo autorskie AP Photo/Richard Drew, File
Przez Anna Desmarais & AP
Opublikowano dnia
Udostępnij
Udostępnij Close Button

Publiczna debata wybuchła, gdy firma Anthropic odmówiła rządowi USA nieograniczonego dostępu do swojego chatbota AI Claude.

Sąd w Stanach Zjednoczonych odrzucił wniosek amerykańskiej firmy Anthropic, działającej w branży sztucznej inteligencji (AI), o ochronę przed nadaniem jej przez rząd statusu zagrożenia dla łańcucha dostaw. Taka etykieta nigdy wcześniej nie została przypisana żadnemu amerykańskiemu przedsiębiorstwu.

REKLAMA
REKLAMA

Administracja prezydenta Donalda Trumpa uznała firmę za ryzyko dla łańcucha dostaw i w lutym nakazała instytucjom federalnym przestać korzystać z asystenta AI Claude, po tym jak Anthropic odmówiła wojsku nieograniczonego dostępu do swojego modelu.

Taka kwalifikacja uniemożliwia wykonawcom współpracującym z Pentagonem korzystanie z modeli AI Anthropic przy realizacji kontraktów dla Departamentu Obrony USA.

Sporne ograniczenia obejmują m.in. wykorzystanie Claude'a do obsługi śmiercionośnej broni autonomicznej bez nadzoru człowieka oraz do masowej inwigilacji Amerykanów.

W 2025 roku firma Anthropic podpisała z Pentagonem kontrakt wart 200 mln dol. (171,5 mln euro) na wdrożenie swojej technologii w systemach wojskowych.

Po zawarciu tej umowy chatbot AI został wprowadzony do tajnych sieci rządowych USA, wdrożony w narodowych laboratoriach jądrowych i wykorzystywany do analiz wywiadowczych bezpośrednio na potrzeby Departamentu Obrony.

To niepowodzenie Anthropic w Waszyngtonie nastąpiło po tym, jak firma wygrała osobny proces dotyczący tych samych kwestii przed sądem w San Francisco, co zmusiło administrację prezydenta Donalda Trumpa do wycofania tej etykiety.

Firma Anthropic miesiąc temu złożyła dwa pozwy – w sądach w San Francisco i Waszyngtonie – oskarżając administrację Trumpa o prowadzenie „bezprawnej kampanii odwetu”.

Departament Obrony w marcowym piśmie do sądu stwierdził, że Anthropic może „próbować wyłączyć swoją technologię lub z wyprzedzeniem zmienić zachowanie modelu” przed „operacją wojenną” lub w jej trakcie, jeśli uzna, że przekraczane są jego korporacyjne „czerwone linie”.

Skład sędziowski Sądu Apelacyjnego Dystryktu Kolumbii (D.C. Circuit Court of Appeals) stwierdził, że nie widzi podstaw do uchylenia działań administracji Trumpa, ponieważ „dokładna wysokość szkody finansowej Anthropic nie jest jasna”. Sąd apelacyjny ma jednak w maju wysłuchać kolejnych dowodów w tej sprawie.

„Jesteśmy wdzięczni, że sąd uznał, iż te kwestie trzeba rozstrzygnąć szybko, i pozostajemy przekonani, że ostatecznie sądy uznają te oznaczenia w łańcuchu dostaw za bezprawne” – przekazała Anthropic w oświadczeniu dla agencji Associated Press.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

Meta wchodzi do wyścigu AI z modelem Muse Spark: co warto wiedzieć

Szwajcarscy naukowcy testują robopsa do szybszej eksploracji Księżyca i Marsa

Sąd odrzuca apelację Anthropic ws. wstrzymania etykiety ryzyka w łańcuchu dostaw USA