Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Giganci technologiczni i byli wojskowi wspierają pozew Anthropic przeciw rządowi USA

Na zdjęciu z 5 lipca 2024 r. w Nowym Jorku widać stronę internetową i aplikację mobilną firmy Anthropic.
Na zdjęciu archiwalnym z 5 lipca 2024 r. w Nowym Jorku widać stronę internetową i aplikację mobilną Anthropic. Prawo autorskie  AP Photo/Richard Drew, File
Prawo autorskie AP Photo/Richard Drew, File
Przez Anna Desmarais & AP
Opublikowano dnia
Udostępnij
Udostępnij Close Button

Resort obrony uznał Anthropic za „ryzyko dla łańcucha dostaw”. Może wykluczyć firmę z przetargów na kontrakty i zakazać innym współpracy z nią.

Microsoft, emerytowani dowódcy wojskowi, i think tanki zajmujące się sztuczną inteligencją (AI) wspierają Anthropic w batalii o uchylenie decyzji administracji Trumpa, która uznała firmę za „zagrożenie dla łańcucha dostaw”.

REKLAMA
REKLAMA

Działania amerykańskiego Departamentu Wojny (DOW) „zmuszają rządowych wykonawców do podporządkowania się niejasnym, mętnie zdefiniowanym wytycznym, które nigdy wcześniej nie były publicznie używane przeciw amerykańskiej firmie” – napisano w opinii prawnej Microsoftu.

W piśmie do sądu Microsoft ostrzega, że wpisanie Anthropic na listę zagrożeń dla łańcucha dostaw „może mieć poważne skutki gospodarcze, sprzeczne z interesem publicznym”, i zwraca się do sędziego o tymczasowe zawieszenie tej decyzji.

Te dokumenty trafiły do sądu po tym, jak Anthropic w ubiegłym tygodniu złożył pozew przeciwko Departamentowi Wojny USA.

Oznaczenie Anthropic jako zagrożenia dla łańcucha dostaw pozwala rządowi wykluczać firmę z przetargów, usuwać jej produkty z listy rozważanych rozwiązań oraz zakazywać głównym wykonawcom korzystania z jej usług.

Jeszcze do niedawna Anthropic był jedyną firmą z branży, której rozwiązania dopuszczono do użytku w tajnych sieciach wojskowych. Jego chatbot AI został wdrożony w tajnych sieciach informacyjnych rządu USA, działał w krajowych laboratoriach jądrowych i wspierał analizy wywiadowcze na potrzeby Departamentu Wojny.

Kto jeszcze poparł Anthropic?

W obronie Anthropic do sądu trafiło kilka wspólnych pism, przygotowanych przez amerykańskich wojskowych, gigantów technologicznych i organizacje zajmujące się sztuczną inteligencją.

W jednym z nich stwierdzono, że działania sekretarza obrony USA, Pete’a Hegsetha, wobec Anthropic „zagrażają zasadom państwa prawa, które od dawna wzmacniają nasze siły zbrojne”. Pismo poparł m.in. Michael Hayden, były dyrektor Centralnej Agencji Wywiadowczej (CIA).

Autorzy zarzucają też Hegsethowi nadużycie uprawnień państwowych w ramach „odwetu na prywatnej firmie, która naraziła się kierownictwu”.

W piśmie byłych wojskowych ostrzega się, że „nagłe podważanie” technologii głęboko zintegrowanej z systemami wojskowymi może sparaliżować planowanie i narazić żołnierzy na niebezpieczeństwo w trakcie trwających operacji, takich jak wojna w Iranie.

Inne pismo (źródło w Angielski), złożone w imieniu 37 inżynierów AI, którzy wcześniej pracowali w OpenAI i DeepMind Google’a, nazywa działania DOW „niewłaściwym i arbitralnym użyciem władzy, które ma poważne konsekwencje dla naszej branży”.

„Jeśli te działania, wymierzone w jedną z czołowych amerykańskich firm AI, będą kontynuowane, z pewnością odbije się to na pozycji przemysłowej i naukowej Stanów Zjednoczonych w dziedzinie sztucznej inteligencji i nie tylko” – czytamy w dokumencie. „Będzie to też studzić otwartą debatę w naszej dziedzinie na temat ryzyk i korzyści związanych z dzisiejszymi systemami AI”.

W innym piśmie ostrzeżono, że jeśli rząd będzie mógł narzucać Anthropic jego politykę, łatwo „wyobrazić sobie świat, w którym władze w praktyce kontrolują, co robią i mówią wszyscy Amerykanie”.

Wspólne pismo (źródło w Angielski) organizacji, takich jak Electronic Frontier Foundation czy Cato Institute, stwierdza, że działania rządu naruszają Pierwszą poprawkę do Konstytucji USA, która gwarantuje wolność słowa.

„Działania władz (…) zagrażają żywotności i niezależności naszej demokracji” – podsumowują autorzy.

Jak doszło do konfliktu?

Spór między Anthropic a wojskiem USA zaczął się, gdy firma odmówiła zapewnienia armii nieograniczonego dostępu do swojego chatbota AI Claude. Rząd dał Anthropic 48 godzin na udostępnienie systemu, grożąc w przeciwnym razie sankcjami.

Prezes Anthropic, Dario Amodei, podkreślał, że firma wyznaczyła wojsku dwie czerwone linie: jej technologia nie może służyć do masowej inwigilacji wewnątrz kraju ani być osadzana w całkowicie autonomicznej broni.

Amodei w oświadczeniu (źródło w Angielski) z 26 lutego napisał, że „nie może w zgodzie z własnym sumieniem przystać na żądanie Pentagonu” dotyczące nieograniczonego dostępu do systemów AI firmy.

„W pewnych, wąsko zdefiniowanych sytuacjach uważamy, że AI może podważać, a nie bronić wartości demokratycznych” – dodał. „Niektóre zastosowania po prostu wykraczają poza to, co dzisiejsza technologia może wykonać bezpiecznie i w sposób niezawodny”.

W swoim piśmie do sądu Microsoft poparł te „czerwone linie”, stwierdzając, że „amerykańskiej sztucznej inteligencji nie powinno się wykorzystywać do masowej inwigilacji obywateli ani do rozpoczynania wojny bez kontroli człowieka” i zaznaczając, że takie stanowisko „jest zgodne z prawem”.

Jak wynika z oświadczenia Hegsetha, w ciągu najbliższych sześciu miesięcy Claude ma zostać stopniowo wycofany z operacji wojskowych.

Amodei podkreślił w oświadczeniu, że Departament Wojny może współpracować przy kontraktach z tymi podmiotami, które lepiej wpisują się w jego wizję, jednak „biorąc pod uwagę znaczącą wartość, jaką technologia Anthropic daje naszym siłom zbrojnym, liczymy, że ta decyzja zostanie ponownie przemyślana”.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

Centra danych nowym celem współczesnej wojny z udziałem Iranu, ostrzegają eksperci

Od starcia AI po zagrożenie kwantowe: najważniejsze fronty cyberbezpieczeństwa według Thalesa

W chińskiej „szkole robotów”, gdzie humanoidy uczą się codziennych zadań