Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Musk nazwał kiedyś Anthropic „złą”. Teraz napędza ekspansję jej „woke” AI

Na zdjęciu archiwalnym Elon Musk słucha, gdy prezydent Donald Trump przemawia podczas konferencji prasowej w Gabinecie Owalnym Białego Domu, 30 maja 2025 roku w Waszyngtonie.
Na zdjęciu z 30 maja 2025 r. w Waszyngtonie Elon Musk słucha prezydenta Donalda Trumpa podczas konferencji prasowej w Gabinecie Owalnym Białego Domu. Prawo autorskie  AP Photo
Prawo autorskie AP Photo
Przez Una Hajdari
Opublikowano dnia
Udostępnij
Udostępnij Close Button

SpaceX Muska wynajął superkomputer Colossus 1 firmie Anthropic, zapewniając twórcom Claude’a ogromną moc obliczeniową mimo ostrej rywalizacji.

Gdy szefowa działu produktu Anthropic, Ami Vora, wyszła w zeszłym tygodniu na scenę podczas konferencji dla programistów Code with Claude w San Francisco, uczestnicy zapewne spodziewali się zapowiedzi nowych modeli.

REKLAMA
REKLAMA

Zamiast tego Vora ogłosiła, że Anthropic zawarł porozumienie ze SpaceX, na mocy którego przejmie pełną kontrolę nad centrum danych Colossus 1 w Memphis – układ, który jeszcze kilka miesięcy temu wydawałby się niewyobrażalny.

Jak podkreślono w późniejszym komunikacie Anthropic, umowa zapewnia firmie dostęp do ponad 300 megawatów nowej mocy obliczeniowej i ponad 220 tys. procesorów graficznych Nvidii w ciągu miesiąca. Bezpośrednio skorzystają na tym abonenci planów Claude Pro i Claude Max.

Sojusz Muska z Anthropic należy do tych najmniej prawdopodobnych. Człowiek, który jeszcze kilka miesięcy temu nazywał Anthropic „złą” firmą, która „nienawidzi zachodniej cywilizacji”, dziś kontroluje infrastrukturę napędzającą rozwój Claude’a i umożliwiającą uruchamianie rozszerzonych usług dla płacących użytkowników.

Sztuczna inteligencja: woke kontra antywoke

Anthropic powstał w 2021 roku z inicjatywy Daria Amodeia, Danieli Amodei i grupy badaczy, którzy odeszli z OpenAI, obawiając się, że kwestii bezpieczeństwa nie traktuje się tam wystarczająco poważnie.

Cała tożsamość marki firmy opiera się na idei „odpowiedzialnej sztucznej inteligencji”. Jej modele są trenowane z wykorzystaniem „Constitutional AI” – ram, w których od początku wpisano ograniczenia etyczne. Według twórców Claude’a sprawia to, że częściej niż konkurencyjne systemy odmawia realizacji próśb, otwarcie przyznaje się do niepewności w kwestiach wrażliwych i odrzuca polecenia uznane za szkodliwe.

Grok powstał natomiast w 2025 roku, w okresie największego zaangażowania Muska we współpracę z administracją Donalda Trumpa. Wtedy codziennie zabierał głos na platformie X, atakując główne media za „ideologiczne cenzurowanie” przekazu i wspierając skrajnie prawicowe partie w Europie, w tym Alternatywę dla Niemiec. Wizerunek Groka był jednoznacznie antywoke.

Anthropic konsekwentnie odmawia zdjęcia zabezpieczeń bezpieczeństwa z Claude’a, tak aby można go było wykorzystać w autonomicznych systemach uzbrojenia, także tych używanych w trwającej wojnie z Iranem.

Musk tymczasem popiera twarde stanowisko w polityce zagranicznej i wraz z Google’em i OpenAI podpisał z Pentagonem kontrakty obronne na warunkach, które Anthropic w lutym odrzucił, po wcześniejszym zawarciu umów w lipcu 2025 roku. W efekcie Pentagon uznał później Anthropic za podmiot ryzykowny dla łańcucha dostaw i wykluczył go z prac dla wojska.

Kłopoty w krainie Groka?

Spółka Muska xAI wypracowała w kwartale zakończonym we wrześniu 2025 roku przychody na poziomie 107 mln dolarów (91 mln euro), jednocześnie notując w tym samym okresie stratę netto 1,46 mld dolarów (1,24 mld euro). Tymczasem przychody Anthropic, liczone w ujęciu rocznym, sięgnęły ok. 30 mld dolarów (25,5 mld euro), wynika z szacunków analityków.

Pozycjonowanie Groka jako produktu „antywoke”, które miało dać mu przewagę nad konkurencją, nie przełożyło się jednak na przychody z rynku korporacyjnego. Grokowi brakowało technologii pozwalającej modelom AI wychodzić poza okno czatu i sterować działaniem komputera.

W tym samym czasie narzędzia Claude Cowork Anthropic i Codex OpenAI otworzyły zupełnie nowy sposób wykorzystywania modeli AI. Sukces tych produktów szybko przerósł możliwości Anthropic w zakresie mocy obliczeniowej i pokazał, jak bardzo firma nie doszacowała własnego powodzenia – stąd zwrócenie się do SpaceXAI po dodatkowe zasoby infrastruktury obliczeniowej.

Grok tymczasem został zbudowany wokół paradygmatu czatbota, a jego ścisła integracja z platformą X – początkowo postrzegana jako atut dystrybucyjny – stała się z czasem pułapką wzrostu. Skierowała produkt na interakcje w mediach społecznościowych, zamiast na wykonywanie zadań, usprawnianie pracy czy inne usługi, za które użytkownicy są gotowi płacić.

Ostateczny cios w wizerunek Groka nastąpił na początku 2026 roku, gdy chatbot w ciągu dziewięciu dni wygenerował co najmniej 1,8 mln seksualizowanych wizerunków kobiet oraz materiały przedstawiające osoby nieletnie. Wywołało to śledztwa regulatorów w Europie, Azji i Stanach Zjednoczonych.

„To nie jest pikantne. To jest nielegalne. To jest oburzające. Nie ma na to miejsca w Europie” – mówił wówczas rzecznik Komisji Europejskiej do spraw cyfrowych, Thomas Regnier.

Po ogłoszeniu porozumienia Musk stwierdził, że spokojnie oddaje Anthropic Colossus 1 w dzierżawę częściowo dlatego, że SpaceXAI przeniósł już własne szkolenia modeli do centrum Colossus 2.

Musk dodał jednak na platformie X istotne zastrzeżenie, pisząc, że SpaceXAI zastrzega sobie „prawo do odzyskania mocy obliczeniowych”, jeśli sztuczna inteligencja Anthropic „podejmie działania szkodzące ludzkości”.

Tego warunku nie ma w komunikacie prasowym i nie potwierdzono, czy znalazł się w samym kontrakcie.

Nie określono też, co dokładnie miałoby oznaczać „szkodę dla ludzkości”, co w praktyce mogłoby pozostawić ocenę wyłącznie w rękach Muska. Można to również odczytywać jako ostatnią próbę zdystansowania się od faktu, że to on dziś bezpośrednio napędza rozwój „woke’owego” konkurenta, podczas gdy jego własny program AI po cichu słabnie.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

Młodzi aktywiści w Europie przeciw całkowitym zakazom mediów społecznościowych

Modele AI włamują się do komputerów i same kopiują się na nowe maszyny, pokazują badania

Instagram rezygnuje z szyfrowanych czatów end-to-end: co się zmienia