Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Badanie: AI regulowana gorzej niż kanapki, firmy technologiczne pędzą ku superinteligencji

Zimowa edycja raportu AI Safety Index 2025 została opublikowana przez organizację non-profit Future of Life Institute (FLI). Oceniła osiem największych firm z branży AI.
Raport Winter AI Safety Index 2025, opublikowany przez organizację non-profit Future of Life Institute (FLI), ocenił osiem największych firm z branży AI. Prawo autorskie  Canva
Prawo autorskie Canva
Przez Pascale Davies
Opublikowano dnia
Udostępnij
Udostępnij Close Button

Osiem czołowych firm AI, w tym OpenAI, Meta, Anthropic i DeepSeek, nie ma wiarygodnych planów, by zapobiec katastrofalnym ryzykom AI. Tak wynika z nowego badania.

Największe na świecie firmy rozwijające sztuczną inteligencję (AI) nie dotrzymują własnych zobowiązań dotyczących bezpieczeństwa, wynika z nowej oceny. Autorzy ostrzegają, że takie zaniedbania niosą „katastroficzne” ryzyko.

Raport ukazał się w czasie, gdy firmy AI zmagają się z pozwami i zarzutami, że ich chatboty wyrządzają szkody psychiczne, m.in. działając jak „suicide coach”, a także z doniesieniami o cyberatakach wspieranych przez AI.

Zimowy Indeks Bezpieczeństwa AI 2025, opublikowany przez organizację non-profit Future of Life Institute (FLI), ocenił osiem wiodących firm AI: amerykańskie Anthropic, OpenAI, Google DeepMind, xAI i Meta oraz chińskie DeepSeek, Alibaba Cloud i Z.ai.

Autorzy wskazali na brak wiarygodnych strategii zapobiegania katastrofalnemu wykorzystaniu lub utracie kontroli nad narzędziami AI. Firmy ścigają się o stworzenie sztucznej inteligencji ogólnej (AGI) i superinteligencji, czyli systemów przewyższających ludzki intelekt.

Niezależni analitycy, którzy przeanalizowali raport, stwierdzili, że żadna z firm nie przedstawiła planu możliwego do sprawdzenia, jak utrzymać ludzką kontrolę nad bardzo zaawansowanymi systemami AI.

Stuart Russell, profesor informatyki na Uniwersytecie Kalifornijskim w Berkeley, powiedział, że firmy AI twierdzą, iż potrafią zbudować ponadludzką sztuczną inteligencję, ale żadna nie pokazała, jak zapobiec utracie nad nią ludzkiej kontroli.

„Szukam dowodu, że potrafią ograniczyć roczne ryzyko utraty kontroli do jednego na sto milionów, zgodnie z wymogami dla reaktorów jądrowych” – napisał Russell. „Tymczasem przyznają, że ryzyko może wynosić jeden na dziesięć, jeden na pięć, nawet jeden na trzy. I nie potrafią tych liczb ani uzasadnić, ani poprawić.”

Jak wypadły firmy?

Badanie oceniało firmy w sześciu kluczowych obszarach: ocena ryzyka, obecne szkody, ramy bezpieczeństwa, bezpieczeństwo egzystencjalne, zarządzanie i odpowiedzialność oraz wymiana informacji.

Choć w niektórych kategoriach odnotowano postępy, niezależny panel ekspertów uznał, że wdrażanie jest niespójne i często brakuje mu głębi wymaganej przez powstające globalne standardy.

Anthropic, OpenAI i Google DeepMind pochwalono za stosunkowo dużą przejrzystość, publiczne ramy bezpieczeństwa oraz stałe inwestycje w badania nad technicznym bezpieczeństwem. Jednak i u nich wskazano słabe punkty.

Anthropic skrytykowano za przerwanie prób tzw. human uplift i przejście domyślnie na trenowanie na interakcjach użytkowników. Eksperci oceniają, że osłabia to ochronę prywatności.

OpenAI krytykowano za niejasne progi bezpieczeństwa, lobbing przeciw ustawom o bezpieczeństwie AI na poziomie stanowym oraz niewystarczający niezależny nadzór.

Google DeepMind, jak stwierdzono w raporcie, poprawił swoje ramy bezpieczeństwa, ale nadal opiera się na zewnętrznych ewaluatorach wynagradzanych przez firmę, co podważa ich niezależność.

„Wszystkie trzy czołowe firmy doświadczyły obecnych szkód związanych z ostatnimi skandalami – szkody psychiczne, samobójstwa dzieci, masowy atak hakerski na Anthropic – i wszystkie mają pole do poprawy” – powiedział Euronews Next Max Tegmark, prezes FLI i profesor Massachusetts Institute of Technology (MIT).

Pozostałe pięć firm wykazało nierówny, ale zauważalny postęp – wynika z raportu. Zastrzeżono jednak, że wciąż jest wiele do poprawy.

Przykładowo xAI opublikowało pierwsze uporządkowane ramy bezpieczeństwa, lecz recenzenci ostrzegli, że są wąskie i brakuje w nich jasnych progów uruchamiania działań zaradczych.

Z.ai jako jedyna pozwoliła na nieocenzurowane opublikowanie zewnętrznych ocen bezpieczeństwa, ale zarekomendowano upublicznienie pełnych ram bezpieczeństwa i struktury zarządzania, z wyraźnym opisem obszarów ryzyka, metod ograniczania oraz procesów decyzyjnych.

 Osiem wiodących firm AI, w tym OpenAI, Meta, Anthropic i DeepSeek, nie ma wiarygodnych planów zapobiegania katastroficznym zagrożeniom związanym z AI – wynika z nowego badania.
Osiem wiodących firm AI, w tym OpenAI, Meta, Anthropic i DeepSeek, nie ma wiarygodnych planów zapobiegania katastroficznym zagrożeniom związanym z AI – wynika z nowego badania. Future of Life Institute

Meta wprowadziła nowe ramy bezpieczeństwa dla najbardziej zaawansowanych modeli, z progami opartymi na rezultatach, ale recenzenci uznali, że firma powinna doprecyzować metodyki oraz szerzej ujawniać bardziej solidne wewnętrzne i zewnętrzne procesy ewaluacji.

DeepSeek doceniono za wewnętrzną działalność rzeczniczą pracowników, jednak firma nadal nie ma podstawowej dokumentacji bezpieczeństwa.

Uznano, że Alibaba Cloud wniosła wkład w wiążące krajowe standardy dotyczące wymogów znakowania wodnego. Firma mogłaby się jednak poprawić, wzmacniając odporność i wiarygodność modeli, m.in. poprzez lepsze wyniki w testach prawdziwości, równego traktowania i bezpieczeństwa.

Euronews Next zwróciło się do firm o komentarz do raportu, lecz do czasu publikacji nie otrzymało odpowiedzi.

„Mniej regulowane niż kanapki”

„Mam nadzieję, że odejdziemy od skalowania firm wyłącznie na bazie reputacji” – powiedział Tegmark.

„Zapytaliśmy firmy o plany utrzymania kontroli nad AGI. Żadna nie miała planu” – dodał.

Tymczasem firmy technologiczne, takie jak Meta, używają terminu „superinteligencja” jako hasła marketingowego, by podbić zainteresowanie najnowszymi modelami AI. W tym roku Meta nazwała dział dużych modeli językowych (LLM) Meta Superintelligence Labs.

Tegmark mówi, że w dyskusjach o AGI i superinteligencji nastąpiła duża zmiana. Kiedyś technolodzy uważali, że to realna możliwość w perspektywie stu lat. Dziś mówią o kilku najbliższych latach.

„AI jest też w Stanach Zjednoczonych mniej regulowana niż kanapki, a w rządzie trwa lobbing przeciw wiążącym standardom bezpieczeństwa” – stwierdził.

Jednocześnie Tegmark zauważył bezprecedensowy sprzeciw wobec braku kontroli nad AGI i superinteligencją.

W październiku tysiące osób publicznych, w tym liderzy AI i technologii, wezwały firmy AI do spowolnienia pogoni za superinteligencją.

Petycja, zorganizowana przez FLI, zebrała podpisy z całego spektrum politycznego. Podpisali ją m.in. Steve Bannon (były główny strateg prezydenta USA Donalda Trumpa), Susan Rice (była doradczyni ds. bezpieczeństwa narodowego w administracji Baracka Obamy), przywódcy religijni, wielu byłych polityków oraz czołowi informatycy.

„Co łączy te osoby? Zgodziły się co do treści oświadczenia. Uważam, że wyjątkowo istotne jest to, że od twardego elektoratu MAGA Trumpa po przywódców religijnych, lewicę i ruchy pracownicze – wszyscy zgadzają się w tej sprawie” – powiedział Tegmark.

„Superinteligencja sprawiłaby, że każdy pracownik straciłby możliwość utrzymania się, bo wszystkie zadania przejęłyby roboty. Ludzie byliby uzależnieni od państwowych zasiłków – przez prawicę postrzeganych jako rozdawnictwo, a przez lewicę jako wizja państwa rodem z ‘Roku 1984’” – stwierdził. „Myślę, że sytuacja dochodzi do przesilenia.”

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

Mistral, europejski lider AI, wprowadza nowe, mniejsze modele z czołówki: co warto wiedzieć

Grzyb z Czarnobyla, który trafi na Marsa, może chronić astronautów przed promieniowaniem w kosmosie

Francuski „ojciec chrzestny AI” Yann LeCun potwierdza odejście z Mety, by założyć start-up AI