Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Prezes Anthropic: „Ludzkość musi się obudzić” w obliczu zagrożeń AI

Zdj. archiwalne: Dario Amodei, prezes i współzałożyciel Anthropic, podczas dorocznego spotkania Światowego Forum Ekonomicznego w Davos w Szwajcarii, 23 stycznia 2025 r.
Archiwum: Dario Amodei, dyrektor generalny i współzałożyciel Anthropic, podczas dorocznego spotkania Światowego Forum Ekonomicznego w Davos (Szwajcaria), 23 stycznia 2025 r. Prawo autorskie  AP Photo/Markus Schreiber, File
Prawo autorskie AP Photo/Markus Schreiber, File
Przez Anna Desmarais
Opublikowano dnia
Udostępnij
Udostępnij Close Button

Dario Amodei, prezes Anthropic, ostrzega: trzeba uregulować sztuczną inteligencję. Inaczej autorytarne rządy użyją jej do represji wobec obywateli.

Świat wchodzi w etap rozwoju sztucznej inteligencji (SI), który sprawdza, kim jesteśmy jako gatunek, ostrzega prezes Anthropic w obszernym eseju.

Dario Amodei przekonuje, że ludzkość wchodzi w okres „technologicznej adolescencji”, w którym SI rozwija się szybciej, niż nadąża prawo, systemy regulacyjne i społeczeństwo.

Twierdzi, że już za dwa lata SI może stać się „mądrzejsza niż laureat Nagrody Nobla” w większości kluczowych dziedzin, takich jak biologia, programowanie, matematyka, inżynieria i pisanie.

Gdy te systemy SI działają wspólnie, Amodei porównuje je do „kraju geniuszy zamkniętego w centrum danych”, zdolnego wykonywać złożone zadania co najmniej 10 razy szybciej niż człowiek, w projektowaniu oprogramowania, operacjach w cyberprzestrzeni, a nawet w budowaniu relacji.

To połączenie nadludzkiej inteligencji, autonomii i trudności w kontrolowaniu technologii „jest zarazem realne i stanowi przepis na egzystencjalne zagrożenie”, napisał.

„Ludzkość musi się obudzić, a ten esej to próba — może daremna, ale warto — by ludzi otrząsnąć”, powiedział.

Esej Amodeia ukazał się po tym, jak jego firma w ubiegłym tygodniu opublikowała 80-stronicową „konstytucję” dla swojego chatbota Claude, która określa, jak spółka zadba o bezpieczne i etyczne działanie SI.

Amodei nie jest jedynym, który ostrzega przed potencjalnymi zagrożeniami SI. Raport z 2025 rokupoparty przez 30 państw stwierdził, że zaawansowane systemy SI mogą tworzyć skrajnie poważne nowe ryzyka, takie jak masowe utraty miejsc pracy, wspieranie terroryzmu czy utrata kontroli nad technologią.

Inni liderzy technologii, w tym Sam Altman z OpenAI oraz współzałożyciel Apple, SteveWozniak, także ostrzegali o ryzykach związanych z SI.

SI to „cywilizacyjne wyzwanie”

Amodei nie twierdzi, że katastrofa jest nieuchronna. Ostrzega jednak, że SI to poważne „cywilizacyjne wyzwanie”.

„SI jest tak potężna, tak kuszącą nagrodą, że cywilizacji ludzkiej bardzo trudno nałożyć na nią jakiekolwiek ograniczenia”, napisał.

Potężne systemy SI mogłyby doradzać rządom, organizacjom lub pojedynczym osobom w sprawach geopolityki, dyplomacji i planowania wojskowego, dodał Amodei.

Największe zagrożenie polega na tym, że autokraci wykorzystają te podpowiedzi generowane przez SI, by „trwale odebrać” wolność obywatelom pod ich kontrolą i „narzucić totalitarne państwo, z którego nie ma ucieczki”, napisał.

Potężna SI, analizująca miliardy rozmów milionów ludzi, mogłaby wyczuwać nastroje społeczne, wykrywać tworzące się ogniska nielojalności i zdusić je, zanim urosną.
Dario Amodei
prezes Anthropic

Masowe wykorzystywanie SI do inwigilacji, dodaje, należy uznać za zbrodnię przeciwko ludzkości.

Amodei mówi, że istnieje ryzyko podziału świata na autokratyczne strefy wpływów, z których każda używa SI do monitorowania i tłumienia swojej ludności.

„Potężna SI, analizująca miliardy rozmów milionów ludzi, mogłaby wyczuwać nastroje społeczne, wykrywać tworzące się ogniska nielojalności i zdusić je, zanim urosną”, czytamy w eseju.

Za główne źródło obaw Amodei uznaje rząd Chin, ze względu na połączenie kompetencji w SI, autokratycznych rządów i istniejącej, zaawansowanej infrastruktury nadzoru.

Amodei wskazuje też, że demokracje konkurencyjne w dziedzinie SI, niedemokratyczne państwa z dużymi centrami danych oraz same firmy rozwijające SI to potencjalne podmioty, które mogą nadużywać tej technologii.

Układy scalone „największym wąskim gardłem”

Napisał, że najskuteczniejszym sposobem przeciwdziałania jest kontrola sprzedaży zaawansowanych układów scalonych używanych do trenowania modeli SI.

Demokracje nie powinny sprzedawać tych technologii państwom autorytarnym, zwłaszcza Chinom, które powszechnie uchodzą za głównego rywala Stanów Zjednoczonych w wyścigu dotyczącym SI, dodał Amodei.

„Układy scalone i narzędzia do ich wytwarzania to największe wąskie gardło na drodze do potężnej SI, a ich blokowanie jest prostym, lecz bardzo skutecznym środkiem, być może najważniejszym, jaki możemy podjąć”, powiedział.

Oprócz kontroli eksportu Amodei proponuje koordynację działań w całej branży i nadzór społeczny. Wzywa do ustaw o przejrzystości, które zobowiążą firmy SI do ujawniania, jak ukierunkowują zachowanie swoich modeli.

Jako przykład podaje kalifornijską ustawę SB-53, znaną jako Transparency in Frontier Artificial Intelligence Act (TFAIA).

Ustawa zobowiązuje firmy SI do publikowania na swoich stronach ramowych dokumentów opisujących, jak firma włącza krajowe i międzynarodowe dobre praktyki oraz standardy do swoich modeli SI, według gubernatora Kalifornii, Gavina Newsoma.

Amodei pozostaje jednak optymistą w sprawie przyszłości SI.

„Wierzę, że jeśli będziemy działać zdecydowanie i rozważnie, ryzyka da się przezwyciężyć. Powiedziałbym nawet, że mamy dobre szanse. Po drugiej stronie czeka znacznie lepszy świat. Musimy jednak zrozumieć, że to poważne cywilizacyjne wyzwanie”, powiedział.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

Amerykański start-up kosmiczny rusza z rezerwacjami na nadmuchiwany hotel na Księżycu

TikTok bada blokowanie nagrań o Epsteinie i krytycznych wobec Trumpa po oskarżeniach o cenzurę

Pornhub od przyszłego tygodnia ograniczy dostęp nowym użytkownikom w Wielkiej Brytanii, podała firma