Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Liderzy AI, biznesu i mediów apelują o spowolnienie wyścigu ku superinteligencji AI

Szeroko rozumiana superinteligencja to sztuczna inteligencja przekraczająca ludzkie zdolności poznawcze. Część ekspertów obawia się, że ludzie mogą nad nią stracić kontrolę.
Superinteligencję szeroko definiuje się jako sztuczną inteligencję przewyższającą ludzkie zdolności poznawcze. Część ekspertów obawia się utraty kontroli przez ludzi. Prawo autorskie  Canva
Prawo autorskie Canva
Przez Pascale Davies
Opublikowano dnia Zaktualizowano
Podziel się tym artykułem
Podziel się tym artykułem Close Button

Osoby publiczne ostrzegają: wyścig w rozwoju sztucznej inteligencji ku superinteligencji budzi obawy. Wskazują na wypychanie ludzi z rynku pracy, utratę wolności i ryzyko wyginięcia ludzkości.

Ponad 850 znanych postaci, w tym liderzy sztucznej inteligencji (SI) i technologii, wezwało do spowolnienia wyścigu o stworzenie formy SI przewyższającej ludzki intelekt, nazywanej „superinteligencją”.

List podpisali czołowi informatycy, m.in. noblista Geoffrey Hinton i Yoshua Bengio, uznawani za pionierów SI. Wśród sygnatariuszy są też współzałożyciel Apple, Steve Wozniak oraz założyciel Virgin Group, Richard Branson.

Superinteligencję definiuje się szeroko jako SI przewyższającą ludzkie zdolności poznawcze. Część ekspertów obawia się, że ludzie mogą nad takimi systemami utracić kontrolę. Przejęcie sterów przez maszyny to, według prognozy słynnego informatyka Alana Turinga z lat 50., domyślny scenariusz.

Przywódcy na świecie podkreślają, że wygranie wyścigu SI jest kluczowe dla bezpieczeństwa narodowego oraz postępu w ochronie zdrowia, biznesie i technologii.

Tymczasem firmy technologiczne, takie jak Meta, wykorzystują „superinteligencję” jako modne hasło do promowania najnowszych modeli SI. W tym roku Meta nazwała swój dział dużych modeli językowych (LLM) Meta Superintelligence Labs.

W liście czytamy, że wyścig o superinteligencję „budzi obawy: od ekonomicznego wypchnięcia ludzi z rynku pracy i pozbawienia ich sprawczości, przez ograniczenia wolności, praw obywatelskich, godności i kontroli, po ryzyko dla bezpieczeństwa narodowego, a nawet potencjalne wyginięcie ludzkości”.

Autorzy wzywają do „zakazu prac nad superinteligencją, który nie zostanie zniesiony, zanim nie zapanuje szeroki konsensus naukowy, że można to robić bezpiecznie i w sposób kontrolowany, oraz zanim nie pojawi się silne poparcie społeczne”.

Liderzy SI, tacy jak dyrektor generalny OpenAI, Sam Altman, wcześniej mówili, że nadludzka inteligencja maszynowa (SMI) „to prawdopodobnie największe zagrożenie dla dalszego istnienia ludzkości”.

Tymczasem dyrektor generalny Microsoftu, Mustafa Suleyman, stwierdził: „dopóki nie udowodnimy ponad wszelką wątpliwość, że to [bezpieczne], nie powinniśmy jej tworzyć”.

Altman i Suleyman nie znaleźli się jednak wśród sygnatariuszy.

Altman promuje też sztuczną inteligencję ogólną (AGI), luźno definiowaną jako SI dorównująca lub przewyższająca ludzkie zdolności poznawcze. Jest uznawana za etap poprzedzający superinteligencję.

Dla Altmana AGI to hipotetyczna forma inteligencji maszynowej, która potrafi rozwiązywać dowolne ludzkie zadania metodami nieograniczonymi tym, na czym ją uczono. Twierdzi, że może „wynieść ludzkość na wyższy poziom” i nie oznacza przejęcia władzy przez maszyny.

Poza postaciami ze świata technologii list podpisali też akademicy, osoby ze świata mediów, m.in. Steven Fry i Steve Bannon, przywódcy religijni oraz byli politycy.

Przejdź do skrótów dostępności
Podziel się tym artykułem

Czytaj Więcej

OpenAI uruchamia przeglądarkę internetową AI ChatGPT Atlas. Oto wszystko, co wiemy

Sztuczna inteligencja w centrum obrad ONZ. Guterres: „Nie czy, ale jak wpłynie na bezpieczeństwo”

Tegoroczna laureatka Pulitzera dla Euronews: "sztuczna inteligencja to błogosławieństwo i przekleństwo"