Osoby publiczne ostrzegają: wyścig w rozwoju sztucznej inteligencji ku superinteligencji budzi obawy. Wskazują na wypychanie ludzi z rynku pracy, utratę wolności i ryzyko wyginięcia ludzkości.
Ponad 850 znanych postaci, w tym liderzy sztucznej inteligencji (SI) i technologii, wezwało do spowolnienia wyścigu o stworzenie formy SI przewyższającej ludzki intelekt, nazywanej „superinteligencją”.
List podpisali czołowi informatycy, m.in. noblista Geoffrey Hinton i Yoshua Bengio, uznawani za pionierów SI. Wśród sygnatariuszy są też współzałożyciel Apple, Steve Wozniak oraz założyciel Virgin Group, Richard Branson.
Superinteligencję definiuje się szeroko jako SI przewyższającą ludzkie zdolności poznawcze. Część ekspertów obawia się, że ludzie mogą nad takimi systemami utracić kontrolę. Przejęcie sterów przez maszyny to, według prognozy słynnego informatyka Alana Turinga z lat 50., domyślny scenariusz.
Przywódcy na świecie podkreślają, że wygranie wyścigu SI jest kluczowe dla bezpieczeństwa narodowego oraz postępu w ochronie zdrowia, biznesie i technologii.
Tymczasem firmy technologiczne, takie jak Meta, wykorzystują „superinteligencję” jako modne hasło do promowania najnowszych modeli SI. W tym roku Meta nazwała swój dział dużych modeli językowych (LLM) Meta Superintelligence Labs.
W liście czytamy, że wyścig o superinteligencję „budzi obawy: od ekonomicznego wypchnięcia ludzi z rynku pracy i pozbawienia ich sprawczości, przez ograniczenia wolności, praw obywatelskich, godności i kontroli, po ryzyko dla bezpieczeństwa narodowego, a nawet potencjalne wyginięcie ludzkości”.
Autorzy wzywają do „zakazu prac nad superinteligencją, który nie zostanie zniesiony, zanim nie zapanuje szeroki konsensus naukowy, że można to robić bezpiecznie i w sposób kontrolowany, oraz zanim nie pojawi się silne poparcie społeczne”.
Liderzy SI, tacy jak dyrektor generalny OpenAI, Sam Altman, wcześniej mówili, że nadludzka inteligencja maszynowa (SMI) „to prawdopodobnie największe zagrożenie dla dalszego istnienia ludzkości”.
Tymczasem dyrektor generalny Microsoftu, Mustafa Suleyman, stwierdził: „dopóki nie udowodnimy ponad wszelką wątpliwość, że to [bezpieczne], nie powinniśmy jej tworzyć”.
Altman i Suleyman nie znaleźli się jednak wśród sygnatariuszy.
Altman promuje też sztuczną inteligencję ogólną (AGI), luźno definiowaną jako SI dorównująca lub przewyższająca ludzkie zdolności poznawcze. Jest uznawana za etap poprzedzający superinteligencję.
Dla Altmana AGI to hipotetyczna forma inteligencji maszynowej, która potrafi rozwiązywać dowolne ludzkie zadania metodami nieograniczonymi tym, na czym ją uczono. Twierdzi, że może „wynieść ludzkość na wyższy poziom” i nie oznacza przejęcia władzy przez maszyny.
Poza postaciami ze świata technologii list podpisali też akademicy, osoby ze świata mediów, m.in. Steven Fry i Steve Bannon, przywódcy religijni oraz byli politycy.