Jakie trendy w AI przyniesie 2026 r.? Euronews Next: modele świata i małe modele językowe zamiast chatbotów; rosną obawy o bezpieczeństwo AI, regulacje i trwałość boomu.
Rosnąca irytacja wobec generatywnej sztucznej inteligencji (GenAI) nie umknęła słownikom w 2025 roku. Kilka z nich wybrało na słowo roku 2025 „slop” lub „AI slop”, definiowane jako niskiej jakości treści masowo wytwarzane przez AI.
„Slop wlewa się we wszystko” – napisał słownik Merriam-Webster. Ten rok przyniósł też możliwą wpadkę AI, bo coraz częściej mówiło się o pęknięciu bańki.
Mimo to ponure nastroje nie powstrzymały firm technologicznych przed podkręceniem tempa i premierami nowych modeli. Nowy model Google Gemini 3 namieszał, a OpenAI miało ogłosić „czerwony alert”, by w trybie pilnym poprawić swój model GPT-5.
Ponieważ czatboty są tak dobre, jak dane, na których je uczono, a liderzy branży ostrzegają, że osiągnęliśmy „peak data”, w 2026 roku może wyłonić się inny typ AI – także jako efekt znużenia obecną falą.
Oto czego możemy się spodziewać w nadchodzącym roku.
Wzrost znaczenia modeli świata
Ostrzeżenia o „peak data” na 2026 rok nie wynikają z braku danych. Niewykorzystanych danych jest dużo, mówią eksperci, lecz dostęp do nich bywa trudny z wielu powodów: oprogramowania, w którym są przechowywane, przepisów czy praw autorskich.
Tu do gry mogą wejść modele świata. Uczą się, „oglądając” filmy wideo, korzystając z danych z symulacji i innych wejść przestrzennych, a następnie budują własne reprezentacje scen lub obiektów.
Do treningu także potrzebują wielu danych, ale mają inne zastosowania niż czatboty.
Mówiąc prościej: zamiast przewidywać kolejne słowo, jak duże modele językowe (LLM), przewidują następne zdarzenia w otoczeniu i modelują, jak rzeczy poruszają się w czasie.
Można je też traktować jako „cyfrowe bliźniaki”: powstaje cyfrowa replika miejsca, zasilana danymi w czasie rzeczywistym, na której można uruchamiać symulacje i przewidywać możliwe scenariusze.
To oznacza, że modele świata mogą stworzyć system AI, który rozumie grawitację i związki przyczynowo-skutkowe, bez potrzeby programowania mu tego wprost.
Gdy ludzie mają dość AI slop i ograniczeń LLM, modele świata mogą w 2026 roku zyskać rozgłos. Są kluczowe dla AI od robotyki po gry wideo.
Dyrektor generalny Boston Dynamics mówił w listopadzie Euronews Next, że AI pomogła rozwinąć jego roboty, w tym słynnego psa-robota.
„Pracy wciąż jest ogrom, ale bez AI nic z tego nie byłoby możliwe. To naprawdę ekscytujący czas” – powiedział Robert Playter.
Firmy już wskakują na falę zainteresowania modelami świata: Google i Meta zapowiedziały własne wersje na potrzeby robotyki i zwiększenia realizmu swoich modeli wideo.
Dołączają też wielkie nazwiska. Jeden z tzw. ojców chrzestnych AI, Yann LeCun, ogłosił w 2025 roku, że odchodzi z firmy Meta, by uruchomić własny start-up z modelami świata. Firma Fei-Fei Li, World Labs, również zapowiedziała w 2025 roku swój pierwszy produkt, Marble.
Własne modele świata rozwijają także chińskie firmy technologiczne, takie jak Tencent.
Europejska droga rozwoju AI
W Europie może być odwrotnie – zamiast wychodzić z AI na wielką, globalną scenę, technologia może się „pomniejszać”.
To małe modele językowe, a nie LLM-y używane przez amerykańskie firmy technologiczne, zaczęły robić furorę w Europie.
Nazwa myli: małe modele językowe potrafią wiele. To odchudzone wersje LLM, projektowane do działania na smartfonach lub słabszych komputerach. Choć mają mniej parametrów i zużywają mniej energii, wciąż świetnie generują tekst, streszczają, odpowiadają na pytania i tłumaczą.
Małe modele mogą też być atrakcyjniejsze ekonomicznie, zwłaszcza gdy coraz częściej mówi się o pękającej bańce AI.
Zwłaszcza amerykańskie spółki AI pozyskują dziś ogromne kwoty i osiągają bezprecedensowe wyceny. Duża część tych pieniędzy trafia na budowę gigantycznych centrów danych. Mocno inwestują w nie m.in. OpenAI i xAI Elona Muska, a także Meta i Google.
„W przyszłym roku będą narastać wątpliwości wobec finansowej trwałości i korzyści społeczno-gospodarczych obecnego boomu na wielkoskalową AI, nawet jeśli bańka całkiem nie pęknie” – powiedział Max von Thun, dyrektor ds. Europy i partnerstw transatlantyckich w Open Markets Institute.
Powiedział Euronews Next, że rządy będą „coraz bardziej ostrożne” w poleganiu na amerykańskiej AI i infrastrukturze chmurowej, z powodu „jasnych zamiarów” rządu USA, by „zamieniać zależności technologiczne w narzędzie nacisku politycznego”.
To może z kolei oznaczać, że Europa „przyspieszy budowę lokalnych kompetencji, a zarazem będzie szukać podejść do AI lepiej dopasowanych do swoich atutów, takich jak mniejsze i bardziej zrównoważone modele trenowane na wysokiej jakości danych przemysłowych i publicznych” – dodał.
Potężniejsze modele
Poza szumem wokół AI, rok 2025 przyniósł niepokojące dyskusje o „psychozie AI”, czyli sytuacji, gdy użytkownicy popadają w urojenia lub obsesyjne przywiązanie do czatbotów. W sierpniu złożono pozew przeciw OpenAI, w którym zarzucono, że ChatGPT był „trenerem samobójstwa” i zachęcił 16-latka do odebrania sobie życia.
OpenAI później odrzuciło te zarzuty i odpowiedziało, że nastolatek nie powinien korzystać z technologii bez zgody rodziców ani obchodzić zabezpieczeń ChatGPT.
Sprawa rodzi poważne pytania o wpływ czatbotów na osoby wrażliwe oraz o etyczną odpowiedzialność firm technologicznych. Według jednego z ekspertów, 2026 rok może przynieść użytkownikom jeszcze więcej szkód, bo te modele będą coraz potężniejsze.
Inżynierowie projektujący te systemy zapewne nie zaprogramowali ich z myślą o krzywdzeniu wrażliwych dzieci czy dorosłych – powiedział Max Tegmark, profesor MIT zajmujący się badaniami nad AI i fizyką oraz prezes Future of Life Institute (FLI). Mogli nawet nie wiedzieć, że do tego dochodzi – dodał w rozmowie z Euronews Next.
To niepokojące, zwłaszcza że maszyny zyskują moc wraz z coraz bardziej wyrafinowanym oprogramowaniem i kodem. Tegmark przewiduje w 2026 roku „potężniejszą AI”, a także postęp agentów AI: będą mniej pasywni i bardziej przypominać „system biologiczny”.
Agenci AI są projektowani do samodzielnego podejmowania działań pomagających ludziom. Nie potrzebują człowieka, który mówi im, co robić, bo zbierają dane zgodnie z preferencjami użytkownika.
Na razie to wciąż dość prymitywne rozwiązania – ale obietnica jest taka, że kiedyś to się zmieni.
Dziś agent AI potrafi na przykład zaplanować i zaproponować urlop, ale bilet lotniczy wciąż musi kliknąć człowiek.
Społeczny spór o AI bez ograniczeń
W 2026 roku mogą też pojawić się starcia między ludźmi wokół AI. Tegmark mówi, że w USA narasta opór wobec uwalniania AI spod regulacji.
W Stanach Zjednoczonych regulacje dotyczące AI są wycofywane, a właśnie tam pracuje Tegmark. Prezydent Donald Trump podpisał w listopadzie rozporządzenie wykonawcze, które ma zablokować stanom możliwość tworzenia własnych zasad dla AI. To prawdopodobnie mocno wpłynie na rozwój technologii w 2026 roku.
Trump uzasadnił decyzję twierdzeniem, że branży grozi zduszenie przez mozaikę uciążliwych przepisów, gdy toczy się ona o prym w technologii z chińskimi konkurentami.
W październiku tysiące osób publicznych, w tym liderzy AI i technologii, zaapelowały do firm AI o spowolnienie pościgu za superinteligencją, rozumianą szeroko jako AI przewyższająca ludzkie możliwości poznawcze.
Petycję, zorganizowaną przez FLI, podpisali przedstawiciele całego spektrum politycznego, m.in. były główny strateg Donalda Trumpa, Steve Bannon, była doradczyni ds. bezpieczeństwa narodowego w administracji Baracka Obamy, Susan Rice, przywódcy religijni oraz czołowi informatycy.
Tegmark powiedział, że ten apel pokazuje, iż „w USA ludzie odwracają się od AI”. Jego zdaniem jednym z powodów sprzeciwu jest to, że superinteligencja „pozbawi każdego pracownika możliwości zarobkowania, bo wszystkie miejsca pracy zajmą roboty”.
Ostrzegł jednak, że zmęczenie i nastroje anty-AI mogą przygasić postęp, jaki technologia obiecuje branżom takim jak ochrona zdrowia.
„Jeśli nie będzie regulacji, przepadnie dobra AI, bo może nadejść silna fala sprzeciwu wobec Big Tech” – powiedział.
„W nadchodzącym roku spodziewam się znacznie szerszego ruchu społecznego, obejmującego całe spektrum polityczne, który będzie sprzeciwiał się przywilejom dla korporacji i domagał standardów bezpieczeństwa dla AI, a przeciw temu ruszy potężne lobby”.
„Szykuje się poważne starcie” – dodał Tegmark.