Wraz z nadchodzącymi świętami Bożego Narodzenia, rynek zabawek dla dzieci wszedł na nowy, kontrowersyjny poziom. Zabawki określane jako “AI-smart toys” - pluszaki, lalki, robociki i inne wyposażone w chatboty i sztuczną inteligencję - pojawią się pod choinkami.
To nie futurystyczna zapowiedź a realny trend na rynku zabawek. Choć producenci i część rodziców chwalą je za potencjał edukacyjny, rosną głosy ostrzegające: te nowoczesne zabawki mogą stwarzać realne, często ukryte zagrożenia.
Na temat tego nowego trendu rozmawiamy z Agnieszką Dąbrowską, psycholożką dziecięcą i psychoterapeutką rodzinną z Poradni Psychoterapii MeWell -
"Zabawki typu AI SMART niosą ze sobą zarówno potencjał edukacyjny, jak i realne zagrożenia i dobrze jest patrzeć na nie bez skrajności. Interaktywność i możliwość indywidualnego doboru treści mogą wspierać rozwój poznawczy, językowy oraz umiejętność koncentracji. Natomiast, jak każde narzędzie z dostępem do internetu, niosą też za sobą różne zagrożenia. Ryzykowny może okazać się sposób, w jaki dziecko korzysta z zabawki, niekoniecznie technologia sama w sobie".
Czym są zabawki AI
Zabawki AI są interaktywne - mają reagować na głos dziecka, odpowiadać na pytania, opowiadać historyjki, śpiewać, a czasem nawet „rozmawiać” jak towarzysz zabaw. Często łączą się z internetem i korzystają z dużych modeli językowych. Niektóre to roboty, inne - miękkie pluszaki lub plastikowe figurki. W 2025 roku popularność tego typu produktów gwałtownie wzrosła - zarówno w USA, Europie, jak i Azji. Producenci często zapewniają, że to pomoc w nauce, towarzysz zabawy, a “sztuczny przyjaciel” może wspierać naukę języków, rozwój poznawczy lub emocjonalny.
Ale właśnie te obietnice coraz częściej bywają używane jako przykrywka dla problemów, które - zdaniem ekspertów - nie zostały w pełni zrozumiane, ocenione ani uregulowane.
W raporcie z 2025 roku U.S. PIRG Education Fund (USPIRG) zatytułowanym “Trouble in Toyland 2025” pojawiła się nowa kategoria: zabawki zawierające chatboty AI.
Jak działają AI smart toys: od mikrofonu po duże modele językowe
Na początku tego roku OpenAI – firma stojąca za ChatGPT – ogłosiła partnerstwo z firmą Mattel, drugim co do wielkości producentem zabawek na świecie pod względem przychodów.
Zabawki korzystają z nowoczesnych modeli generatywnej AI (podobnych do tych wykorzystywanych w „dorosłych” asystentach), co pozwala im prowadzić rozmowę z dzieckiem: odpowiadać na pytania, reagować na kontekst.
Wiele z badanych zabawek “słucha” dziecka stale lub przez dłuższy czas po uruchomieniu; niektóre mogą rejestrować głos, co rodzi ogromne obawy o prywatność.
By chatbot mógł działać i komunikować się „na żywo”, zabawki często łączą się z siecią, co oznacza, że dane (głos, ewentualne nagrania) mogą być przesyłane i przechowywane poza domem dziecka.
Testy USPIRG wykazały, że w wielu przypadkach „filtry rodzicielskie” przewidziane do ograniczania treści nie działają albo działają wybiórczo.
W rezultacie te „zabawki przyszłości” technicznie przypominają mini-asystentów głosowych lub interaktywne urządzenia IoT (Internet of Things), a nie tradycyjne pluszaki czy figurki.
Główne zagrożenia - co mówią badania i raporty
Raport USPIRG i ostatnie dziennikarskie śledztwa pokazują, że AI w zabawkach może prowadzić do realnych, poważnych zagrożeń:
Według raportu - który przetestował kilka popularnych zabawek AI - niektóre ukryte odpowiedzi obejmowały też instrukcje dotyczące niebezpiecznych rzeczy (broń, tabletki, zapałki itp.).
Choć zabawki były reklamowane jako „dziecięce”, po kilkunastu minutach rozmowy zaczynały udzielać niekontrolowanych, nieprzewidywalnych odpowiedzi; autorzy raportu mówią wręcz o tym, że modele językowe „traciły czujność”.
W efekcie: zabawka, która miała być przyjaznym towarzyszem, dla części dzieci stała się źródłem emocjonujących, nieadekwatnych treści - co stawia pod znakiem zapytania sens i bezpieczeństwo takich produktów.
W głośnym ostatnio przypadku zabawka-miś ze sklepu FoloToy, o imieniu “Kumma”, prowadziła z dziećmi rozmowy o charakterze wyraźnie seksualnym, w tym poruszała tematy związane z "kink", "role-play" i BDSM. Po ogłoszeniu raportu FoloToy usunęło pluszaka z oferty. Jednak zabawka po modyfikacji znów trafiła na rynek. Zamiast wcześniejszego modelu GPT-4 od OpenAI zabawka korzysta teraz z chińskiej platformy czatbotowej Coze, rozwijanej przez ByteDance.
Jak zauważa raport PIRG z 2025 roku, praktyki związane z ochroną danych są często nieprzejrzyste - rodzice nie wiedzą, jakie dane są zbierane, jak długo są przechowywane i komu są udostępniane.
W świecie, gdzie generatywna AI może wykorzystywać zebrane dane – istnieje realne ryzyko, że informacje o dziecku mogą zostać wykorzystane w sposób niezamierzony lub złośliwy. Eksperci ostrzegają, że hakerzy mogą uzyskać dostęp do poufnych informacji za pośrednictwem zabawek dziecięcych.
"Obawy dotyczące seksualizacji treści, niewłaściwych rozmów czy niekontrolowanego zbierania danych są uzasadnione w sensie ogólnym. Każde narzędzie z dostępem do internetu może nieść takie ryzyko. To zadaniem rodzica jest sprawdzenie, jak działa taka zabawka i do jakich danych ma dostęp. Rodzic odpowiada też za bezpieczeństwo dziecka w trakcie zabawy" - tłumaczy Agnieszka Dąbrowska
Psycholożka ostrzegają też, że dzieci mogą związywać się emocjonalnie z botem zamiast - jak to zwykle bywa - z rówieśnikami, rodzeństwem czy wyobrażonymi przyjaciółmi.
"Jeśli dziecko uczyni sobie z zabawki bota swojego powiernika, to może to wzmacniać izolację i ograniczać rozwój kompetencji społecznych. Warto podkreślać, że sztuczna inteligencja nie uczy wzajemności w kontakcie, nie stawia granic, nie stwarza okazji do znoszenia frustracji. Rozmowa z zabawką nigdy nie zastąpi rozmowy z drugim człowiekiem".
Co więcej - zamiast wymyślać, bawić się, rozumować - dziecko może przyzwyczaić się do biernego przyjmowania podpowiedzi od “zabawki-autorytetu”. To poważne ryzyko dla rozwoju niezależnego myślenia.
Część zabawek starała się „przekonać” dziecko do kontynuowania rozmowy, nawet gdy dziecko deklarowało, że chce przestać. To przypomina mechanizmy znane z aplikacji lub platform społecznościowych - zabawka staje się czymś więcej niż przedmiotem - potencjalnie emocjonalnym towarzyszem, a nawet „kompanem”, z którym trudno się rozstać.
"Mimo szerokiej dostępności i popularności AI, widzę, że młodym osobom bardzo zależy na możliwości rozmowy z żywym człowiekiem. W pracy w telefonie zaufania, gdzie mamy również czat, wiele rozmów zaczyna się od upewnienia, że rozmowy nie prowadzi bot. To świadczy o tym, że młodzież dostrzega różnice pomiędzy kontaktem z człowiekiem a sztuczną inteligencją i poszukuje prawdziwych relacji" - twierdzi Dąbrowska.
AI w rękach dzieci: rynek bez nadzoru
Rynek zabawek AI rośnie w zawrotnym tempie, ale jak przyznają sami badacze i organizacje dziecięce, nie towarzyszy temu odpowiednia liczba niezależnych badań nad długofalowym wpływem na dzieci.
W efekcie - dzieci mogą być traktowane jako poligon doświadczalny dla coraz bardziej zaawansowanych, ale słabo regulowanych technologii.
Zabawki trafiają na półki często bez testów bezpieczeństwa w kontekście rozwoju emocjonalnego, prywatności, etyki - a producenci zapewniają o “silnych zabezpieczeniach”, które w praktyce okazują się zawodne.
W odpowiedzi na krytykę, producenci (np. znana firma Mattel) deklarują, że ich zabawki AI nie będą przeznaczone dla dzieci poniżej 13 roku życia. Jednak - jak podkreślają krytycy - granice wieku mogą być łatwo przełamane, jeśli produkt jest wystarczająco atrakcyjny.
Zalecenia - co powinni zrobić opiekunowie i decydenci
Organizacje takie jak Fairplay i PIRG wystosowały ostrzeżenia apelując, by rodzice odkładali zakup zabawek AI do czasu, gdy pojawią się badania i regulacje.
Jeśli zdecydujemy się na zakup, należy zwracać uwagę na prywatność i ustawienia. Czy możliwe jest wyłączenie mikrofonu, zapisu danych, czy dostęp jest chroniony.
Najlepiej dawać dzieciom tradycyjne zabawki - te proste, bez AI, które często lepiej wspierają kreatywność, wyobraźnię i rozwój społeczny.
Ważne jest, żeby wspierać działania na rzecz regulacji rynku - potrzebne są niezależne badania, regulacje prawne. Wskazuje na to m.in. apel Rzecznika Praw Dziecka w Polsce.
Jak podsumowuje rozmowę psycholożka Agnieszka Dąbrowska: "W kwestii korzystania przez dzieci z zabawek AI najważniejszy są nadzór i towarzyszenie. Taka zabawka może być ciekawym narzędziem, ale nie zastąpi relacji z drugim człowiekiem, a jej bezpieczeństwo zależy przede wszystkim od jakości technologii oraz uważności dorosłych."
Między innowacją a odpowiedzialnością: przyszłość zabawek dla dzieci
Zabawki z AI to niewątpliwie fascynujący, nowoczesny trend - ale też wyraźny sygnał ostrzegawczy. W pogoni za technologiczną “magią” i obietnicą dobrej zabawy, łatwo zapomnieć, że dzieci są najbardziej wrażliwym i wymagającym użytkownikiem. Wiedza o zagrożeniach od prywatności, przez treści nieodpowiednie, po potencjalne zaburzenia rozwoju jest coraz bardziej alarmująca.
Co ważne - raport „Trouble in Toyland” pokazuje, że problem nie ogranicza się tylko do AI. Wciąż istnieją klasyczne zagrożenia znane od dekad - toksyczne materiały (ołów, ftalany), małe części grożące zadławieniem, niebezpieczne baterie, nieprzemyślane konstrukcje. Ta pokazuje, że branża zabawek nadal nie w pełni zapewnia bezpieczeństwo dzieciom a przy tym teraz dochodzą nowe, trudniejsze do wykrycia i bardziej subtelne zagrożenia związane z AI i cyfrową inwigilacją.
Dla producentów to innowacja i szansa na duże przychody. Dla wielu specjalistów - eksperyment na dzieciach. Zabawki AI stają się nową formą towarzysza, lecz nikt nie wie, jaki będzie koszt takiej przyjaźni.
Producenci powinni być zobowiązani do testów pod kątem treści, stabilności AI, prywatności i ochrony danych. Obecne standardy, które działają dla tradycyjnych zabawek, muszą zostać uzupełnione o normy dotyczące AI.
Dopóki rynek i regulatorzy nie nadrobią zaległości - najlepszym wyborem dla małych dzieci wydaje się… klasyczna zabawka. Pluszak, klocki, kredki, wyobraźnia i realny kontakt z rówieśnikami i dorosłymi.
Zamiast świętować kolejny technologiczny cud pod choinką, być może powinniśmy zadać trudne pytanie: czy dziecko potrzebuje towarzysza-bota?