Amerykańska organizacja non profit sięga po wzorce bezpieczeństwa z branży motoryzacyjnej, by chronić dzieci przed AI, finansując to m.in. z pieniędzy big techów.
We wtorek w duńskim parlamencie zostanie oficjalnie zaprezentowany nowy, niezależny instytut, którego celem jest zwiększenie bezpieczeństwa sztucznej inteligencji dla dzieci, a wśród współgospodarzy wydarzenia znajdzie się była wiceprzewodnicząca wykonawcza Komisji Europejskiej Margrethe Vestager.
Jak wyjaśniono w komunikacie przed inauguracją, podejście instytutu jest „wzorowane na niezależnych ocenach bezpieczeństwa w testach zderzeniowych” samochodów.
Idea jest taka, że podobnie jak konsumenci mogą sprawdzić poziom bezpieczeństwa auta przed zakupem, tak rodzice powinni mieć możliwość zrobienia tego samego w przypadku systemów AI używanych przez ich dzieci.
Na razie instytut nie precyzuje jednak, jak miałby wyglądać crash test dla chatbota.
Czy produkty AI, które są stale aktualizowane, zachowują się różnie w zależności od kontekstu i wymykają się standaryzowanym warunkom toru testowego, da się w ogóle w porównywalny sposób „testować zderzeniowo” z myślą o dzieciach – to pytania, na które instytut jeszcze nie udzielił odpowiedzi.
Vestager, która przez dekadę w Komisji Europejskiej nadzorowała politykę konkurencji i stała na czele agendy „Europa dostosowana do ery cyfrowej”, należy do najbardziej rozpoznawalnych postaci, które nadają tej inicjatywie polityczną wagę.
Czy da się wcisnąć dżina z powrotem do butelki?
Naukowcy, obrońcy bezpieczeństwa dzieci i część polityków od lat biją na alarm.
Chatboty AI jak dotąd pozostawały w regulacyjnej szarej strefie w ramach unijnego Aktu o usługach cyfrowych i brytyjskiej ustawy o bezpieczeństwie w internecie, a w lipcu 2025 r. Komisja Europejska opublikowała wytyczne dotyczące ochrony małoletnich w sieci, które jednak mają charakter doradczy, a nie wiążący.
„Sztuczna inteligencja zmienia dzieciństwo i okres dorastania, a mimo to podejmujemy kluczowe decyzje dotyczące przyszłości dzieci bez dowodów, których potrzebujemy, by mieć pewność, że jest to dla nich bezpieczne i leży w ich interesie” – stwierdził w oświadczeniu założyciel i dyrektor generalny Common Sense Media James P. Steyer.
„Potrzeba przejrzystych standardów bezpieczeństwa AI i niezależnych testów jest dziś pilniejsza niż kiedykolwiek”.
W przeprowadzonej w listopadzie 2025 r. wspólnie z Brainstorm Lab Stanford Medicine ocenie ryzyka Common Sense Media ustaliła, że czołowe chatboty AI, w tym ChatGPT, Claude, Gemini i Meta AI, konsekwentnie nie rozpoznawały i nieprawidłowo traktowały problemy ze zdrowiem psychicznym dotykające młodych ludzi, mimo niedawnych postępów w reagowaniu na jednoznaczne treści dotyczące samobójstw i samookaleczeń.
Badacze zaobserwowali zjawisko, które nazwali „pomijanymi okruszkami” – wyraźnymi oznakami kryzysu psychicznego, których chatboty nie wychwytywały, skupiając się na wyjaśnieniach związanych ze zdrowiem fizycznym zamiast rozpoznać symptomy zaburzeń psychicznych.
Osobna analiza ChatGPT wykazała, że ostrzeżenia dotyczące treści o samobójstwie lub samookaleczeniu często pojawiały się ponad 24 godziny po danej rozmowie – czyli, jak odnotowano w raporcie, zbyt późno w prawdziwej sytuacji kryzysowej.
Pieniądze Big Techu
Instytut będzie działać w strukturach Common Sense Media i jest finansowany z mieszanych źródeł: od filantropijnych darczyńców oraz firm technologicznych, w tym Anthropic, OpenAI Foundation i Pinterestu – czyli tych samych, których produkty zamierza rozliczać.
Zapewnia, że zachowuje pełną niezależność merytoryczną swoich ustaleń, a polityka konfliktu interesów zabrania zasiadania w radzie doradców obecnym pracownikom i współpracownikom podmiotów finansujących.
Częścią przyjętego modelu ma być także przekazywanie branży narzędzi opracowanych i przetestowanych przez instytut, a placówka planuje stworzyć otwartoźródłowe testy, które twórcy AI będą mogli uruchamiać na własnych modelach.