Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Margrethe Vestager wspiera nowy AI Safety Institute dla dzieci po dekadzie regulacji Big Tech

Na zdjęciu archiwalnym: wiceprzewodnicząca wykonawcza Komisji Europejskiej Margrethe Vestager zwraca się do mediów
Na zdjęciu z archiwum: wiceprzewodnicząca wykonawcza Komisji Europejskiej Margrethe Vestager przemawia do mediów Prawo autorskie  File- AP Photo/Michael Sohn, pool
Prawo autorskie File- AP Photo/Michael Sohn, pool
Przez Una Hajdari
Opublikowano dnia
Udostępnij
Udostępnij Close Button

Amerykańska organizacja non profit sięga po wzorce bezpieczeństwa z branży motoryzacyjnej, by chronić dzieci przed AI, finansując to m.in. z pieniędzy big techów.

We wtorek w duńskim parlamencie zostanie oficjalnie zaprezentowany nowy, niezależny instytut, którego celem jest zwiększenie bezpieczeństwa sztucznej inteligencji dla dzieci, a wśród współgospodarzy wydarzenia znajdzie się była wiceprzewodnicząca wykonawcza Komisji Europejskiej Margrethe Vestager.

REKLAMA
REKLAMA

Jak wyjaśniono w komunikacie przed inauguracją, podejście instytutu jest „wzorowane na niezależnych ocenach bezpieczeństwa w testach zderzeniowych” samochodów.

Idea jest taka, że podobnie jak konsumenci mogą sprawdzić poziom bezpieczeństwa auta przed zakupem, tak rodzice powinni mieć możliwość zrobienia tego samego w przypadku systemów AI używanych przez ich dzieci.

Na razie instytut nie precyzuje jednak, jak miałby wyglądać crash test dla chatbota.

Czy produkty AI, które są stale aktualizowane, zachowują się różnie w zależności od kontekstu i wymykają się standaryzowanym warunkom toru testowego, da się w ogóle w porównywalny sposób „testować zderzeniowo” z myślą o dzieciach – to pytania, na które instytut jeszcze nie udzielił odpowiedzi.

Vestager, która przez dekadę w Komisji Europejskiej nadzorowała politykę konkurencji i stała na czele agendy „Europa dostosowana do ery cyfrowej”, należy do najbardziej rozpoznawalnych postaci, które nadają tej inicjatywie polityczną wagę.

Czy da się wcisnąć dżina z powrotem do butelki?

Naukowcy, obrońcy bezpieczeństwa dzieci i część polityków od lat biją na alarm.

Chatboty AI jak dotąd pozostawały w regulacyjnej szarej strefie w ramach unijnego Aktu o usługach cyfrowych i brytyjskiej ustawy o bezpieczeństwie w internecie, a w lipcu 2025 r. Komisja Europejska opublikowała wytyczne dotyczące ochrony małoletnich w sieci, które jednak mają charakter doradczy, a nie wiążący.

„Sztuczna inteligencja zmienia dzieciństwo i okres dorastania, a mimo to podejmujemy kluczowe decyzje dotyczące przyszłości dzieci bez dowodów, których potrzebujemy, by mieć pewność, że jest to dla nich bezpieczne i leży w ich interesie” – stwierdził w oświadczeniu założyciel i dyrektor generalny Common Sense Media James P. Steyer.

„Potrzeba przejrzystych standardów bezpieczeństwa AI i niezależnych testów jest dziś pilniejsza niż kiedykolwiek”.

W przeprowadzonej w listopadzie 2025 r. wspólnie z Brainstorm Lab Stanford Medicine ocenie ryzyka Common Sense Media ustaliła, że czołowe chatboty AI, w tym ChatGPT, Claude, Gemini i Meta AI, konsekwentnie nie rozpoznawały i nieprawidłowo traktowały problemy ze zdrowiem psychicznym dotykające młodych ludzi, mimo niedawnych postępów w reagowaniu na jednoznaczne treści dotyczące samobójstw i samookaleczeń.

Badacze zaobserwowali zjawisko, które nazwali „pomijanymi okruszkami” – wyraźnymi oznakami kryzysu psychicznego, których chatboty nie wychwytywały, skupiając się na wyjaśnieniach związanych ze zdrowiem fizycznym zamiast rozpoznać symptomy zaburzeń psychicznych.

Osobna analiza ChatGPT wykazała, że ostrzeżenia dotyczące treści o samobójstwie lub samookaleczeniu często pojawiały się ponad 24 godziny po danej rozmowie – czyli, jak odnotowano w raporcie, zbyt późno w prawdziwej sytuacji kryzysowej.

Pieniądze Big Techu

Instytut będzie działać w strukturach Common Sense Media i jest finansowany z mieszanych źródeł: od filantropijnych darczyńców oraz firm technologicznych, w tym Anthropic, OpenAI Foundation i Pinterestu – czyli tych samych, których produkty zamierza rozliczać.

Zapewnia, że zachowuje pełną niezależność merytoryczną swoich ustaleń, a polityka konfliktu interesów zabrania zasiadania w radzie doradców obecnym pracownikom i współpracownikom podmiotów finansujących.

Częścią przyjętego modelu ma być także przekazywanie branży narzędzi opracowanych i przetestowanych przez instytut, a placówka planuje stworzyć otwartoźródłowe testy, które twórcy AI będą mogli uruchamiać na własnych modelach.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

Anthropic: historie o „złej SI” miały skłonić Claude'a do szantażu

Musk nazwał kiedyś Anthropic „złą”. Teraz napędza ekspansję jej „woke” AI

Młodzi aktywiści w Europie przeciw całkowitym zakazom mediów społecznościowych