Filmy na TikToku pokazują młode dziewczyny w zseksualizowanych ubraniach lub w sugestywnych pozycjach z linkami w komentarzach do grup sprzedających pornografię dziecięcą na Telegramie.
Według raportu, filmy generowane przez sztuczną inteligencję (AI), które pokazują młode dziewczyny w odsłaniających ubraniach lub pozycjach, zyskały miliony polubień i udostępnień na TikTok, mimo że treści te są zabronione.
Hiszpańska organizacja Maldita zajmująca się sprawdzaniem faktów znalazła ponad 20 kont na platformie, które opublikowały ponad 5 200 filmów przedstawiających młode dziewczyny w bikini, mundurkach szkolnych i obcisłych ubraniach. Łącznie konta te mają już ponad 550 000 obserwujących i prawie 6 milionów polubień.
W komentarzach znajdują się linki do zewnętrznych platform, takich jak Telegram, które sprzedają pornografię dziecięcą, jak wynika z analizy. Maldita oświadczyła, że zgłosiła hiszpańskiej policji 12 grup Telegram znalezionych w swoim badaniu.
Konta generują również zysk, sprzedając filmy i obrazy generowane przez sztuczną inteligencję za pośrednictwem usługi subskrypcji TikTok, która płaci twórcom miesięczną opłatę za dostęp do ich treści. Zgodnie z umową z twórcami, platforma otrzymuje około 50 procent zysków z tego modelu.
Raport pojawia się, gdy kraje na całym świecie, takie jak Australia, Dania i Unia Europejska, albo wprowadziły ograniczenia w mediach społecznościowych dla użytkowników poniżej 16 roku życia, albo omawiają je jako sposób na zapewnienie młodym ludziom bezpieczeństwa w Internecie.
TikTok wymaga, aby twórcy treści oznaczali, kiedy sztuczna inteligencja została wykorzystana do stworzenia filmu. Treści mogą również zostać usunięte z platformy mediów społecznościowych, jeśli zostaną uznane za "szkodliwe dla osób", zgodnie z wytycznymi dla społeczności.
Raport Maldita wykazał jednak, że większość przeanalizowanych przez nich filmów nie miała żadnych znaków wodnych ani innych oznaczeń, że użyto w nich sztucznej inteligencji.
Niektóre filmy miały znak wodny "TikTok AI Alive", który jest automatycznie używany do robienia zdjęć i przekształcania ich w filmy na platformie.
W oświadczeniu dla Euronews Next, Telegram i TikTok twierdzą, że są "w pełni zaangażowane" w zapobieganie materiałom przedstawiającym seksualne wykorzystywanie dzieci na swojej platformie.
Telegram skanuje wszystkie media przesyłane na swoją publiczną platformę i porównuje je z materiałami przedstawiającymi seksualne wykorzystywanie dzieci, które zostały już usunięte z platformy, aby zapobiec ich rozpowszechnianiu.
"Fakt, że przestępcy muszą korzystać z prywatnych grup i algorytmów innej platformy, aby się rozwijać, jest dowodem na skuteczność własnej moderacji Telegrama" - czytamy w oświadczeniu.
Telegram poinformował, że w 2025 roku usunął ponad 909 000 grup i kanałów zawierających materiały przedstawiające seksualne wykorzystywanie dzieci.
Jeśli chodzi o TikToka, platforma przekazała, że 99 procent treści szkodliwych dla nieletnich jest usuwanych automatycznie, a kolejne 97 procent obraźliwych treści generowanych przez sztuczną inteligencję zostało również usuniętych proaktywnie.
Platforma twierdzi, że reaguje natychmiast, aby stłumić lub zamknąć konta, które udostępniają treści o charakterze jednoznacznie seksualnym dla dzieci i sygnalizuje to Narodowemu Centrum Zaginionych i Wyzwolonych Dzieci w Stanach Zjednoczonych (NCMEC).
TikTok przekazał również CNN, że usunął ponad 189 milionów filmów i zablokował ponad 108 milionów kont między kwietniem a czerwcem 2025 roku.