Dochodzenie wykazało, że co najmniej 150 kont udostępniło „miliony" postów na X w ciągu zaledwie czterech dni w lipcu, które zachęcały użytkowników do kupowania materiałów związanych z wykorzystywaniem dzieci.
Europejscy naukowcy odkryli coś, co ich zdaniem jest skoordynowaną siecią sprzedaży i dystrybucji seksualnie jednoznacznych zdjęć dzieci na platformie mediów społecznościowych X.
Organizacja non-profit Alliance4Europe znalazła co najmniej 150 kont, które udostępniały materiały przedstawiające seksualne wykorzystywanie dzieci (CSAM) na platformie tylko w ciągu czterech dni w lipcu. W raporcie oszacowano, że skoordynowana sieć rozpoczęła działalność około 17 maja.
Badacze szacują, że sieć udostępniła „miliony" postów i że „operacja trwała w dużej mierze niezakłócona" na platformie X, która jest prowadzona przez miliardera Elona Muska.
Raport pojawia się po tym, jak amerykański sąd wznowił w zeszłym tygodniu część pozwu przeciwko X, który oskarżył firmę o zaniedbanie - chodziło o rzekome niezgłoszenie bezzwłocznie wideo z wyraźnymi zdjęciami młodych chłopców do amerykańskiego Centrum Dzieci Zaginionych i Wykorzystywanych (NCMEC).
Tymczasem w Unii Europejskiej trwa debata na temat tego, jak najlepiej radzić sobie z zalewem treści przedstawiających wykorzystywanie dzieci w Internecie, przy jednoczesnym poszanowaniu praw obywateli do prywatności cyfrowej.
Popularne posty przedstawiały seksualne wykorzystywanie dzieci
Zgodnie z analizą, sieć przestępcza połączyła określone hashtagi z treściami związanymi z wykorzystywaniem dzieci, które były następnie podbijane lub rozpowszechniane przez nowe konta. Konta te komentowały lub ponownie publikowały treści, aby zwiększyć zaangażowanie odbiorców.
Hashtagi były używane jako „agregatory" treści związanych z seksualnym wykorzystywaniem dzieci, „ułatwiając odkrycie innych hashtagów i nowych kont CSAM" - stwierdzono w raporcie.
Niektóre z postów były niezwykle drastyczne. Zawierały one filmy przedstawiające dzieci, które zostały „zaatakowane seksualnie, zgwałcone lub... w inny sposób wyraźnie obnażone" - czytamy w raporcie.
Wiele z udostępnionych postów zawierało linki do czatów online Telegram lub Discord, stron randkowych lub stron sprzedających foldery z treściami przedstawiającymi wykorzystywanie seksualne dzieci.
Jedna ze wzmocnionych stron zawierała link do aktywnego adresu portfela Bitcoin, który zgromadził 660 USD (573 EUR) w 23 transakcjach, co według raportu „potencjalnie potwierdza, że operacja dociera do osób, które kupują dostęp do treści".
„Nowe konta są tworzone w sposób ciągły"
Kiedy badacze zgłosili dwa początkowe posty do X, powiedzieli, że platforma zaczęła szybciej usuwać fragmenty treści.
X zaczął blokować dostęp do treści użytkownikom, którzy jego zdaniem byli niepełnoletni. Badacze stwierdzili, że utrudniło to, ale nie zatrzymało działań operacyjnych.
„Nowe konta są tworzone w sposób ciągły, co sugeruje nawet pewien rodzaj automatyzacji, zapewniając stały dostęp do treści CSAM" - czytamy w raporcie.
Naukowcy stwierdzili, że podejście X do usuwania nielegalnych treści może w rzeczywistości ułatwić rozprzestrzenianie się tych postów - i utrudnić gromadzenie dowodów.
„Nie tolerujemy wykorzystywania seksualnego dzieci"
Euronews Next skontaktował się z X, aby poprosić o komentarz w sprawie ustaleń Alliance4Europe oraz o wyjaśnienie, czy firma wprowadziła ostatnio jakiekolwiek zmiany związane z treściami CSAM na swojej platformie. Nie otrzymaliśmy natychmiastowej odpowiedzi.
Jednak w czerwcu zespół ds. bezpieczeństwa X stwierdził w oświadczeniu, że ma „zerową tolerancję dla wykorzystywania seksualnego dzieci w jakiejkolwiek formie".
Platforma poinformowała o uruchomieniu nowych „działań dopasowujących skróty” CSAM, które pozwalają jej zespołowi „szybko i bezpiecznie dopasowywać treści multimedialne” bez narażania prywatności użytkownika.
Hashing to technika używana przez algorytm do tworzenia „odcisków palców" plików w systemie komputerowym, a porównywanie jednego skrótu z innym przechowywanym w bazie danych nazywa się „dopasowywaniem skrótu".
Gdy X znajdzie treści przedstawiające seksualne wykorzystywanie dzieci, działa „szybko", aby zawiesić konto i zgłosić je do amerykańskiego NCMEC. W 2024 roku firma X wysłała do centrum 686 176 raportów i zawiesiła 4,5 miliona kont związanych z CSAM.
Platforma dodała, że doprowadziło to do 94 aresztowań i jednego wyroku skazującego. NCMEC potwierdziło te liczby jako najnowsze w oświadczeniu dla Euronews Next.
„Zainwestowaliśmy w zaawansowaną technologię i narzędzia, aby powstrzymać złych aktorów przed dystrybucją, wyszukiwaniem lub angażowaniem się w treści związane z wyzyskiem we wszystkich formatach medialnych na X" - powiedziała firma w czerwcu.