Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Naukowcy ostrzegają przed skoordynowaną siecią promującą treści związane z seksualnym wykorzystywaniem dzieci na X

Monitory komputerowe i laptop wyświetlają stronę logowania X, dawniej znaną jako Twitter, 24 lipca 2023 r. w Belgradzie w Serbii
Monitory komputerowe i laptop wyświetlają stronę logowania X, dawniej znaną jako Twitter, 24 lipca 2023 r. w Belgradzie w Serbii Prawo autorskie  AP Photo/Darko Vojinovic, File
Prawo autorskie AP Photo/Darko Vojinovic, File
Przez Anna Desmarais
Opublikowano dnia
Podziel się tym artykułem
Podziel się tym artykułem Close Button

Dochodzenie wykazało, że co najmniej 150 kont udostępniło „miliony" postów na X w ciągu zaledwie czterech dni w lipcu, które zachęcały użytkowników do kupowania materiałów związanych z wykorzystywaniem dzieci.

REKLAMA

Europejscy naukowcy odkryli coś, co ich zdaniem jest skoordynowaną siecią sprzedaży i dystrybucji seksualnie jednoznacznych zdjęć dzieci na platformie mediów społecznościowych X.

Organizacja non-profit Alliance4Europe znalazła co najmniej 150 kont, które udostępniały materiały przedstawiające seksualne wykorzystywanie dzieci (CSAM) na platformie tylko w ciągu czterech dni w lipcu. W raporcie oszacowano, że skoordynowana sieć rozpoczęła działalność około 17 maja.

Badacze szacują, że sieć udostępniła „miliony" postów i że „operacja trwała w dużej mierze niezakłócona" na platformie X, która jest prowadzona przez miliardera Elona Muska.

Raport pojawia się po tym, jak amerykański sąd wznowił w zeszłym tygodniu część pozwu przeciwko X, który oskarżył firmę o zaniedbanie - chodziło o rzekome niezgłoszenie bezzwłocznie wideo z wyraźnymi zdjęciami młodych chłopców do amerykańskiego Centrum Dzieci Zaginionych i Wykorzystywanych (NCMEC).

Tymczasem w Unii Europejskiej trwa debata na temat tego, jak najlepiej radzić sobie z zalewem treści przedstawiających wykorzystywanie dzieci w Internecie, przy jednoczesnym poszanowaniu praw obywateli do prywatności cyfrowej.

Popularne posty przedstawiały seksualne wykorzystywanie dzieci

Zgodnie z analizą, sieć przestępcza połączyła określone hashtagi z treściami związanymi z wykorzystywaniem dzieci, które były następnie podbijane lub rozpowszechniane przez nowe konta. Konta te komentowały lub ponownie publikowały treści, aby zwiększyć zaangażowanie odbiorców.

Hashtagi były używane jako „agregatory" treści związanych z seksualnym wykorzystywaniem dzieci, „ułatwiając odkrycie innych hashtagów i nowych kont CSAM" - stwierdzono w raporcie.

Niektóre z postów były niezwykle drastyczne. Zawierały one filmy przedstawiające dzieci, które zostały „zaatakowane seksualnie, zgwałcone lub... w inny sposób wyraźnie obnażone" - czytamy w raporcie.

Wiele z udostępnionych postów zawierało linki do czatów online Telegram lub Discord, stron randkowych lub stron sprzedających foldery z treściami przedstawiającymi wykorzystywanie seksualne dzieci.

Jedna ze wzmocnionych stron zawierała link do aktywnego adresu portfela Bitcoin, który zgromadził 660 USD (573 EUR) w 23 transakcjach, co według raportu „potencjalnie potwierdza, że operacja dociera do osób, które kupują dostęp do treści".

„Nowe konta są tworzone w sposób ciągły"

Kiedy badacze zgłosili dwa początkowe posty do X, powiedzieli, że platforma zaczęła szybciej usuwać fragmenty treści.

X zaczął blokować dostęp do treści użytkownikom, którzy jego zdaniem byli niepełnoletni. Badacze stwierdzili, że utrudniło to, ale nie zatrzymało działań operacyjnych.

„Nowe konta są tworzone w sposób ciągły, co sugeruje nawet pewien rodzaj automatyzacji, zapewniając stały dostęp do treści CSAM" - czytamy w raporcie.

Naukowcy stwierdzili, że podejście X do usuwania nielegalnych treści może w rzeczywistości ułatwić rozprzestrzenianie się tych postów - i utrudnić gromadzenie dowodów.

„Nie tolerujemy wykorzystywania seksualnego dzieci"

Euronews Next skontaktował się z X, aby poprosić o komentarz w sprawie ustaleń Alliance4Europe oraz o wyjaśnienie, czy firma wprowadziła ostatnio jakiekolwiek zmiany związane z treściami CSAM na swojej platformie. Nie otrzymaliśmy natychmiastowej odpowiedzi.

Jednak w czerwcu zespół ds. bezpieczeństwa X stwierdził w oświadczeniu, że ma „zerową tolerancję dla wykorzystywania seksualnego dzieci w jakiejkolwiek formie".

Platforma poinformowała o uruchomieniu nowych „działań dopasowujących skróty” CSAM, które pozwalają jej zespołowi „szybko i bezpiecznie dopasowywać treści multimedialne” bez narażania prywatności użytkownika.

Hashing to technika używana przez algorytm do tworzenia „odcisków palców" plików w systemie komputerowym, a porównywanie jednego skrótu z innym przechowywanym w bazie danych nazywa się „dopasowywaniem skrótu".

Gdy X znajdzie treści przedstawiające seksualne wykorzystywanie dzieci, działa „szybko", aby zawiesić konto i zgłosić je do amerykańskiego NCMEC. W 2024 roku firma X wysłała do centrum 686 176 raportów i zawiesiła 4,5 miliona kont związanych z CSAM.

Platforma dodała, że doprowadziło to do 94 aresztowań i jednego wyroku skazującego. NCMEC potwierdziło te liczby jako najnowsze w oświadczeniu dla Euronews Next.

„Zainwestowaliśmy w zaawansowaną technologię i narzędzia, aby powstrzymać złych aktorów przed dystrybucją, wyszukiwaniem lub angażowaniem się w treści związane z wyzyskiem we wszystkich formatach medialnych na X" - powiedziała firma w czerwcu.

Przejdź do skrótów dostępności
Podziel się tym artykułem

Czytaj Więcej

Dania usunie "pornograficzny i brzydki" pomnik syreny w Kopenhadze

Wielka operacja przeciw pornografii dziecięcej, dziesiątki aresztowań na świecie

Rusza największy w historii Francji proces dotyczący wykorzystywanie seksualnego dzieci