Moskwa wykorzystuje generowane przez sztuczną inteligencję filmy przedstawiające ukraińskich żołnierzy, aby przedstawić kraj jako słaby i podważyć zaufanie do jego centralnego dowództwa.
Wideo opublikowane w mediach społecznościowych pokazuje zrozpaczonego ukraińskiego żołnierza, który obraca kamerę, aby odsłonić okopy wyłożone ciałami martwych i rannych żołnierzy. Filmy te ukazują mrożącą krew w żyłach rzeczywistość, której doświadcza wielu Ukraińców walczących z rosyjskimi wojskami na linii frontu - kluczowym elemencie współczesnych działań wojennych.
Jednak w rzeczywistości ten szeroko udostępniany materiał filmowy jest wygenerowany przez sztuczną inteligencję, co zostało zweryfikowane przez firmę Sensity AI zajmującą się wykrywaniem tego typu działań.
Naukowcy z Sensity ostrzegają, że deepfake'i są wykorzystywane do manipulowania opinią publiczną i podważania zaufania do wojska, na podstawie autentycznych filmów przedstawiających ukraińskich żołnierzy dokumentujących ich codzienne życie z ziemi.
Klipy mają wyglądać jak autentyczne nagrania z linii frontu. Na przykład w innym filmie opublikowanym w mediach społecznościowych można zobaczyć żołnierza krytykującego dowództwo ukraińskiej armii.
"Nie chcę z nimi służyć" - mówi żołnierz na filmie. "I ja też ich nie potrzebuję".
Sensity znalazło ponad tysiąc podobnych filmów w mediach społecznościowych, identyfikując podstawowy zbiór danych 60 filmów zmanipulowanych przez sztuczną inteligencję.
Filmy te zawierają twarze wygenerowane przez sztuczną inteligencję, a także nienaturalne głosy. W niektórych przypadkach autentyczne nagrania są łączone z elementami wygenerowanymi przez AI, co utrudnia wykrycie niespójności.
Od TikToka do Pravdy
Według Sensity, filmy te mają spójny wzorzec, aby upewnić się, że są szeroko rozpowszechniane w mediach społecznościowych, zalewając kanały użytkowników. W partii analizowanej przez Sensity filmy są zazwyczaj przesyłane na platformy takie jak TikTok lub Telegram z nowo utworzonych lub anonimowych kont.
Gdy zaczynają przyciągać zaangażowanie: wyświetlenia, polubienia i komentarze, są one następnie ponownie publikowane na platformach takich jak X, Facebook, Instagram i YouTube. Na tych platformach algorytmy nagradzają treści naładowane emocjonalnie, rozpowszechniając je dalej na osiach czasu użytkowników.
Gdy ta narracja krąży w mediach społecznościowych, Sensity donosi, że prorosyjscy blogerzy wojskowi lub prokremlowskie strony medialne, takie jak sieć Pravda, podchwytują treści.
Podkopywanie morale
Mimo że filmy różnią się od siebie, prezentują podobną narrację z zamiarem wpłynięcia na sposób postrzegania wojny.
Obejmuje to pokazywanie żołnierzy zrozpaczonych sytuacją na linii frontu, twierdzenia, że ukraińskie dowództwo wojskowe jest nieodpowiednie lub nieobecne, a także zarzuty dotyczące złego zarządzania ukraińską armią.
Wiele z tych filmów ma również na celu normalizację kapitulacji, pokazując ukraińskich żołnierzy twierdzących, że porzucenie swoich stanowisk jest jedynym sposobem na wyjście z wojny.
Według założyciela Sensity, Francesco Cavalli, celem tych filmów jest podważenie zaufania do ukraińskich instytucji i dowództwa wojskowego, a także osłabienie morale.
"Prawdziwe niebezpieczeństwo związane z tymi filmami na platformach takich jak TikTok i Meta nie polega po prostu na tym, że niektórzy użytkownicy mogą w nie uwierzyć, ale na tym, że mogą one kształtować percepcję na dużą skalę, wprowadzać zamieszanie w szybko zmieniające się wydarzenia i stopniowo podważać zaufanie do tego, co ludzie widzą" - powiedział.
"Stary strach to jedno fałszywe wideo prezydenta. Nowa rzeczywistość to tysiące syntetycznych filmów skierowanych do mniejszych odbiorców, w których żaden pojedynczy klip nie musi stać się wiralowy, aby był skuteczny".