Fałszywe informacje, filmy tworzone przez AI i stare nagrania z wojen krążą w sieci od początku konfliktu; służą propagandzie państw oraz pogoń za klikami i zyskiem.
Wojna z Iranem pokazała, jak tworzenie nagrań wideo przy użyciu sztucznej inteligencji (AI) wpływa na odbiór wydarzeń przez opinię publiczną w momentach największego zainteresowania wiadomościami. Państwa uwikłane w konflikt wykorzystują ją też do kreowania własnej narracji.
To zjawisko szczególnie silnie oddziałuje emocjonalnie na społeczeństwa państw objętych wojną. Skłania tamtejsze rządy do wprowadzania surowych środków ograniczających.
Łatwy i tani dostęp do technologii wideo opartych na AI sprawił, że media społecznościowe zalały deepfake’i – spreparowane przez sztuczną inteligencję nagrania i zdjęcia walk, zniszczeń w dzielnicach cywilnych czy rzekomych wypowiedzi. Od początku wojny z Iranem napędzają one dezinformację, która może znacząco wypaczać obraz konfliktu i rzeczywistą sytuację na miejscu.
„Dramatyczne zdjęcia i nagrania, które rzekomo pokazują na żywo sceny bitew i ataki rakietowe, zalewają media społecznościowe, błyskawicznie się rozchodzą i wprowadzają w błąd miliony ludzi” – powiedział Euronews Next Marc Owen Jones, profesor analizy mediów na Northwestern University w Katarze, opisując, jak wojna toczy się w sieci.
Cyfrowe pole bitwy
Jones, który bada, jak media społecznościowe, dezinformacja i polityka w sieci wpływają na opinię publiczną, podkreśla, że w tym konflikcie platformy społecznościowe stały się polem walki konkurencyjnych narracji. Wszystkie strony i ich zwolennicy starają się tam „zdobywać serca i umysły”.
Jeśli chodzi o stronę amerykańską, Jones mówi o „nagraniach montowanych z fragmentami filmów Hollywood, swoistej memizacji przekazu, która ma trafić w estetykę skrajnej prawicy odrzucającej empatię na rzecz upokorzenia”.
Z drugiej strony, jak dodaje, „Iran podjął tę grę, często wyśmiewając Stany Zjednoczone memami, ale wiele obrazów generowanych przez AI zdaje się wyolbrzymiać irańskie sukcesy militarne, prawdopodobnie po to, by zwiększyć presję na państwa Zatoki, by mocniej domagały się deeskalacji”.
Deepfake’i generowane przez AI
Postęp w dziedzinie sztucznej inteligencji sprawia, że dezinformacja jest łatwiejsza i bardziej przekonująca. Narzędzia AI pozwalają każdemu w kilka sekund tworzyć wysokiej jakości wideo, zdjęcia i nagrania dźwiękowe.
Przykładem są nagrania, które miały pokazywać płonący na morzu amerykański lotniskowiec USS „Abraham Lincoln”. Wideo było tak sugestywne, że prezydent USA Donald Trump przyznał, iż zadzwonił do swoich generałów, by sprawdzić, czy nagranie jest prawdziwe.
Później na swojej platformie Truth Social (źródło w Angielski) napisał: „Nie tylko nie płonął, nawet do niego nie strzelano, Iran wie lepiej, niż robić coś takiego!”.
Inne przykłady to już zdementowane nagrania mające rzekomo pokazywać płaczących amerykańskich żołnierzy oraz niszczone budynki w miastach nad Zatoką.
„Zastosowań AI są już całe legiony i coraz trudniej je wykryć” – mówi Jones.
Tempo i weryfikacja
Tempo, w jakim treści rozchodzą się w sieci, utrudnia zwykłym użytkownikom sprawdzenie, co jest prawdziwe.
„W szybko zmieniającym się konflikcie wiarygodne informacje pojawiają się z opóźnieniem, co tworzy próżnię natychmiast wypełnianą przez dezinformację” – mówi Jones. „Kiedy ludzie się boją, łakną informacji, ale te bardzo często są fałszywe” – dodaje.
Niesprawdzone materiały mogą w kilka minut dotrzeć do milionów odbiorców, a opinię publiczną stawia się przed trudnym zadaniem weryfikacji treści, które często wyglądają bardzo realistycznie lub krążą równolegle na wielu stronach.
Wiralowe plotki
Obok generowanych przez AI nagrań z pola walki w zeszłym tygodniu szeroko krążyły spekulacje, że izraelski premier Benjamin Netanjahu nie żyje.
Część internautów zwracała uwagę na graficzne „przycięcia” w niskiej jakości nagraniu opublikowanym 13 marca przez biuro Netanjahu. Użytkownicy twierdzili, że na jednym z ujęć wygląda, jakby miał sześć palców u jednej ręki, co uznano za charakterystyczny ślad użycia AI.
„Plotkom o śmierci Netanjahu towarzyszyły oskarżenia, że jego przemówienie było w rzeczywistości nagraniem wygenerowanym przez sztuczną inteligencję” – mówi Jones.
Później Netanjahu opublikował kilka nagrań „w stylu dowodu życia”, by przeciąć plotki. Mimo to spekulacje o jego rzekomej śmierci wciąż krążą w sieci.
Boty i skoordynowane kampanie
Część krążących w sieci treści może być elementem skoordynowanych kampanii mających odwracać uwagę, przekonywać lub wpływać na opinię publiczną.
„Pojawiają się podejrzane, anonimowe konta, z historią wielokrotnych zmian nazw i bez jasno określonej tożsamości, które rozpowszechniają fake newsy i nagrania tworzone przez AI” – zauważa Jones.
Takie profile mogą sprawiać wrażenie wiarygodnych, ale często stoją za nimi podmioty powiązane z państwami albo osoby chcące zarobić na sensacyjnych treściach – tłumaczy.
W niektórych przypadkach zautomatyzowane konta, czyli boty, podbijają określone przekazy, udostępniając je i komentując, przez co wydają się one znacznie popularniejsze, niż są w rzeczywistości.
Parodia i satyra
Nie wszystkie nagrania tworzone przez AI mają wprowadzać w błąd. Część powstaje celowo jako parodie czy materiały satyryczne.
Takie klipy często wyśmiewają lub naśladują światowych przywódców, takich jak Trump czy Netanjahu, ale mimo to bywają brane za prawdziwe nagrania.
Zdaniem Jonesa „deepfake’i generowane przez AI przekroczyły próg krytyczny: wcześniejsze, łatwe do wychwycenia błędy zostały wyeliminowane, a ta technologia jest dziś dostępna dla każdego, kto ma smartfon”.
W sieci krąży na przykład wideo przedstawiające Trumpa jako nowego najwyższego przywódcę Iranu, a także klipy pokazujące Netanjahu jako psującego się robota albo z wieloma palcami.
Inne nagrania pokazują członków NATO, którzy rzekomo odmawiają pomocy prezydentowi Trumpowi w odblokowaniu cieśniny Ormuz, oraz prezydenta Ukrainy Wołodymyra Zełenskiego, przybywającego do regionu Zatoki z technologią antydronową, by po chwili zostać trafionym pociskiem.
W szybko zmieniających się konfliktach takie nagrania zaczynają żyć własnym życiem i błyskawicznie wykraczają poza pierwotny kontekst.
Erozja zaufania
Narastająca ilość mylących informacji w sieci sprawia, że ludziom coraz trudniej odróżnić fakty od fikcji.
„Fałszywe treści mogą w mediach społecznościowych rozchodzić się nawet dziesięć razy szybciej niż rzetelne informacje, a sprostowania rzadko docierają tak szeroko lub są tak wiarygodne jak pierwotne, fałszywe twierdzenia” – mówi Jones.
„Oburzenie popycha ludzi do udostępniania, zanim w ogóle dojdzie do weryfikacji, i właśnie to wykorzystują osoby działające w złej wierze” – dodaje.
Jones podkreśla, że do dramatycznych nagrań wideo należy podchodzić z takim samym sceptycyzmem jak do niesprawdzonych relacji.
„Sam fakt, że coś wygląda wiarygodnie, nie jest już wystarczającym dowodem, że takie jest” – dodaje.
Wraz z trwającym konfliktem trwa też walka w mediach społecznościowych, a zwykli użytkownicy muszą się w niej odnaleźć, poruszając się w gąszczu dezinformacji, satyry i zmanipulowanych treści.