Niezależne sprawdzanie, analizowanie szczegółów na zdjęciu i ufanie weryfikatorom faktów pomagają ocenić, czy obraz mógł powstać w AI.
Z okazji dziesiątego Międzynarodowego Dnia Fact-checkingu warto przypomnieć sobie, jak rozpoznawać dezinformację tworzoną przez sztuczną inteligencję.
Tego typu treści pojawiają się dziś wszędzie – od konfliktu USA–Iran, przez okres poprzedzający wybory na Węgrzech, po prywatne kanały w mediach społecznościowych.
W niedawnym badaniu opublikowanym w czasopiśmie PNAS Nexus 27 tys. osób z 27 krajów UE poproszono, by oceniły osiem nagłówków – napisanych przez ludzi i wygenerowanych przez AI – pod kątem tego, jak bardzo wydają im się prawdziwe.
Za „w większości” lub „w pełni” prawdziwe uznano prawie połowę nagłówków wygenerowanych przez AI, wobec 44 proc. nagłówków przygotowanych przez dziennikarzy. Respondenci częściej deklarowali też, że udostępnią i zaufają materiałowi stworzonemu przez AI niż tekstowi napisanemu przez człowieka, jeśli wiedzieli, że dotyczy on realnego wydarzenia.
Jednocześnie przyznawali, że rzadziej udostępniają materiał – niezależnie od autora – jeśli wiedzą, że jest fałszywy.
Zdaniem badaczy wyniki pokazują, że odbiorcy nie potrafią odróżnić treści tworzonych przez ludzi od tych generowanych przez sztuczną inteligencję.
Oto kilka wskazówek, które mogą w tym pomóc.
Szukaj wizualnych oznak
Pierwsze krążące w sieci nagrania tworzone przez AI miały oczywiste „wpadki”: postaci z nadmiarem palców, głos niesynchronizowany z ruchem ust lub dźwiękiem, zniekształcone przedmioty.
Takie sygnały pojawiają się dziś rzadziej, bo technologia się rozwinęła, ale wciąż warto ich szukać.
Uwagę powinny zwrócić wszelkie niekonsekwencje, na przykład samochód, który w jednym kadrze jest, a w następnym znika.
Według Globalnej Sieci Dziennikarstwa Śledczego (GIJN) część obrazów generowanych przez AI może wyglądać zbyt „wygładzona” albo mieć nienaturalny połysk.
GIJN radzi, by oglądając zdjęcie, które może być wygenerowane przez AI, zadać sobie pytanie, czy przedstawiona osoba nie wygląda zbyt idealnie jak na dane okoliczności (na przykład jak z okładki magazynu, choć jest rzekomo w strefie wojny). Warto też przyjrzeć się skórze: czy nie brakuje na niej naturalnej faktury.
Zweryfikuj materiał
Jeśli zdjęcie albo film budzi wątpliwości, można sprawdzić, czy jest autentyczne.
Jedną z metod jest wyszukiwanie odwrotne: robi się zrzut ekranu z nagrania, wgrywa obraz do wyszukiwarki Google i klika ikonę aparatu z napisem „Wyszukaj obraz”.
Po wgraniu pliku Google pokaże wizualnie podobne obrazy i pozwoli szybko ustalić, kiedy dana fotografia pojawiła się w sieci po raz pierwszy.
Taką operację można wykonać też w innych wyszukiwarkach lub za pomocą wyspecjalizowanych narzędzi, takich jak TinEye.
Użytkownicy mogą również sięgnąć po rozwiązania techniczne, które pozwalają prześledzić znaki wodne i metadane danego materiału i ocenić, czy informacje są wiarygodne, jak podkreśla (źródło w Angielski) Komisja Europejska.
Na przykład obrazy tworzone w narzędziu Gemini AI od Google zawierają niewidoczny cyfrowy znak wodny SynthID, który aplikacja potrafi wykryć.
Słuchaj ekspertów
Można też sprawdzić, czy dana fotografia lub nagranie, które krąży w sieci, nie zostało już zdementowane przez media, osoby publiczne lub specjalistów od dezinformacji w mediach społecznościowych.
Zajmują się tym także europejskie organizacje fact-checkingowe, m.in. European Fact-Checking Standards Network (EFCSN), European Digital Media Observatory (EDMO) oraz EUvsDisinfo, prowadzona przez Europejską Służbę Działań Zewnętrznych (EEAS). Publikują one analizy trendów, badania i sprostowania dotyczące różnych form dezinformacji generowanej przez AI.
Takie źródła dysponują zazwyczaj bardziej zaawansowanymi metodami wykrywania treści tworzonych przez AI oraz dostępem do danych o obrazie, których zwykli użytkownicy nie widzą.
Użytkownicy mogą też sprawdzić, czy informacje, które widzą, nie znajdują się w bazie Database of Known Fakes, zbiorze (źródło w Angielski) sprostowań przygotowanych przez dziennikarzy, naukowców i zawodowych fact-checkerów.
Wykorzystaj technologię
Istnieją narzędzia do wykrywania treści generowanych przez AI, choć ich skuteczność w oznaczaniu takich materiałów wciąż budzi spory.
Do takich narzędzi należą m.in. Winston AI, który wykrywa obrazy tworzone przez sztuczną inteligencję, TruthScan, oferujący wstępną ocenę, czy zdjęcie powstało z użyciem AI, oraz Originality AI, które sprawdza, czy tekst został wygenerowany przez algorytm.
Inne programy do tworzenia treści za pomocą AI dodają do nich widoczne znaki wodne.
Takie oznaczenia można jednak często łatwo usunąćlub odciąć przy kadrowaniu, dlatego brak znaku wodnego nie jest dowodem, że obraz jest prawdziwy.
Zwolnij tempo
Zatrzymaj się, weź oddech i nie udostępniaj od razu treści, które mogą być nieprawdziwe.
Twórcy dezinformacji liczą na to, że odbiorcy reagują pod wpływem emocji i swoich utrwalonych poglądów.
Wskazówek mogą dostarczyć komentarze pod postem: inni użytkownicy mogli już zauważyć szczegóły sugerujące, że obraz wygenerowała sztuczna inteligencja.
Nie zawsze da się jednoznacznie stwierdzić, czy obraz powstał z użyciem AI, dlatego warto zachować czujność i dopuszczać możliwość, że nie jest prawdziwy.