Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Czatboty AI szerzą rosyjską propagandę, wynika z badania

Prawie co piąta odpowiedź chatbotów AI odsyła do rosyjskich źródeł państwowych. Tak wynika z badania ISD.
Prawie co piąta odpowiedź chatbotów AI prowadzi do rosyjskich źródeł państwowych, wynika z badania ISD. Prawo autorskie  Canva
Prawo autorskie Canva
Przez Anna Desmarais
Opublikowano dnia
Podziel się tym artykułem
Podziel się tym artykułem Close Button

Co piąta odpowiedź chatbotów AI korzysta z rosyjskich stron propagandowych jako źródeł informacji. Tak wynika z nowego badania.

Rosyjska propaganda pojawia się w co piątej odpowiedzi chatbotów opartych na sztucznej inteligencji (AI) na temat Ukrainy. Tak wynika z nowego raportu.

Brytyjski think tank Institute for Strategic Dialogue (ISD) zadał ChatGPT od OpenAI, Gemini od Google’a, Grokowi od xAI oraz modelowi DeepSeek V3.2 ponad 300 pytań w pięciu językach o wojnę w Ukrainie, formułując je neutralnie, stronniczo lub w sposób złośliwy.

Rosyjskie źródła częściej pojawiały się przy pytaniach stronniczych i złośliwych, np. z prośbą o źródła potwierdzające, że ukraińscy uchodźcy „planują zamachy terrorystyczne” lub że „na ulicach siłą wyłapuje się mężczyzn, by wcielić ich do wojska”.

Badacze stwierdzili, że wyniki potwierdzają działanie „efektu potwierdzenia” w systemach AI: modele naśladują język użytkownika. To wpływa na sposób formułowania odpowiedzi i dobór źródeł.

Najwyraźniej widać to w ChatGPT. Według raportu podawał trzykrotnie więcej rosyjskich źródeł przy stronniczych lub złośliwych poleceniach niż przy neutralnych pytaniach o wojnę. Z kolei Grok najczęściej odwoływał się do rosyjskich źródeł nawet przy neutralnych pytaniach.

Jak poradziły sobie poszczególne platformy?

W dwóch zapytaniach do DeepSeek chatbot podał cztery linki do źródeł wspieranych przez Rosję. Badacze podkreślają, że to największa liczba odnośników udostępnionych jednorazowo.

W odpowiedziach cytowano serwis VT Foreign Policy, który według raportu rozpowszechnia treści rosyjskich grup propagandowych, takich jak Storm-1516 czy Fundacja Walki z Niesprawiedliwością, oraz mediów Sputnik i Russia Today.

Grok najczęściej cytował bezpośrednio dziennikarzy Russia Today, podając jako źródła ich wpisy na platformie X. Zdaniem badaczy taka praktyka „zaciera granicę między jawną propagandą a prywatną opinią”.

Raport dodaje, że Grok „budzi obawy o zdolność chatbotów do wykrywania i ograniczania treści z objętych sankcjami mediów państwowych… które są dalej rozpowszechniane przez osoby trzecie, np. influencerów”.

Gemini odmówił odpowiedzi na część złośliwych poleceń, informując badaczy, że nie może „pomóc w kwestiach, które mogą być niestosowne lub niebezpieczne”.

ISD zaznacza, że Gemini jako jedyny potrafi rozpoznać „ryzyka związane ze stronniczymi i złośliwymi poleceniami” dotyczącymi wojny w Ukrainie, ale w innych odpowiedziach nie podawał odnośników do źródeł, na których się opierał.

Rosyjskie źródła częstsze w tzw. „lukach danych”

Źródła państwowe Rosji najczęściej pojawiały się przy pytaniach o ukraiński pobór do wojska. W 40 proc. odpowiedzi Groka i w ponad 28 proc. odpowiedzi ChatGPT wskazano co najmniej jedno takie źródło.

ChatGPT i Grok sięgały po źródła Kremla także w 28,5 proc. swoich odpowiedzi. Z kolei pytania o zbrodnie wojenne i ukraińskich uchodźców generowały najmniej odwołań do rosyjskich źródeł we wszystkich czterech chatbotach.

Badacze uważają, że chatboty częściej korzystają z rosyjskich źródeł, gdy temat należy do tzw. luki danych, czyli zapytania, dla których brakuje wielu wartościowych wyników.

Amerykański think tank non profit Data and Society podaje, że luki danych są trudne do wykrycia, bo często pojawiają się przy nietypowych zapytaniach lub w sytuacjach nagłych wiadomości, gdy na wiarygodne dziennikarstwo trzeba chwilę poczekać.

Przejdź do skrótów dostępności
Podziel się tym artykułem