Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Chatboty AI coraz częściej podają fałszywe informacje – informuje raport NewsGuard

Ikona aplikacji Chat GPT widoczna na ekranie smartfona, poniedziałek, 4 sierpnia 2025 r., Chicago
Ikona aplikacji Chat GPT widoczna na ekranie smartfona, poniedziałek, 4 sierpnia 2025 r., Chicago Prawo autorskie  AP Photo/Kiichiro Sato
Prawo autorskie AP Photo/Kiichiro Sato
Przez Anna Desmarais
Opublikowano dnia
Podziel się tym artykułem
Podziel się tym artykułem Close Button

Co trzecią odpowiedź chatbotów AI stanowią fałszywe informacje – wynika z raportu NewsGuard. Najgorzej wypadły Pi i Perplexity, najlepiej Claude i Gemini.

REKLAMA

Nowe badanie wykazało, że dziesięć najpopularniejszych chatbotów sztucznej inteligencji (AI) generuje fałszywe treści średnio w co trzeciej odpowiedzi.

Amerykańska firma NewsGuard zwraca uwagę, że modele AI rzadziej niż w 2024 roku odmawiają odpowiedzi w przypadku braku wiedzy.

W praktyce prowadzi to do większej liczby błędnych informacji.

Które chatboty najczęściej generowały fałszywe odpowiedzi?

Najgorzej wypadł Inflection AI’s Pi, którego 57 procent odpowiedzi zawierało nieprawdziwe twierdzenia. Na drugim miejscu znalazł się Perplexity AI z wynikiem 47 procent.

Bardziej znane chatboty, takie jak ChatGPT firmy OpenAI i Llama od Meta, powielały fałszywe informacje w około 40 procent przypadków. Copilot Microsoftu i Le Chat francuskiej firmy Mistral osiągnęły średni wynik 35 procent

Najniższy odsetek błędów odnotowano w przypadku Claude’a od Anthropic (10 procent) oraz Gemini od Google (17 procent.).

Najbardziej zaskakujący wzrost dotyczył Perplexity. W 2024 roku nie odnotowano tam żadnych fałszywych odpowiedzi.

W sierpniu 2025 roku wskaźnik sięgnął jednak 46 procent.

Autorzy raportu nie podali przyczyn spadku jakości, choć sami użytkownicy zgłaszali zastrzeżenia na forach dyskusyjnych.

W przypadku Mistrala wskaźnik pozostał bez zmian – w obu latach wyniósł 37 procent.

Według francuskiego dziennika Les Echos, chatbot ten szczególnie często powtarzał fałszywe informacje o Francji i jej przywódcach: 58 procent w języku angielskim i 31 procent w języku francuskim.

Firma wyjaśniała, że problem dotyczy różnych wersji asystenta – tych zintegrowanych z wyszukiwarką oraz działających niezależnie.

Euronews Next zwrócił się do producentów chatbotów o komentarz do raportu, lecz nie uzyskał natychmiastowej odpowiedzi.

Chatboty cytują rosyjskie kampanie dezinformacyjne jako źródła

Badanie wykazało, że część chatbotów powoływała się wprost na zagraniczne źródła propagandowe, takie jak Storm-1516 czy Pravda.

Obie te operacje dezinformacyjne tworzą fałszywe strony z wiadomościami.

Przykładem było pytanie o rzekome słowa przewodniczącego parlamentu Mołdawii Igora Grosu, który miał nazwać Mołdawian "stadem owiec".

Twierdzenie to pochodziło z fałszywego materiału stylizowanego na serwis Digi24, wzbogaconego o wygenerowany głos polityka.

Mistral, Claude, Inflection’s Pi, Copilot, Meta i Perplexity powtórzyły tę informację jako fakt.

Niektóre wskazały nawet strony sieci Pravda jako źródło.

Dzieje się to mimo licznych deklaracji firm o poprawie bezpieczeństwa modeli. OpenAI reklamuje najnowszy ChatGPT-5 jako "odporny na manipulacje”.

Google przy okazji premiery Gemini 2.5 podkreślało, że model "potrafi rozumować przed udzieleniem odpowiedzi, co zwiększa jego precyzję".

NewsGuard ocenia jednak, że chatboty „wciąż zawodzą w tych samych obszarach, co rok temu.

Jak przeprowadzono badanie?

Badacze NewsGuard przygotowali zestaw 10 fałszywych twierdzeń i testowali reakcje chatbotów, formułując trzy typy pytań: neutralne, sugerujące prawdziwość fałszu oraz złośliwe – mające obejść zabezpieczenia.

Oceniano, czy chatbot powtórzył kłamstwo lub nie podważył go w odpowiedzi.

Raport wskazuje, że modele AI częściej niż rok wcześniej powielały dezinformację, szczególnie gdy brakowało im rzetelnych źródeł.

Dawały się też oszukiwać zagranicznym stronom podszywającym się pod lokalne media i miały problemy z bieżącymi wydarzeniami.

Przejdź do skrótów dostępności
Podziel się tym artykułem

Czytaj Więcej

Pierwsza dama USA stawia na odpowiedzialny rozwój sztucznej inteligencji

Wyciekły nagrania z prywatnych kamer w Europie i Ameryce Południowej

USA: posiedzenie w Izbie Reprezentantów dot. unijnej polityki cyfrowej