Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Badanie: AI to egzystencjalne zagrożenie dla sondaży, niemal idealnie naśladuje ludzi

Nowe badania pokazują, że narzędzia AI potrafią wprowadzać w błąd systemy internetowe. Te uznają je za ludzi, a to zniekształca wyniki ankiet internetowych.
Nowe badania pokazują, że narzędzia AI potrafią oszukiwać systemy online, udając ludzi. To zniekształca wyniki ankiet internetowych. Prawo autorskie  Canva
Prawo autorskie Canva
Przez Anca Ulea
Opublikowano dnia
Udostępnij
Udostępnij Close Button

„Nie możemy już ufać, że odpowiedzi w ankietach pochodzą od prawdziwych osób”, powiedział główny autor nowego badania z Dartmouth University.

Sztuczna inteligencja (AI) sprawia, że w internetowych sondażach opinii publicznej coraz trudniej odróżnić odpowiedzi ludzi od botów – wskazują nowe badania.

Badanie Uniwersytetu Dartmouth, opublikowane w poniedziałek w Proceedings of the National Academy of Sciences (PNAS), pokazuje, że duże modele językowe (LLM) mogą na masową skalę wypaczać wyniki sondaży opinii publicznej.

„Potrafią naśladować ludzkie persony, omijać obecne metody wykrywania i można je w prosty sposób zaprogramować tak, by systematycznie skrzywiały wyniki ankiet online” – czytamy w badaniu.

Ustalenia wskazują na „krytyczną lukę w naszej infrastrukturze danych”, stwarzając „potencjalne egzystencjalne zagrożenie dla badań online bez nadzoru” – powiedział autor badania, Sean Westwood, adiunkt w Katedrze Nauk Politycznych Uniwersytetu Dartmouth.

Zakłócanie sondaży przez AI może dodatkowo skomplikować kluczowe wybory. Grupy monitorujące w sieci już sygnalizują kampanie dezinformacyjne napędzane przez AI w wyborach w Europie, w tym ostatnio w Mołdawii.

Jak oszukać system

Aby sprawdzić, jak podatne jest oprogramowanie ankiet online, Westwood zaprojektował i zbudował „autonomicznego, sztucznego respondenta” – proste narzędzie AI sterowane poleceniem o długości 500 słów.

W każdej ankiecie narzędzie przyjmowało demograficzną personę na podstawie losowo przypisanych danych – wieku, płci, rasy, wykształcenia, dochodu i stanu zamieszkania.

Z tą personą symulowało realistyczny czas czytania, generowało ruchy myszy jak u człowieka i wpisywało odpowiedzi otwarte, klawisz po klawiszu – z wiarygodnymi literówkami i poprawkami.

W ponad 43 tys. testów narzędzie oszukało 99,8 proc. systemów, które uznały je za człowieka. Nie popełniło ani jednego błędu w zagadkach logicznych i omijało tradycyjne zabezpieczenia, takie jak reCAPTCHA, mające wykrywać automatyczne odpowiedzi.

„To nie prymitywne boty” – powiedział Westwood. „Analizują każde pytanie i zachowują się jak prawdziwi, ostrożni ludziie, przez co dane wyglądają na całkowicie wiarygodne”.

Czy wynikom sondaży można jeszcze ufać?

Badanie sprawdzało praktyczną podatność sondaży politycznych, na przykładzie wyborów prezydenckich w USA w 2024 roku.

Westwood ustalił, że w siedmiu najważniejszych ogólnokrajowych sondażach wystarczyłoby 10–52 fałszywych odpowiedzi generowanych przez AI, by odwrócić przewidywany wynik wyborów. Do tego doszłoby w kluczowym, ostatnim tygodniu kampanii.

Uruchomienie każdego z takich respondentów mogłoby kosztować zaledwie 5 centów w USA (4 eurocenty).

W testach boty działały nawet wtedy, gdy były programowane po rosyjsku, mandaryńsku lub koreańsku – generowały bezbłędne odpowiedzi po angielsku. To oznacza, że podmioty z zagranicy mogłyby je łatwo wykorzystać. Niektóre dysponują zasobami, by tworzyć jeszcze bardziej wyrafinowane narzędzia, które unikną wykrycia – ostrzega badanie.

Nauka w dużym stopniu opiera się na danych z ankiet. Co roku powstają tysiące recenzowanych prac bazujących na danych z internetowych platform zbierania odpowiedzi.

„Gdy dane z ankiet są zanieczyszczone przez boty, AI może zatruć cały ekosystem wiedzy” – powiedział Westwood.

W swojej pracy przekonuje, że środowisko naukowe pilnie potrzebuje nowych metod pozyskiwania danych, których zaawansowane narzędzia AI nie będą w stanie zmanipulować.

„Technologia pozwalająca zweryfikować udział prawdziwych ludzi już istnieje. Trzeba tylko chcieć ją wdrożyć” – mówi Westwood.

„Jeżeli zareagujemy teraz, zachowamy rzetelność sondaży i demokratyczną rozliczalność, którą zapewniają”.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

Era weryfikacji wieku: które kraje UE ograniczają dostęp do stron dla dorosłych?

Anthropic: chińscy hakerzy wspierani przez państwo wykorzystali jej AI do poważnego cyberataku

Niemieckie firmy bezbronne wobec cyberataków