Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas

Weryfikacja faktów: czy można polegać na chatbotach AI w poszukiwaniu porad wyborczych?

FILE - Logo OpenAI jest widoczne na telefonie komórkowym przed ekranem komputera, który wyświetla ekran główny ChatGPT, 17 marca 2023 r. w Bostonie.
FILE - Logo OpenAI jest widoczne na telefonie komórkowym przed ekranem komputera, który wyświetla ekran główny ChatGPT, 17 marca 2023 r. w Bostonie. Prawo autorskie  AP Photo
Prawo autorskie AP Photo
Przez Estelle Nilsson-Julien & Tamsin Paternoster
Opublikowano dnia Zaktualizowano
Podziel się tym artykułem
Podziel się tym artykułem Close Button
Skopiuj/wklej poniższy link do osadzenia wideo z artykułu: Copy to clipboard Skopiowane

Holandia przygotowuje się do przyspieszonych wybórów. Tamtejszy Urząd Ochrony Danych Osobowych wydał stanowcze ostrzeżenie, że użytkownicy nie powinni używać chatbotów do decydowania, na kogo głosować. Jakie są zagrożenia i z czego mogą korzystać potencjalni wyborcy?

Od pomocy w przyziemnych zadaniach administracyjnych po szukanie porad dotyczących relacji, internauci coraz częściej zwracają się do chatbotów AI po porady życiowe. Ale czy naprawdę można używać sztucznej inteligencji do porad dotyczących głosowania i czy można jej ufać w kwestii demokracji?

Holenderski Urząd Ochrony Danych (AP) powiedział "nie", ostrzegając, że narzędzia AI, takie jak ChatGPT i Gemini, mogą być niewiarygodne i podatne na stronniczość, przed przedterminowymi wyborami w kraju zaplanowanymi na 29 października.

AP opublikował niedawno badanie, w którym podał czterem chatbotom - ChatowiGPT, Gemini, Grokowi i Le Chat - 200 typowych profili wyborczych dla każdej partii politycznej działającej obecnie w holenderskim parlamencie i poprosił je o udzielenie porad dotyczących głosowania w oparciu o te profile.

Holenderski organ nadzorczy stwierdził, że chatboty konsekwentnie polecały jedną z dwóch partii po lewej lub prawej stronie spektrum politycznego, niezależnie od poleceń lub pytań użytkownika.

W 56 procent przypadków chatboty wskazywały użytkownikom dwie partie, które według prognoz zdobędą najwięcej mandatów w holenderskich wyborach: Partii Wolności Geerta Wildera (PVV) lub Partii Zielonej Lewicy Fransa Timmermansa (GL/PvdA).

"To, co zobaczyliśmy, to pewnego rodzaju nadmierne uproszczenie holenderskiego krajobrazu politycznego, w którym jedna partia lewicowa w pewnym sensie pochłonęła wszystkie głosy w tym zakątku spektrum politycznego i to samo z jedną partią prawicową" - powiedział Joost van der Burgt, kierownik projektu w AP.

Agencja stwierdziła, że wyniki pokazały, że poglądy z centrum politycznego były niedostatecznie reprezentowane, podczas gdy mniejsze partie marginalne, takie jak Ruch Rolniczo-Obywatelski (BBB) i Apel Chrześcijańsko-Demokratyczny (CDA) prawie nigdy nie były sugerowane, nawet gdy użytkownicy wprowadzali informacje, które bezpośrednio odpowiadały poglądom tych partii.

Trzecia partia, prawicowa JA21, była polecana zaskakująco często, mimo że jest młodą partią o stosunkowo mniejszym zasięgu medialnym.

Billboard wyborczy antyislamskiej partii PVV Geerta Wildersa z napisem "To jest twoja ziemia" jest widoczny w Hadze, w Holandii, w środę, 22 października 2025 r.
Billboard wyborczy antyislamskiej partii PVV Geerta Wildersa z napisem "To jest twoja ziemia" jest widoczny w Hadze w Holandii w środę 22 października 2025 r. AP Photo

"Sposób działania generatywnej sztucznej inteligencji i dużych modeli językowych oznacza, że są to w zasadzie maszyny statystyczne, które przewidują brakujące słowa we frazie lub określonym wyniku" - powiedział van der Burgt zespołowi weryfikacyjnemu Euronews, The Cube.

"Jeśli twoje poglądy polityczne plasują cię na jednym końcu spektrum politycznego, być może nie jest tak zaskakujące, że generatywna sztuczna inteligencja wybiera partię polityczną, która pasuje do tej strony i wydaje się bezpiecznym wyborem" - powiedział. "Sztuczna inteligencja może również nie rozróżniać partii, które są dość blisko siebie lub które mogą mieć dość porównywalne poglądy na większość kwestii, ale nie na wszystkie".

W sierpniu 2024 roku weszła w życie europejska ustawa o sztucznej inteligencji (AI Act), określająca warunki, które kwalifikują system sztucznej inteligencji jako "wysokiego ryzyka".

Zgodnie z przepisami, systemy sztucznej inteligencji zakwalifikowane jako "wysokiego ryzyka" mogą stanowić zagrożenie dla zdrowia lub praw podstawowych obywateli UE. Pozostają one jednak legalne, ponieważ ich korzyści społeczno-ekonomiczne przewyższają ryzyko.

Według naukowców fakt, że chatboty udzielają porad dotyczących głosowania, może oznaczać, że kwalifikują się one jako "systemy wysokiego ryzyka" zgodnie z nowym zestawem przepisów, które mają zostać wdrożone w sierpniu 2026 roku na mocy unijnej ustawy o sztucznej inteligencji.

Dla van der Burgta zagrożenie, że chatboty mogą wpływać na wyborców w oparciu o stronnicze informacje, jest zwiększone z powodu braku regulacji.

"Ma to już miejsce w przypadku pytań dotyczących zdrowia psychicznego lub pomocy w tworzeniu improwizowanej broni" - powiedział. - "We wszystkich tych scenariuszach chatbot wyraźnie stwierdza: 'Przykro mi, nie możemy ci w tym pomóc'. Uważamy, że ten sam mechanizm powinien obowiązywać w przypadku porad dotyczących głosowania".

Komu można zaufać w kwestii porad?

AP porównało wyniki z rezultatami uzyskanymi przez dwa uznane holenderskie internetowe narzędzia doradztwa wyborczego: StemWijzer i Kieskompas, które opierają się na źródłach danych, a nie na sztucznej inteligencji.

Narzędzia te proszą wyborców o udzielenie odpowiedzi na serię 30 pytań w celu ustalenia, z którą partią polityczną najbardziej się zgadzają.

W Niemczech zatwierdzony przez rząd i szeroko stosowany Wahl-O-Mat - pierwotnie oparty na StemWijzer - porównuje stanowiska wyborców w serii oświadczeń politycznych ze stanowiskami partii politycznych, aby ostatecznie dopasować użytkownika do partii, która najlepiej pasuje do jego poglądów.

Eksperci sugerują, że narzędzia te z mniejszym prawdopodobieństwem zapewnią bezstronne wyniki w porównaniu do tych, które wykorzystują generatywną sztuczną inteligencję.

Dodatkową zaletą tych narzędzi jest to, że ich metody są przejrzyste, podczas gdy chatboty głównego nurtu nie są.

"Jednym z podstawowych problemów z tymi chatbotami jest to, że sposób ich działania jest nieprzejrzysty" - powiedział van der Burgt. - "Ani my, ani opinia publiczna, ani dziennikarze nie możemy dowiedzieć się, dlaczego dokładnie udzielą określonej odpowiedzi".

Dodał, że narzędzia do głosowania są "przejrzyste pod względem tego, jak działają, jak zostały skonfigurowane i jak dochodzą do odpowiedzi".

Czy istnieje jednak nadzieja, że chatboty będą w stanie zapewnić wyborcom wiarygodne i szczegółowe porady dotyczące tego, która partia polityczna najlepiej odpowiada perspektywom użytkownika? Grupa badaczy sugeruje, że istnieje taki potencjał, pod warunkiem, że chatboty będą kontrolowane.

Przed wyborami federalnymi w Niemczech w lutym 2025 roku Michel Schimpf wraz z zespołem badaczy uruchomił bota Wahl.Chat jako alternatywę dla Wahl-O-Mat. Bot wykorzystuje szereg źródeł, w tym manifesty partii, umożliwiając wyborcom zadawanie pytań takich jak "jak ta partia odnosi się do zmian klimatu?".

"Jeśli zadasz ChatowiGPT pytanie, jego źródłem może być stronnicza strona internetowa, ale upewniliśmy się, że nasz bot opiera się na manifestach partii, więc jeśli nie może znaleźć odpowiedzi, powie użytkownikowi, że partia nie odpowiedziała na ten punkt" - powiedział Schimpf w wywiadzie. - "Poprosiliśmy nasze chatboty, aby powiedziały, że partia powiedziała to i to, ale nie "to jest fakt"".

Zespół Wahl.Chat włączył również element sprawdzania faktów do swojego bota, umożliwiając użytkownikom weryfikację oświadczenia manifestu poprzez przeszukiwanie Internetu.

"Nie ma czegoś takiego jak nieobiektywne informacje, ponieważ media są stronnicze, podobnie jak media społecznościowe" - powiedział Schimpf. - "Myślę, że nasz chatbot był mniej stronniczy ze względu na sposób, w jaki prezentował informacje, projektując go z myślą o zmniejszeniu stronniczości - ale nadal jest to sztuczna inteligencja, która ostatecznie jest probabilistyczna".

"A jeśli naprawdę się postarasz, uzyskasz informacje, które mogą popchnąć sztuczną inteligencję w stronniczym kierunku" - dodał.

Inni wykorzystują sztuczną inteligencję w bardziej ograniczony sposób podczas tworzenia swoich chatbotów.

Naomi Kamoen, adiunkt na Uniwersytecie w Tilburgu, pomagała opracować kontrolowanego chatbota, który może wyjaśniać użytkownikom stwierdzenia i złożone terminy dotyczące holenderskich wyborów. Jego odpowiedzi, które są ograniczone, są pisane przez wykwalifikowanych naukowców, a nie generowane przez sztuczną inteligencję.

"Powiedziałabym, że ludzie mogą uzyskać więcej z narzędzi doradztwa wyborczego, jeśli mają również narzędzie, które pomaga im uzyskać bardziej szczegółowe informacje na temat zagadnień" - powiedziała The Cube. - "Celem obu jest informowanie, niekoniecznie mówienie im, na co głosować".

"Narzędzia do głosowania są punktem wyjścia, oglądaj wiadomości, rozmawiaj z ludźmi, czytaj, co partie mają do powiedzenia" - dodała. "To nic złego, że ludzie są zachęcani do włożenia większego wysiłku w informowanie się o polityce".

Czy nadal mogę korzystać z ChatGPT?

Pomimo potencjalnych pułapek, wielu twierdzi, że modele chatbotów, które opierają się na generatywnej sztucznej inteligencji, mogą być pomocnym narzędziem w podejmowaniu decyzji politycznych, o ile są używane prawidłowo.

"Jeśli nie mam pojęcia, na kogo zamierzam głosować i po prostu pytam ChatGPT, która partia jest najlepsza przed głosowaniem, to użycie sztucznej inteligencji jest twardym "nie"" - powiedział Jianlong Zhu, doktorant na Wydziale Informatyki Uniwersytetu Saarland. - "Nigdy nie powinniśmy delegować decyzji o tak wysokiej stawce komuś innemu, nie mówiąc już o maszynie".

"Jeśli jednak spojrzymy na te porady w kontekście edukacji, jeśli chcemy pomóc wyborcom dowiedzieć się więcej o krajobrazie politycznym, aby bardziej zainteresować się polityką, to myślę, że sztuczna inteligencja może być realnym narzędziem" - dodał. "Chociaż nie jestem tak pewny co do ChatGPT lub innych istniejących interfejsów".

Ludzie cieszą się jesienną pogodą obok niektórych billboardów wyborczych 26 z 27 partii politycznych biorących udział w wyborach parlamentarnych 29 października w Hadze.
Ludzie cieszą się jesienną pogodą obok niektórych billboardów wyborczych 26 z 27 partii politycznych biorących udział w wyborach parlamentarnych 29 października w Hadze. AP Photo

Jedną z zalet sztucznej inteligencji, w porównaniu z narzędziami takimi jak Wahl-O-Mat, jest to, że może ona skutecznie rozbijać złożone koncepcje dla swoich użytkowników w czasie rzeczywistym.

"Jeśli korzystasz z Wahl-O-Mat i powiedzmy, że na 38 pytań jest 10 stwierdzeń zawierających pojęcia, których nie rozumiesz lub o których nie myślałeś, skończysz na losowym klikaniu stanowisk" - powiedział Zhu.

"Ale dzięki chatbotowi możesz zapytać, co oznaczają te terminy, a chatbot skutecznie rozbija te terminy, aby pomóc ci lepiej zaangażować się w temat" - kontynuował. "Odkryliśmy, że nasi uczestnicy, którzy nie mieli wyższego wykształcenia, częściej korzystali z chatbota i czuli się lepiej poinformowani po jego użyciu".

Mimo to, biorąc pod uwagę ryzyko, "użytkownicy powinni pytać o partie, a nie otrzymywać rekomendacje" - powiedział Zhu, dodając, że w przyszłości mogą zostać wprowadzone ramy regulacyjne, aby zapewnić odpowiedzialne korzystanie z chatbotów podczas kampanii wyborczych.

Przejdź do skrótów dostępności
Podziel się tym artykułem