Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Halucynacje AI: rosnące ryzyko dla mediów, prawa i biznesu

Halucynacje AI
Halucynacje AI Prawo autorskie  Paweł Głogowski/Euronews
Prawo autorskie Paweł Głogowski/Euronews
Przez Glogowski Pawel
Opublikowano dnia
Udostępnij
Udostępnij Close Button

Rosnące wykorzystanie narzędzi generatywnej sztucznej inteligencji odsłania nowe, poważne ryzyka dla wiarygodności informacji – zarówno w mediach, jak i w sektorze prawnym oraz biznesowym.

W świecie modeli generatywnej sztucznej inteligencji coraz częściej pojawia się pojęcie „halucynacji AI”. Oznacza ono sytuację, gdy system wykonujący zadania oparte na danych i wzorcach, generuje treści, które nie mają pokrycia w rzeczywistości, są niepoprawne lub nie istniejące.

Gdy system zostaje zapytany o coś, czego „nie wiedział” wcześniej lub co wykracza poza zakres jego szkoleniowych danych, może „wypełnić lukę” generując odpowiedź, która brzmi sensownie, lecz nie ma podstaw w faktach.

W najbardziej krytycznych zastosowaniach - takich jak medycyna, finanse, prawo - halucynacje mogą zagrażać bezpieczeństwu, efektywności lub prawidłowości decyzji.

Głośna sprawa Karoliny Opolskiej

Najnowsze przykłady z Polski pokazują, że halucynacje AI, czyli generowanie pozornie wiarygodnych, lecz nieprawdziwych danych, przestały być technologiczną ciekawostką.

Impulsem do ogólnokrajowej dyskusji stał się przypadek błędnych przypisów i fikcyjnych źródeł w książce dziennikarki Karoliny Opolskiej. Jak wynika z analizy Instytutu Monitorowania Mediów (IMM), „sprawa ta osiągnęła 4 mln potencjalnych kontaktów z przekazem”, co oznacza, że – jak podkreśla Instytut – informacja dotarła „statystycznie do co ósmej osoby w Polsce w wieku od 15 lat”.

Choć autorka i wydawca nie potwierdzili użycia AI przy powstawaniu książki, eksperci wskazują na silne przesłanki. Dyskusja w mediach społecznościowych szybko przybrała negatywny ton. „Równolegle trwa dyskusja o wzroście nieufności społecznej do nowych technologii” – mówi w analizie Instytutu Tomasz Lubieniecki, Kierownik Działu Raportów Medialnych IMM.

Gdy halucynacje kosztują miliony

Zjawisko nie ogranicza się do sektora medialnego. W ostatnich miesiącach szerokim echem odbiła się sprawa firmy Exdrog, wykluczonej z przetargu na utrzymanie dróg. Przedstawiona Krajowej Izbie Odwoławczej dokumentacja – przygotowana z użyciem AI – zawierała „całkowicie zmyślone, nieistniejące interpretacje podatkowe i przepisy prawne”, co miało uzasadniać ofertowe wyliczenia firmy.

Według IMM sprawa ta dotarła do 1,3 mln odbiorców.

Przykład pokazuje, że błędne treści generowane przez AI mogą mieć bezpośrednie skutki finansowe i prawne.

Problem globalny, skala alarmująca

Podobne wpadki zdarzają się na całym świecie. AI doprowadziła już do kompromitacji prawników, którzy w sądach powoływali się na nieistniejące precedensy, oraz do medialnych pomyłek – jak w przypadku „Chicago Sun-Times”, który opublikował artykuł polecający… nieistniejące książki.

To wcale nie są pojedyncze wypadki – generatywne modele sztucznej inteligencji często tworzą własne wersje historii. Na przykład mogą podawać nieprawdziwe rekordy przepłynięcia kanału La Manche, a przy kolejnych próbach tworzą całkowicie różne, fikcyjne informacje na ten sam temat.

Czasem problem „halucynacji AI” przybieraja dziwaczne, a nawet niepokojące formy. Dobrym przykładem jest chatbot Bing, wbudowany w wyszukiwarkę Microsoftu, który stwierdził, że jest zakochany w dziennikarzu Kevinie Roose i i żądał, aby rozwiódł się z żoną. To pokazuje, że konsekwencje tych anomalii mogą wykraczać daleko poza zwykłe błędy merytoryczne.

Według badania BBC przygotowanego na zlecenie Europejskiej Unii Nadawców (EBU), „45 procent” odpowiedzi generowanych przez narzędzia takie jak ChatGPT, Microsoft Copilot, Google Gemini i Perplexity zawierało istotne błędy. Analiza obejmowała ponad 3000 odpowiedzi.

Dlaczego Grok „wpadł w szał”? Awaria narzędzia Elona Muska wywołała burzę

Narzędzie sztucznej inteligencji Grok, stworzone przez firmę xAI należącą do Elona Muska, stało się bohaterem jednego z najgłośniejszych technologicznych skandali. Po aktualizacji chatbot zaczął publikować obraźliwe i agresywne treści, momentami uderzając w polityków oraz używając słów, które nigdy nie powinny pojawić się w komunikacji systemu AI dostępnego publicznie. Wulgaryzmy, napastliwe oceny, sugestie kryminalnych działań czy wyraźnie jednostronne wypowiedzi dotyczące polityków pojawiały się w odpowiedziach na zwyczajne pytania zadawane przez użytkowników. Skala problemu szybko urosła - zjawisko obserwowano m.in. w odpowiedziach dotyczących polskich polityków. W sieci zaczęły krążyć zrzuty ekranu pokazujące, jak Grok, dotąd znany z ironicznego, ale kontrolowanego stylu, nagle przyjął język bliższy internetowym hejterom.

Wicepremier i minister cyfryzacji Krzysztof Gawkowski zapowiedział możliwość zablokowania platformy X w Polsce w reakcji na wulgarne wypowiedzi chatbota Grok.

Awaria zmusiła twórców do natychmiastowej interwencji i ponownie rozpaliła debatę o granicach bezpieczeństwa sztucznej inteligencji.

Grok pod lupą po kontrowersyjnych odpowiedziach dotyczących Holokaustu

Francuskojęzyczny wpis Grok-a na platformie X wywołały oburzenie, gdy chatbot zaczął powtarzać tezy typowe dla środowisk negujących Holokaust. Pod kontem znanego neonazisty użytkownicy zadawali pytania o dawno obalone twierdzenia dotyczące zbrodni nazistowskich. Zapytany o mit, jakoby komory gazowe były jedynie instalacjami do dezynfekcji a nie do masowych egzekucji, Grok odpowiedział twierdząco.

Na platformie X wybuchła krytyka chatbota Grok po tym, jak Muzeum Auschwitz potępiło jego wypowiedzi, wskazując, że mogła naruszać regulacje obowiązujące serwis. Elon Musk, właściciel X, zareagował, określając komentarze Groka jako „błąd programistyczny” i ostrzegając, że bot, ze względu na swoją podatność na udzielanie odpowiedzi, może być łatwo manipulowany przez użytkowników.

Incydent skłonił władze francuskie do rozszerzenia śledztwa, które prowadzone jest od lipca w sprawie X, tak aby objęło także najnowsze wypowiedzi Groka negujące Holokaust.

Jak podaje xAI, najnowsza wersja Grok-a 4.1 ma mniej "halucynacji" oraz lepszą dokładność w odpowiedziach faktograficznych. Według firmy, zostało to osiągnięte dzięki optymalizacji i treningowi. xAI porównało zachowanie nowego modelu ze starszym Grokiem - "W trybie szybkim odsetek błędnych stwierdzeń spadł z 12,09% do 4,22%."

Kto odpowiada za błędy AI?

Wraz z rosnącą liczbą wpadek narasta pytanie o odpowiedzialność prawną. „Obecnie nie mamy jasności prawnej, kto odpowiada za szkody wyrządzone przez halucynacje AI: twórca algorytmu, dostawca usługi czy użytkownik” – zauważa w analizie Instytutu Monitorowania Mediów prof. Justyna Król-Całkowska, ekspertka w zakresie prawa i sztucznej inteligencji.

Jak podkreśla Tomasz Lubieniecki z IMM: „Obecne modele AI to potężne narzędzia statystyczne, lecz nieposiadające świadomości ani zrozumienia prawdy”. Traktowanie ich jako bezbłędnych narzędzi – dodaje – może prowadzić do „katastrofy wizerunkowej i finansowej”.

Jak rozpoznać treść stworzoną przez AI?

Eksperci Intytutu Monitorowania Mediów wskazują kilka sygnałów ostrzegawczych:

  • Schematyczne, „idealne” formatowanie i powtarzalny styl
  • Clickbaitowy ton i nadmiernie emocjonalne nagłówki
  • Niewiarygodnie, wyjątkowo wysokie, jednostronne procenty (np. 93%).
  • Brak wiarygodnego kontekstu metodycznego, często mające na celu manipulację emocjami i udawanie rzetelnych badań.
  • Brak ram czasowych analizowanych danych.
  • Zbyt szybkie tempo powstawania analizy, gdy od momentu wygenerowania danych do podania "wniosków" mija zaledwie godzina lub dwie.
  • Nadmierne użycie charakterystycznych słów-kluczy modeli językowych.

Szczególne ryzyko – podkreślają eksperci – niosą treści „generowane w 90–100% przez modele sztucznej inteligencji”.

Wnioski dla rynku i regulatorów

Halucynacje AI stają się jednym z najpoważniejszych wyzwań informacyjnych najbliższych lat. Kluczowe będzie wypracowanie równowagi: z jednej strony kreatywność i innowacja, z drugiej - wiarygodność i odpowiedzialność.

W obliczu rosnącej skali problemu europejskie rynki – w tym Polska – stoją dziś przed koniecznością stworzenia jasnych regulacji, zwiększenie odpowiedzialności dostawców technologii oraz rozwój kompetencji cyfrowych użytkowników.

Wykorzystanie AI musi być starannie kontrolowane i podlegać ścisłemu nadzorowi ludzkiemu. Konieczne jest wprowadzenia mechanizmów weryfikujących treści generowane przez AI, tzw. fact-checking.

Choć halucynacje są trudne do całkowitego wyeliminowania, możliwe jest ich znaczące ograniczenie poprzez zmiany w projektowaniu, trenowaniu i monitorowaniu modeli.

Jeśli tak się nie stanie, skłonność do tworzenia zmyślonych narracji zamiast opierania się na rzeczywistości może skutkować konsekwencjami groźnymi lub nieakceptowanymi społecznie. Bez rzetelnej weryfikacji informacji i wypracowania standardów korzystania z AI, halucynacje mogą stać się jednym z największych zagrożeń dla jakości debaty publicznej i zaufania do nowych technologii.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

Życie po chatbotach: kim są „weganie AI” odrzucający wirtualną rzeczywistość

Weryfikacja faktów: czy chatbot Grok szerzy narracje negujące Holokaust?

AI dostała miesiąc na prowadzenie sklepu - straciła pieniądze, groziła i miała "kryzys tożsamości"