Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Google usuwa część pytań o zdrowie z funkcji AI Overviews po wątpliwościach co do dokładności

Archiwum - Na zdjęciu z wtorku, 23 marca 2010 r., widać logo Google w brukselskiej siedzibie firmy.
Archiwum: zdjęcie z wtorku, 23 marca 2010 r. W siedzibie Google w Brukseli widać logo Google. Prawo autorskie  AP Photo/Virginia Mayo, File
Prawo autorskie AP Photo/Virginia Mayo, File
Przez Euronews
Opublikowano dnia
Udostępnij
Udostępnij Close Button

Śledztwo dziennika „The Guardian” wykazało, że podsumowania generowane przez AI Google’a podawały nieścisłe informacje zdrowotne.

Według doniesień firma Google usunęła część AI Overviews przy pytaniach dotyczących zdrowia po śledztwie, które wykazało, że niektóre informacje wprowadzały w błąd.

AI Overviews to generowane przez sztuczną inteligencję podsumowania, które pojawiają się na górze wyników wyszukiwania i odpowiadają na pytania lub tematy.

Dziennikarskie śledztwo dziennika The Guardian wykazało, że część z nich zawierała nieścisłe informacje medyczne, co mogło narażać ludzi na szkodę.

Gazeta ustaliła, że AI Overviews wyświetlały mnóstwo liczb bez kontekstu w odpowiedzi na pytania w rodzaju „jaki jest prawidłowy zakres wyników badań krwi dotyczących wątroby?” oraz „jaki jest prawidłowy zakres testów czynności wątroby?”. Odpowiedzi nie uwzględniały różnic wynikających z narodowości, płci, pochodzenia etnicznego ani wieku.

W wynikach Google dla obu pytań pojawił się wyróżniony fragment, czyli akapit wyjęty z najbardziej trafnej dla użytkownika strony i umieszczony na górze wyników.

W obu przypadkach Google w tym fragmencie przytoczyło zakresy uznawane za prawidłowe dla różnych substancji związanych z wątrobą, m.in. aminotransferazy alaninowej (ALT), która reguluje produkcję energii, aminotransferazy asparaginianowej (AST), która wykrywa uszkodzone krwinki, oraz fosfatazy alkalicznej (ALP), która pomaga rozkładać białka.

Jak ustalił The Guardian, liczby zaczerpnięto ze strony Max Healthcare, indyjskiej komercyjnej sieci szpitali w Nowym Delhi.

Wyróżnione fragmenty różnią się od AI Overviews, bo ich treści nie generuje sztuczna inteligencja.

Śledztwo The Guardian wykazało z kolei, że warianty tych pytań, np. „[liver function test] lft reference range” czy „lft test reference range”, wciąż generowały podsumowania AI. Testy czynności wątroby to badania krwi mierzące białka i enzymy, które pokazują, jak działa wątroba.

Google miało też radzić osobom z rakiem trzustki, aby unikały tłustych potraw. Eksperci powiedzieli dziennikowi The Guardian, że to zła rada, bo może zwiększać ryzyko zgonu chorych.

Śledztwo The Guardian pojawia się w chwili, gdy eksperci biją na alarm, że chatboty AI „halucynują”, czyli wymyślają odpowiedzi, gdy nie mają właściwych informacji.

Redakcja Euronews Next zwróciła się do Google z pytaniem, czy usunięto AI Overviews przy części zapytań zdrowotnych, lecz nie otrzymała natychmiastowej odpowiedzi.

W weekend firma Google ogłosiła, że dodaje AI Overviews do swojej usługi e-mail, Gmaila.

Nowa funkcja pozwala zadawać pytania o treść maili i otrzymywać odpowiedzi, zamiast przeszukiwać skrzynkę według słów kluczowych.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

AI może sygnalizować ryzyko ponad 100 schorzeń na podstawie jednej nocy snu, wynika z badania

Najważniejsze problemy zdrowotne 2026

NASA skraca misję na ISS ze względu na problemy zdrowotne astronauty; to rzadkie posunięcie