Śledztwo dziennika „The Guardian” wykazało, że podsumowania generowane przez AI Google’a podawały nieścisłe informacje zdrowotne.
Według doniesień firma Google usunęła część AI Overviews przy pytaniach dotyczących zdrowia po śledztwie, które wykazało, że niektóre informacje wprowadzały w błąd.
AI Overviews to generowane przez sztuczną inteligencję podsumowania, które pojawiają się na górze wyników wyszukiwania i odpowiadają na pytania lub tematy.
Dziennikarskie śledztwo dziennika The Guardian wykazało, że część z nich zawierała nieścisłe informacje medyczne, co mogło narażać ludzi na szkodę.
Gazeta ustaliła, że AI Overviews wyświetlały mnóstwo liczb bez kontekstu w odpowiedzi na pytania w rodzaju „jaki jest prawidłowy zakres wyników badań krwi dotyczących wątroby?” oraz „jaki jest prawidłowy zakres testów czynności wątroby?”. Odpowiedzi nie uwzględniały różnic wynikających z narodowości, płci, pochodzenia etnicznego ani wieku.
W wynikach Google dla obu pytań pojawił się wyróżniony fragment, czyli akapit wyjęty z najbardziej trafnej dla użytkownika strony i umieszczony na górze wyników.
W obu przypadkach Google w tym fragmencie przytoczyło zakresy uznawane za prawidłowe dla różnych substancji związanych z wątrobą, m.in. aminotransferazy alaninowej (ALT), która reguluje produkcję energii, aminotransferazy asparaginianowej (AST), która wykrywa uszkodzone krwinki, oraz fosfatazy alkalicznej (ALP), która pomaga rozkładać białka.
Jak ustalił The Guardian, liczby zaczerpnięto ze strony Max Healthcare, indyjskiej komercyjnej sieci szpitali w Nowym Delhi.
Wyróżnione fragmenty różnią się od AI Overviews, bo ich treści nie generuje sztuczna inteligencja.
Śledztwo The Guardian wykazało z kolei, że warianty tych pytań, np. „[liver function test] lft reference range” czy „lft test reference range”, wciąż generowały podsumowania AI. Testy czynności wątroby to badania krwi mierzące białka i enzymy, które pokazują, jak działa wątroba.
Google miało też radzić osobom z rakiem trzustki, aby unikały tłustych potraw. Eksperci powiedzieli dziennikowi The Guardian, że to zła rada, bo może zwiększać ryzyko zgonu chorych.
Śledztwo The Guardian pojawia się w chwili, gdy eksperci biją na alarm, że chatboty AI „halucynują”, czyli wymyślają odpowiedzi, gdy nie mają właściwych informacji.
Redakcja Euronews Next zwróciła się do Google z pytaniem, czy usunięto AI Overviews przy części zapytań zdrowotnych, lecz nie otrzymała natychmiastowej odpowiedzi.
W weekend firma Google ogłosiła, że dodaje AI Overviews do swojej usługi e-mail, Gmaila.
Nowa funkcja pozwala zadawać pytania o treść maili i otrzymywać odpowiedzi, zamiast przeszukiwać skrzynkę według słów kluczowych.