Po niedawnej premierze usługi ChatGPT Health od OpenAI warto rozważyć kilka kwestii, zanim poprosi się chatbota AI o poradę medyczną.
Skoro setki milionów osób zwracają się po poradę do chatbotów, było kwestią czasu, aż firmy technologiczne zaczną oferować programy stworzone specjalnie do odpowiadania na pytania o zdrowie.
W styczniu OpenAI wprowadziła ChatGPT Health – nową wersję swojego chatbota, która według firmy potrafi analizować dokumentację medyczną użytkowników, dane z aplikacji zdrowotnych i urządzeń noszonych, aby odpowiadać na pytania dotyczące zdrowia i leczenia.
Obecnie na skorzystanie z programu trzeba się zapisać na listę oczekujących. Konkurencyjna firma Anthropic oferuje podobne funkcje części użytkowników swojego chatbota Claude.
Obie firmy podkreślają, że ich programy, tzw. duże modele językowe, nie zastępują profesjonalnej opieki i nie powinny służyć do stawiania diagnoz. Twierdzą natomiast, że chatboty mogą streszczać i objaśniać złożone wyniki badań, pomóc przygotować się do wizyty u lekarza czy analizować istotne trendy zdrowotne ukryte w dokumentacji medycznej i danych z aplikacji.
Na ile jednak takie narzędzia są bezpieczne i rzetelne przy analizie danych zdrowotnych i objawów? I czy rzeczywiście warto się na nich opierać?
Oto kilka kwestii, które warto rozważyć, zanim porozmawiasz z chatbotem o swoim zdrowiu:
Chatboty mogą być bardziej spersonalizowane niż wyszukiwanie w Google
Część lekarzy i badaczy, którzy pracowali z ChatGPT Health i podobnymi programami, uważa je za krok naprzód wobec obecnej sytuacji.
Platformy oparte na sztucznej inteligencji nie są idealne: potrafią czasem „halucynować” lub udzielać szkodliwych porad (źródło w Angielski), ale zwykle oferują informacje bardziej dopasowane do konkretnego pacjenta i bardziej szczegółowe niż to, co znajdzie w Google.
„Alternatywą jest często brak jakiejkolwiek informacji albo to, że pacjent działa na wyczucie” – mówi dr Robert Wachter, ekspert od technologii medycznych z Uniwersytetu Kalifornijskiego w San Francisco. – „Dlatego jeśli korzysta się z tych narzędzi odpowiedzialnie, można z nich uzyskać przydatne informacje”.
W krajach takich jak Wielka Brytania czy Stany Zjednoczone, gdzie na wizytę u lekarza czeka się tygodniami, a w punktach nagłej pomocy i izbach przyjęć spędza się w kolejkach całe godziny, chatboty mogą w wielu sytuacjach ograniczyć niepotrzebną panikę i oszczędzić czas.
Potrafią też jednak wskazać, kiedy objawy są niepokojące i wymagają pilnej oceny przez prawdziwego lekarza.
Jedną z zalet najnowszych chatbotów jest to, że odpowiadają na pytania użytkowników, korzystając z kontekstu ich historii medycznej, w tym listy leków, wieku i notatek lekarzy.
Nawet jeśli nie udostępniasz AI swojej dokumentacji, Wachter i inni specjaliści zalecają, by w pytaniach podawać jak najwięcej szczegółów – to poprawia jakość odpowiedzi.
Niepokojące objawy? Zrezygnuj z AI
Wachter i inni lekarze podkreślają, że są sytuacje, w których trzeba zrezygnować z chatbota i natychmiast szukać pomocy medycznej. Objawy takie jak duszność, ból w klatce piersiowej czy bardzo silny ból głowy mogą świadczyć o stanie zagrożenia życia.
Nawet w mniej pilnych przypadkach pacjenci i lekarze powinni podchodzić do programów AI z „pewną dawką zdrowego sceptycyzmu” – mówi dr Lloyd Minor z Uniwersytetu Stanforda.
„Gdy w grę wchodzi poważna decyzja medyczna, a nawet pozornie drobna decyzja dotycząca zdrowia, nie wolno opierać się wyłącznie na tym, co podaje duży model językowy” – dodaje Minor, dziekan wydziału medycznego Stanforda.
Nawet w pozornie prostszych i częstych przypadkach, takich jak zespół policystycznych jajników (PCOS), lepiej skonsultować się z prawdziwym lekarzem, ponieważ u różnych osób choroba przebiega odmiennie, co wpływa na dobór leczenia.
Zastanów się nad prywatnością, zanim prześlesz dane o zdrowiu
Wiele zalet, jakie oferują boty AI, wynika z tego, że użytkownicy dzielą się bardzo osobistymi informacjami o swoim zdrowiu. Trzeba jednak pamiętać, że dane przekazywane firmom rozwijającym AI nie są chronione przez amerykańskie federalne przepisy o prywatności, które regulują zwykle obieg wrażliwych informacji medycznych.
Prawo to, znane pod skrótem HIPAA, przewiduje kary finansowe, a nawet więzienie dla lekarzy, szpitali, ubezpieczycieli i innych podmiotów medycznych, które ujawniają dokumentację pacjentów. Nie obejmuje jednak firm tworzących chatboty.
„Przesłanie swojej dokumentacji do dużego modelu językowego to coś zupełnie innego niż przekazanie jej nowemu lekarzowi” – mówi Minor. – „Konsumenci muszą rozumieć, że obowiązują tu całkiem inne standardy ochrony prywatności”.
OpenAI i Anthropic zapewniają, że informacje o zdrowiu użytkowników są oddzielone od innych danych i objęte dodatkowymi zabezpieczeniami. Firmy nie wykorzystują tych danych do trenowania swoich modeli. Użytkownicy muszą wyrazić zgodę na udostępnianie informacji i mogą w każdej chwili wycofać tę zgodę.
Badania pokazują, że chatboty potrafią się mylić
Mimo ogromnego zainteresowania AI, niezależne testowanie tych technologii dopiero raczkuje. Wstępne badania sugerują, że programy takie jak ChatGPT świetnie wypadają na zaawansowanych egzaminach medycznych, ale znacznie gorzej radzą sobie w kontakcie z prawdziwymi ludźmi.
W badaniu Uniwersytetu Oksfordzkiego z udziałem 1300 osób stwierdzono niedawno, że osoby korzystające z chatbotów AI, by sprawdzić hipotetyczne problemy zdrowotne, nie podejmowały lepszych decyzji niż ci, którzy używali zwykłych wyszukiwarek internetowych lub własnej oceny.
Gdy chatbotom przedstawiano scenariusze medyczne w formie pełnych, pisemnych opisów, w 95 proc. przypadków prawidłowo rozpoznawały chorobę leżącą u ich podstaw.
„To nie tu leżał problem” – mówi główny autor badania Adam Mahdi z Oxford Internet Institute. – „Kłopoty zaczynały się w momencie realnej interakcji z uczestnikami”.
Mahdi i jego zespół zidentyfikowali kilka problemów komunikacyjnych. Uczestnicy często nie podawali chatbotom wystarczająco wielu informacji, by te mogły prawidłowo rozpoznać kłopot ze zdrowiem. Z kolei systemy AI odpowiadały nierzadko mieszanką trafnych i błędnych danych, a użytkownikom trudno było odróżnić jedno od drugiego.
Badanie przeprowadzono w 2024 roku, nie obejmowało więc najnowszych wersji chatbotów, w tym nowych narzędzi takich jak ChatGPT Health.
Druga „opinia” AI może się przydać
Według Wachtera jednym z obszarów wymagających poprawy jest zdolność chatbotów do zadawania pytań uzupełniających i wydobywania od użytkownika kluczowych szczegółów.
„Naprawdę dobre staną się wtedy, gdy zaczną zachowywać się wobec pacjentów trochę bardziej jak lekarz, wchodząc z nimi w dialog tam i z powrotem” – uważa Wachter.
Na razie, by zwiększyć pewność co do otrzymywanych informacji, można porównywać odpowiedzi kilku różnych chatbotów – podobnie jak zasięga się drugiej opinii u innego lekarza.
„Zdarza mi się wpisać te same dane do ChatGPT i do Geminiego” – mówi Wachter, nawiązując do narzędzia AI Google’a. – „Gdy obie odpowiedzi się pokrywają, czuję się nieco pewniej, że to właściwe rozwiązanie”.