Tylko cztery z 50 badanych krajów mają krajowe strategie dotyczące sztucznej inteligencji w ochronie zdrowia.
Sztuczna inteligencja (AI) zmienia europejską ochronę zdrowia. Obiecuje lepszą opiekę nad pacjentami i mniejszą presję na personel. Jednak, jak wynika z nowego raportu Światowej Organizacji Zdrowia (WHO), jest wdrażana bez odpowiednich zabezpieczeń dla pacjentów i pracowników ochrony zdrowia.
Analiza wykazała, że wdrożenia, regulacje i finansowanie AI w ochronie zdrowia znacznie się różnią w 50 krajach Europy i Azji Centralnej.
Połowa badanych państw wprowadziła chatboty AI dla pacjentów, a 32 korzystają z narzędzi diagnostycznych opartych na AI, zwłaszcza w diagnostyce obrazowej i wykrywaniu. Państwa testują też AI w badaniach przesiewowych, patomorfologii, zdrowiu psychicznym, analizie danych, zadaniach administracyjnych i planowaniu kadr.
Hiszpania testuje narzędzia AI, by zwiększyć skuteczność wczesnego wykrywania chorób. Finlandia wykorzystuje AI do szkolenia pracowników ochrony zdrowia, a Estonia do analizy danych. Tak wynika z raportu.
Choć 26 państw ustaliło priorytety dotyczące AI w ochronie zdrowia, tylko 14 przeznaczyło na to finansowanie. Tylko cztery kraje: Andora, Finlandia, Słowacja i Szwecja, mają ogólnokrajową strategię AI w ochronie zdrowia.
Dyrektor regionalny WHO na Europę, dr Hans Kluge, ostrzegł, że bez „jasnych strategii, ochrony danych, ram prawnych i inwestycji w umiejętności korzystania z AI” te narzędzia mogą pogłębić nierówności zdrowotne w Europie.
„AI stoi u progu rewolucji w ochronie zdrowia, ale jej potencjał spełni się tylko wtedy, gdy ludzie i pacjenci pozostaną w centrum każdej decyzji”, stwierdził Kluge w oświadczeniu.
Główne wyzwanie jest takie: narzędzia AI opierają się na ogromnych zbiorach danych, które mogą być błędne, stronnicze lub niepełne. W efekcie ich decyzje odzwierciedlają te wady i mogą prowadzić do błędów medycznych, na przykład pominiętych diagnoz lub niewłaściwego leczenia.
Raport WHO wskazuje, że państwa powinny jasno określić, kto odpowiada za takie błędy wynikające z działania AI.
Autorzy zalecają, by Europa zadbała o zgodność strategii AI z celami zdrowia publicznego, szkoliła personel w skutecznym korzystaniu z AI, wzmacniała przepisy i wytyczne etyczne oraz zachowywała przejrzystość wobec opinii publicznej w sprawie użycia AI w ochronie zdrowia.
Brak jasnych standardów może już zniechęcać pracowników ochrony zdrowia do korzystania z narzędzi AI. Tak uważa dr David Novillo Ortiz, który w europejskim biurze WHO pracuje nad inicjatywami z zakresu AI, danych i zdrowia cyfrowego.
Dodał, że europejskie kraje powinny „zapewnić testowanie systemów AI pod kątem bezpieczeństwa, bezstronności i skuteczności w realnych warunkach, zanim trafią do pacjentów”.