Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Europa wdraża AI w ochronie zdrowia bez odpowiednich zabezpieczeń dla pacjentów, ostrzega WHO

Kobieta mówi do swojego telefonu.
Kobieta mówi do swojego telefonu. Prawo autorskie  Canva
Prawo autorskie Canva
Przez Gabriela Galvin
Opublikowano dnia
Udostępnij
Udostępnij Close Button

Tylko cztery z 50 badanych krajów mają krajowe strategie dotyczące sztucznej inteligencji w ochronie zdrowia.

Sztuczna inteligencja (AI) zmienia europejską ochronę zdrowia. Obiecuje lepszą opiekę nad pacjentami i mniejszą presję na personel. Jednak, jak wynika z nowego raportu Światowej Organizacji Zdrowia (WHO), jest wdrażana bez odpowiednich zabezpieczeń dla pacjentów i pracowników ochrony zdrowia.

Analiza wykazała, że wdrożenia, regulacje i finansowanie AI w ochronie zdrowia znacznie się różnią w 50 krajach Europy i Azji Centralnej.

Połowa badanych państw wprowadziła chatboty AI dla pacjentów, a 32 korzystają z narzędzi diagnostycznych opartych na AI, zwłaszcza w diagnostyce obrazowej i wykrywaniu. Państwa testują też AI w badaniach przesiewowych, patomorfologii, zdrowiu psychicznym, analizie danych, zadaniach administracyjnych i planowaniu kadr.

Hiszpania testuje narzędzia AI, by zwiększyć skuteczność wczesnego wykrywania chorób. Finlandia wykorzystuje AI do szkolenia pracowników ochrony zdrowia, a Estonia do analizy danych. Tak wynika z raportu.

Choć 26 państw ustaliło priorytety dotyczące AI w ochronie zdrowia, tylko 14 przeznaczyło na to finansowanie. Tylko cztery kraje: Andora, Finlandia, Słowacja i Szwecja, mają ogólnokrajową strategię AI w ochronie zdrowia.

Dyrektor regionalny WHO na Europę, dr Hans Kluge, ostrzegł, że bez „jasnych strategii, ochrony danych, ram prawnych i inwestycji w umiejętności korzystania z AI” te narzędzia mogą pogłębić nierówności zdrowotne w Europie.

„AI stoi u progu rewolucji w ochronie zdrowia, ale jej potencjał spełni się tylko wtedy, gdy ludzie i pacjenci pozostaną w centrum każdej decyzji”, stwierdził Kluge w oświadczeniu.

Główne wyzwanie jest takie: narzędzia AI opierają się na ogromnych zbiorach danych, które mogą być błędne, stronnicze lub niepełne. W efekcie ich decyzje odzwierciedlają te wady i mogą prowadzić do błędów medycznych, na przykład pominiętych diagnoz lub niewłaściwego leczenia.

Raport WHO wskazuje, że państwa powinny jasno określić, kto odpowiada za takie błędy wynikające z działania AI.

Autorzy zalecają, by Europa zadbała o zgodność strategii AI z celami zdrowia publicznego, szkoliła personel w skutecznym korzystaniu z AI, wzmacniała przepisy i wytyczne etyczne oraz zachowywała przejrzystość wobec opinii publicznej w sprawie użycia AI w ochronie zdrowia.

Brak jasnych standardów może już zniechęcać pracowników ochrony zdrowia do korzystania z narzędzi AI. Tak uważa dr David Novillo Ortiz, który w europejskim biurze WHO pracuje nad inicjatywami z zakresu AI, danych i zdrowia cyfrowego.

Dodał, że europejskie kraje powinny „zapewnić testowanie systemów AI pod kątem bezpieczeństwa, bezstronności i skuteczności w realnych warunkach, zanim trafią do pacjentów”.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

Splot czynników wzmaga zagrożenie lekoopornymi zakażeniami w Europie

Etiopia potwierdza 3 zgony w nowym ognisku wirusa Marburg, podobnego do Eboli

Europa robi za mało, by wykrywać HIV i wirusowe zapalenia wątroby, ostrzegają władze zdrowotne