W badaniu poproszono lekarzy i pielęgniarki, którzy pracują na SOR-ze, o ocenę przypadków pacjentów i sklasyfikowanie ich według stopnia pilności. Następnie te same przypadki przeanalizowano z wykorzystaniem ChatGPT.
Narzędzia oparte na sztucznej inteligencji (AI) są mniej skuteczne od lekarzy i pielęgniarek w ocenie, którzy pacjenci powinni być priorytetowo traktowani w szpitalnych oddziałach ratunkowych (SOR) – wynika z nowego badania.
Zdaniem autorów badania, choć AI ma ogromny potencjał w medycynie, pracownicy ochrony zdrowia nie powinni powierzać sztucznej inteligencji decyzji dotyczących opieki nad pacjentami, u których życie jest zagrożone.
"Biorąc pod uwagę szybki rozwój narzędzi AI, takich jak ChatGPT, chcieliśmy sprawdzić, czy mogą one wspierać proces kwalifikacji pacjentów, zwiększyć efektywność i zmniejszyć obciążenie personelu w oddziałach ratunkowych" – powiedziała w oświadczeniu dr Renata Juknevičienė, badaczka z Uniwersytetu Wileńskiego na Litwie, i współautorka badania.
Badanie, które nie zostało jeszcze poddane recenzji naukowej ani opublikowane w czasopiśmie medycznym, zaprezentowano we wtorek podczas Europejskiego Kongresu Medycyny Ratunkowej. Zespół Juknevičienė poprosił sześciu lekarzy i 44 pielęgniarki, którzy pracują na SOR-ze, o ocenę przypadków pacjentów losowo wybranych z internetowej bazy danych i sklasyfikowanie ich według stopnia pilności w pięciostopniowej skali.
Następnie te same przypadki przeanalizowano za pomocą ChatGPT, popularnego chatbota stworzonego przez firmę OpenAI.
Ogólna skuteczność ChatGPT wyniosła 50,4%, podczas gdy u pielęgniarek było to 65,5%, a u lekarzy 70,6%. Jednak w identyfikacji najbardziej pilnych, zagrażających życiu przypadków, AI osiągnęła lepszą skuteczność niż pielęgniarki.
"AI może wspomagać proces kwalifikowania najpilniejszych przypadków i wspierać nowy lub mniej doświadczony personel" – powiedziała Juknevičienė. Zaznaczyła jednak, że ChatGPT znacznie częściej niż lekarze czy pielęgniarki klasyfikował przypadki jako bardzo pilne.
"Szpitale powinny ostrożnie podchodzić do wdrażania AI i skupić się na szkoleniu personelu, by potrafił krytycznie oceniać sugestie" – dodała.
Badanie miało jednak pewne ograniczenia, przede wszystkim niewielką liczbę uczestników oraz fakt, że przeprowadzono je tylko w jednym szpitalu na Litwie. Użyty w badaniu model ChatGPT nie był przystosowany do celów medycznych. Specjalnie wyszkolone modele AI mogłyby być skuteczniejsze.
Inne badania sugerują, że AI może być dużym wsparciem dla systemu ochrony zdrowia i lepiej od lekarzy diagnozować złożone przypadki, analizować zdjęcia rentgenowskie czy nawet przewidywać przyszłe problemy zdrowotne. Naukowcy jednak ostrzegają, że nadmierne poleganie na AI może prowadzić do spadku kompetencji u personelu medycznego.
Zespół Juknevičienė planuje już kolejne badania z udziałem nowszych modeli AI, większych grup pacjentów i szerszego zakresu scenariuszy – m.in. w kontekście szkolenia pielęgniarek i interpretacji elektrokardiogramów (EKG), wykrywających nieprawidłowości w pracy serca.