"AI to narzędzie wspierające, a nie zastępujące lekarzy". Jaka będzie przyszłość medycyny?

1 godzine temu 3

Jak AI zmienia medycynę?

Pierwszy certyfikowany algorytm AI zdolny do wystawienia wyniku diagnostycznego bez udziału lekarza pojawił się w 2018 r. w USA. Służy do wykrywania retinopatii cukrzycowej w badaniach okulistycznych. Obecnie w Stanach Zjednoczonych działa ponad 1100 certyfikowanych algorytmów, z czego większość wspiera radiologię, analizując obrazy diagnostyczne, takie jak tomografia komputerowa czy rezonans magnetyczny.

Dalszy ciąg artykułu pod materiałem wideo

Każdy algorytm sztucznej inteligencji stosowany do diagnostyki i leczenia pacjenta musi być certyfikowanym wyrobem medycznym. Warto pamiętać, że żaden duży model językowy nie został certyfikowany jako wyrób medyczny. Dlatego też możemy stosować narzędzia oparte o duże modele językowe do edukacji, ale nie możemy wykorzystywać ich do diagnozowania i leczenia pacjenta.

Czy AI może zastąpić lekarzy?

AI w medycynie to narzędzie wspierające, a nie zastępujące lekarzy. Algorytmy mogą analizować konkretne aspekty zdrowia, np. wykrywać nowotwory w badaniach obrazowych, ale nie są w stanie kompleksowo diagnozować pacjenta. W Polsce prawo jasno określa, że diagnoza musi być wystawiona przez personel medyczny.

Ponad 13 proc. polskich szpitali korzysta z rozwiązań AI, a liczba ta szybko rośnie. Algorytmy wspierają nie tylko diagnostykę, ale także administrację i zarządzanie dokumentacją medyczną. Polska jest również liderem w tworzeniu innowacyjnych rozwiązań — ponad 60 proc. startupów medycznych rozwija technologie AI w obszarach takich jak radiologia, onkologia czy kardiologia.

Co z problemem niejasności i pomyłek w działaniu AI?

Tzw. Black Box AI to wyzwanie, które budzi wątpliwości w medycynie. Przykłady, takie jak diagnozowanie anemii na podstawie EKG, pokazują, że AI może działać skutecznie, ale bez jasnego wyjaśnienia, na jakiej podstawie podejmuje decyzje. To rodzi pytania o zaufanie do takich technologii w opiece zdrowotnej.

Czy lekarz zawsze musi pytać pacjenta o zgodę na wykorzystanie AI?

Sztuczna inteligencja coraz częściej wspiera lekarzy w procesie diagnostycznym i leczniczym. Ale czy za każdym razem, gdy AI jest używana, pacjent musi wyrazić zgodę? Nowe przepisy i interpretacje Kodeksu Etyki Lekarskiej rzucają światło na tę kwestię. Odpowiedź nie jest jednoznaczna — wszystko zależy od sposobu, w jaki AI jest wykorzystywana.

Jeśli AI wspiera jedynie proces decyzyjny lekarza, a ostateczne decyzje podejmuje człowiek, zgoda pacjenta nie jest konieczna. Przykładem może być wykorzystanie AI do poprawy jakości obrazu diagnostycznego czy priorytetyzacji badań. W takich przypadkach AI działa jak narzędzie wspierające, podobnie jak skalpel w rękach chirurga — pacjent nie musi być informowany o każdym technologicznym szczególe.

MedonetPRO OnetPremium

MedonetPRO OnetPremiumMedonet

Sytuacja zmienia się, gdy AI działa niemal autonomicznie i jej wyniki mają kluczowy wpływ na decyzje diagnostyczno-lecznicze. Przykładem może być algorytm oceniający retinopatię cukrzycową, gdzie wynik nie wymaga potwierdzenia lekarza. W takich przypadkach pacjent musi być poinformowany, że badanie opiera się na technologii AI, i wyrazić na to zgodę.

Co mówi Kodeks Etyki Lekarskiej?

Znowelizowany Kodeks Etyki Lekarskiej wprowadził artykuł 12, który podkreśla konieczność pytania pacjenta o zgodę na wykorzystanie AI. Jednak interpretacja tego przepisu wskazuje, że nie dotyczy to wszystkich sytuacji. Kluczowe jest rozróżnienie między wsparciem procesu decyzyjnego a jego zastąpieniem przez AI.

Przeczytaj źródło