- Wiesz, co jesz? Sprawdź, czy odżywiasz się zdrowo, wypełniając nasz Narodowy Test Żywienia
- Więcej informacji znajdziesz na stronie głównej Onetu
Jak AI zmienia medycynę?
Pierwszy certyfikowany algorytm AI zdolny do wystawienia wyniku diagnostycznego bez udziału lekarza pojawił się w 2018 r. w USA. Służy do wykrywania retinopatii cukrzycowej w badaniach okulistycznych. Obecnie w Stanach Zjednoczonych działa ponad 1100 certyfikowanych algorytmów, z czego większość wspiera radiologię, analizując obrazy diagnostyczne, takie jak tomografia komputerowa czy rezonans magnetyczny.
Dalszy ciąg artykułu pod materiałem wideoKażdy algorytm sztucznej inteligencji stosowany do diagnostyki i leczenia pacjenta musi być certyfikowanym wyrobem medycznym. Warto pamiętać, że żaden duży model językowy nie został certyfikowany jako wyrób medyczny. Dlatego też możemy stosować narzędzia oparte o duże modele językowe do edukacji, ale nie możemy wykorzystywać ich do diagnozowania i leczenia pacjenta.
Czy AI może zastąpić lekarzy?
AI w medycynie to narzędzie wspierające, a nie zastępujące lekarzy. Algorytmy mogą analizować konkretne aspekty zdrowia, np. wykrywać nowotwory w badaniach obrazowych, ale nie są w stanie kompleksowo diagnozować pacjenta. W Polsce prawo jasno określa, że diagnoza musi być wystawiona przez personel medyczny.
Ponad 13 proc. polskich szpitali korzysta z rozwiązań AI, a liczba ta szybko rośnie. Algorytmy wspierają nie tylko diagnostykę, ale także administrację i zarządzanie dokumentacją medyczną. Polska jest również liderem w tworzeniu innowacyjnych rozwiązań — ponad 60 proc. startupów medycznych rozwija technologie AI w obszarach takich jak radiologia, onkologia czy kardiologia.
Co z problemem niejasności i pomyłek w działaniu AI?
Tzw. Black Box AI to wyzwanie, które budzi wątpliwości w medycynie. Przykłady, takie jak diagnozowanie anemii na podstawie EKG, pokazują, że AI może działać skutecznie, ale bez jasnego wyjaśnienia, na jakiej podstawie podejmuje decyzje. To rodzi pytania o zaufanie do takich technologii w opiece zdrowotnej.
Czy lekarz zawsze musi pytać pacjenta o zgodę na wykorzystanie AI?
Sztuczna inteligencja coraz częściej wspiera lekarzy w procesie diagnostycznym i leczniczym. Ale czy za każdym razem, gdy AI jest używana, pacjent musi wyrazić zgodę? Nowe przepisy i interpretacje Kodeksu Etyki Lekarskiej rzucają światło na tę kwestię. Odpowiedź nie jest jednoznaczna — wszystko zależy od sposobu, w jaki AI jest wykorzystywana.
Jeśli AI wspiera jedynie proces decyzyjny lekarza, a ostateczne decyzje podejmuje człowiek, zgoda pacjenta nie jest konieczna. Przykładem może być wykorzystanie AI do poprawy jakości obrazu diagnostycznego czy priorytetyzacji badań. W takich przypadkach AI działa jak narzędzie wspierające, podobnie jak skalpel w rękach chirurga — pacjent nie musi być informowany o każdym technologicznym szczególe.
MedonetPRO OnetPremiumMedonet
Sytuacja zmienia się, gdy AI działa niemal autonomicznie i jej wyniki mają kluczowy wpływ na decyzje diagnostyczno-lecznicze. Przykładem może być algorytm oceniający retinopatię cukrzycową, gdzie wynik nie wymaga potwierdzenia lekarza. W takich przypadkach pacjent musi być poinformowany, że badanie opiera się na technologii AI, i wyrazić na to zgodę.
Co mówi Kodeks Etyki Lekarskiej?
Znowelizowany Kodeks Etyki Lekarskiej wprowadził artykuł 12, który podkreśla konieczność pytania pacjenta o zgodę na wykorzystanie AI. Jednak interpretacja tego przepisu wskazuje, że nie dotyczy to wszystkich sytuacji. Kluczowe jest rozróżnienie między wsparciem procesu decyzyjnego a jego zastąpieniem przez AI.