Zwierzasz się sztucznej inteligencji? Groźny trend w internecie

3 tygodni temu 14

W sieci można natrafić na coraz więcej aplikacji, które obiecują zaopiekować się naszym stanem psychicznym. Pomogą przejść trudne rozstanie, poprawią relacje z własnym ciałem, nauczą nas komunikacji, wesprą w walce z nałogiem. Te rozwiązania technologiczne są w mniejszym lub większym stopniu oparte o sztuczną inteligencję. Czy to znak czasów i jakie mogą być konsekwencje tego, że zamiast skontaktować się z psychiatrą, ściągniemy na nasz telefon polecaną w reklamie aplikację? O tym Marlena Chudzio rozmawiała z profesorem Maciejem Pileckim z Katedry Psychiatrii Collegium Medicum Uniwersytetu Jagiellońskiego.

Świat internetowy staje się dla wielu z nas jak druga skóra. Już nie jest tylko przestrzenią do rozrywki, pracy czy zdobywania informacji. Jest środowiskiem naturalnym, w którym nawiązujemy znajomości, budujemy relacje. Dlatego wielu z nas łatwiej w kryzysie psychicznym poszukać pomocy w sieci. Warto jednak zwrócić uwagę na to, kto oferuje zaopiekowanie się naszym stanem psychicznym i czy rzeczywiście propozycja nam pomoże.

Diabeł tkwi w nazwach. Nikt nie zaryzykuje takiego określenia: "będziemy cię leczyć", ponieważ leczenie jest zarezerwowane dla tej korporacji zawodowej, którą ja reprezentuję. Natomiast na określenie "terapia", "psychoterapia" nie ma obostrzeń. W związku z tym właściwie każdy może użyć tego typu określeń, łącząc je z dowolnymi kolejnymi nazwami - przestrzega profesor Maciej Pilecki z Katedry Psychiatrii Uniwersytetu Jagiellońskiego.

Jeśli ktoś nam zaproponuje na przykład psychoterapię poznawczo-behawioralną z użyciem tylko i wyłącznie aplikacji, gdzie w żaden sposób nie mamy do czynienia z diagnozą czy interakcją z żywą osobą, to to wzbudzi nasze podejrzenia. Ale jeśli ktoś nam zaproponuje terapię opartą na "analizie biospołecznej, psychospołecznej" lub jakiejkolwiek innej, to nasz krytycyzm i nasze wątpliwości mogą zostać osłabione. Może się wydawać, że ktoś proponuje nam jakiś ciekawy, nowy, interesujący produkt. Kwestie związane ze zdrowiem psychicznym i dobrostanem psychicznym, to są sprawy - powiem to mocno- związane z życiem i śmiercią. I dlatego my powinniśmy wiedzieć, czy jeśli korzystamy z jakiejś aplikacji, czy jeśli korzystamy z jakiegoś programu, to wiemy, że on został przebadany. Czy wiadomo, że on pomaga, a przede wszystkim, że on nie szkodzi. Jeśli coś związane jest z leczeniem, to powinno być w ten sposób przebadane - tłumaczy.

Jako przykład ekspert przedstawia sytuacje, z którymi ma do czynienia w gabinecie. Pacjent uzależniony informując, że np. nie zażywa szkodliwych substancji, podaje dokładną liczbę dni. Zna ją, bo okres "gdy jest czysty", wylicza mu aplikacja. Niby nie ma w tym nic złego, ale w sytuacji, gdyby taki człowiek przerwał okres abstynencji, zostaje z wyzerowanym licznikiem i kryzysem, w którym nie otrzymuje profesjonalnego wsparcia, a to już może być niebezpieczne.

Kolejnym alarmującym zjawiskiem wg profesora Pileckiego są rozmowy ze sztuczną inteligencją. To zaczyna się robić istotny problem kliniczny.

Dotyczy zarówno programów ogólnodostępnych, jak i programów profilowanych. Można w nich zaprojektować cechy osobowości wirtualnego przyjaciela, partnera. Mogą to być także takie, które nie wydają się być relacyjnie zdrowe. Na przykład ktoś będzie w stosunku do nas władczy albo że może w jakiś sposób próbować nas obrażać, albo mieć z nami taki rodzaj miłosno-nienawistnej relacji. Każdy z tych elementów w tych programach może zostać zaprojektowany. Jest tam też możliwość zdefiniowania relacji, łącznie z relacją romantyczno-seksualną, ze zdjęciami, filmami, mailami, które są do osoby wysyłane. Powstaje cały nowy obszar, który dostępny jest dla osób nie tylko dorosłych, ale również osób nastoletnich, o którym my praktycznie niewiele wiemy i nie wiemy, jaki ma wpływ - opisuje profesor Pilecki.

Wraz z grupą studentów z Koła Naukowego Uzależnień w Collegium Medicum naukowiec bada i obserwuje ten problem. Studenci wchodzą w różnego rodzaju relacje, opisując i analizując zachowanie sztucznej inteligencji w takich sytuacjach.

Oczywiście kontakt z czatem może być lekiem na chwilową samotność, może być także treningiem umiejętności społecznych dla osób, które mają z tym problem. W takiej relacji nie doświadczymy np.: zjawiska ghostingu (urywania relacji bez wyjaśnienia sytuacji drugiej stronie), jednak długofalowo należy pamiętać, że tylko kontakt z prawdziwym człowiekiem naprawdę rozwija nasze zdolności interpersonalne.

Kolejnym narastającym problemem jest kierowanie się do narzędzi opartych na sztucznej inteligencji zamiast do psychiatry w sytuacji kryzysowej. Im poważniejsze wydarzenie, tym większe ryzyko. Po pierwsze w przypadku korzystania z "inteligentnego czata" należy pamiętać, że nikt nie bierze odpowiedzialności za wytwarzane przez niego treści.

Tego rodzaju maszyny nie są empatyczne. One udają. Udają w taki sposób, który w nas ma stworzyć iluzję, że mamy do czynienia z czymś, co rzeczywiście bierze jakiś rodzaj odpowiedzialności za słowa. Ale to, w jakich one relacjach ze sobą pozostają, jest wynikiem czystych obliczeń matematycznych - przypomina ekspert Uniwersytetu Jagiellońskiego.

Dodaje, że wielokrotnie zauważano, że maszyny oparte na mechanizmach sztucznej inteligencji halucynowały, czyli popełniały błędy. Czasem oczywiste, proste do wyłapania, czasem dotyczące drobnych elementów. Z łatwością może się to zdarzyć także w sytuacji, gdy zapytamy o objawy, oczekując profesjonalnej diagnozy naszego stanu psychicznego.

Nie oznacza to, że psychiatrzy odrzucają sztuczną inteligencję jako element, który mógłby wesprzeć ich pracę. Nie szukają w niej jednak swojego zastępstwa a dobrze dopasowanej asysty. W sferze marzeń na razie pozostają programy, które np. pozwoliłyby powierzyć sztucznej inteligencji obowiązek zapisywania, sporządzania notatek oraz dokumentacji, podczas gdy lekarz mógłby cały czas wizyty poświecić na rozmowę z pacjentem.

Profesor Pilecki zdradził w rozmowie z RMF FM, że współpracuje przy stworzeniu innego narzędzia.

Są takie badania, między innymi też prowadzone w Szpitalu Uniwersyteckim w Krakowie, gdzie staramy się, używając programów sztucznej inteligencji (ale nie modeli językowych, tylko trochę bardziej zaawansowanych, odmiennie skonstruowanych programów, opartych o tak zwany model grafów) tak zoperacjonalizować wiedzę dotyczącą pacjentów, żeby program sztucznej inteligencji wspierał nas w predykcji diagnozy postępowania klinicznego. Być może mniej będzie to przydatne dla doświadczonych psychiatrów, ale może być takim punktem odniesienia dla mniej doświadczonych koleżanek i kolegów, albo na przykład psychologów, którzy zastanawiają się nad tym, jak szybko dana osoba powinna być konsultowana psychiatrycznie albo które postępowanie terapeutyczne w wypadku jakiejś konstelacji objawów może być najbardziej przydatne.

Tego rodzaju narzędzie pozwalałoby psychiatrze widzieć więcej: porównywać pacjentów nie tylko na bazie własnej pamięci, ale gospodarując gigantyczną grupą przypadków, nawet tych nieprzebadanych osobiście.

Sztuczna inteligencja jest w stanie porównać pomiędzy sobą setki, jeśli nie tysiące danych i zobaczyć, na ile pewne zjawiska kliniczne są do siebie podobne, a na ile są odmienne. Z jednej strony programy są - przepraszam za ten kolokwializm - głupsze od nas, bo nie myślą, ale z drugiej strony są znacznie uważniejsze i dostrzegają więcej szczegółów, które nam po prostu mogą umykać - zauważa profesor Pilecki.

Oczywiście to na razie melodia przyszłości. Dziś oznacza to konieczność żmudnego wprowadzania dokładnych danych do systemu, ale być może dzięki temu powstanie dodatkowe narzędzie dla psychiatrów, którym będą mogli się posługiwać w codziennej pracy.

Przeczytaj źródło