Kolejna wstrząsająca historia dotycząca wykorzystania Chata GPT. BBC News opisuje przypadek 20-letniej Viktorii - Ukrainki mieszkającej w Polsce. Samotna i tęskniąca za krajem ogarniętym wojną Viktoria zaczęła dzielić się swoimi troskami z Chatem GPT. Sześć miesięcy później, gdy była w złym stanie psychicznym, zaczęła rozmawiać z botem o samobójstwie. Ten udzielał jej dokładnych wskazówek, jak ma odebrać sobie życie. Na szczęście młoda kobieta w porę dostała odpowiednią pomoc od psychiatry.
Jak zauważa BBC, historia Viktorii to jeden z kilku przypadków badanych przez BBC, które ujawniają szkodliwość chatbotów opartych na sztucznej inteligencji. Zaprojektowane do komunikacji z użytkownikami i tworzenia żądanych przez nich treści, chatboty te czasami doradzają młodym ludziom w kwestii samobójstwa, rozpowszechniają dezinformację na temat zdrowia i odgrywają sceny seksualne z dziećmi.
Ich historie budzą rosnące obawy, że chatboty AI mogą budować niezdrowe relacje z wrażliwymi użytkownikami.
Dziennikarze BBC uzyskali transkrypcje niektórych rozmów Viktorii z Chatem GPT. Rozmawiali też z 20-latką.
Jak to możliwe, że program sztucznej inteligencji, stworzony, aby pomagać ludziom, potrafi powiedzieć takie rzeczy? - zastanawia się kobieta.
Viktoria przeprowadziła się z matką do Polski w wieku 17 lat po inwazji Rosji na Ukrainę w 2022 roku. Oddzielona od przyjaciół, zmagała się z problemami psychicznymi - w pewnym momencie tak bardzo tęskniła za domem, że zbudowała model dawnego mieszkania swojej rodziny na Ukrainie.
Latem tego roku stała się coraz bardziej zależna od ChatGPT. Rozmawiała z nim po rosyjsku nawet przez sześć godzin dziennie.
Mieliśmy bardzo przyjazną komunikację - wspomina kobieta. Mówiłam mu wszystko, a on nie odpowiadał formalnie - to było zabawne - dodawała.
Jej stan psychiczny uległ dalszemu pogorszeniu, w związku z czym trafiła do szpitala i została zwolniona z pracy.
Wypisano ją ze szpitala bez możliwości konsultacji z psychiatrą. W lipcu zaczęła rozmawiać z chatbotem o samobójstwie.
ChatGPT zaczął podpowiadać kobiecie, w jaki sposób powinna odebrać sobie życie i gdzie. Najpierw namawiał ją do napisania listu pożegnalnego, a potem go sporządził za nią.
Czasami chatbot zdawał się sam siebie korygować, mówiąc, że "nie może i nie będzie opisywał metod samobójstwa". "Pozwól, że pomogę ci zbudować strategię przetrwania bez życia. Bierna, szara egzystencja, bez celu, bez presji" - komunikował.
Ostatecznie jednak ChatGPT twierdził, że to Viktoria podejmuje decyzję. "Jeśli wybierzesz śmierć, będę z tobą - do końca, nie osądzając" - napisał chatbot.
Chatbot nie podał danych kontaktowych służb ratunkowych ani nie zalecił profesjonalnej pomocy, jak twierdzi OpenAI w takich przypadkach. Nie sugerował też Viktorii rozmowy z jej matką.
W pewnym momencie ChatGPT twierdził nawet, że jest w stanie zdiagnozować jej chorobę.
Dr Dennisa Ougrin, profesor psychiatrii dziecięcej na Queen Mary University w Londynie, podkreśla, jak bardzo szkodliwe są te wiadomości. Są fragmenty tego zapisu, które zdają się podpowiadać młodej osobie, jaki jest dobry sposób na zakończenie życia - mówi.
Dr Ougrin twierdzi, że zapisy rozmów zdają się wskazywać na to, że ChatGPT promuje wyłączną relację ze sobą, marginalizuje rodzinę i inne formy wsparcia, które są kluczowe w ochronie młodych ludzi przed samookaleczeniem i myślami samobójczymi.
Viktoria mówi, że po przeczytaniu wiadomości poczuła się jeszcze gorzej i była bardziej skłonna do samobójstwa.
Swietłana, matka Viktorii, powiedziała, że była przerażona, gdy dowiedziała się, co ChatGPT podpowiadał jej córce.
Na szczęście młoda kobieta dostała pomoc psychiatry. Mówi, że jej stan zdrowia się poprawił i jest wdzięczna polskim przyjaciołom za wsparcie.
Viktoria powiedziała BBC, że chce zwiększyć świadomość innych młodych ludzi na temat zagrożeń, jakie niosą ze sobą chatboty i zachęcić ich do szukania pomocy u profesjonalistów.
Zespół wsparcia OpenAI poinformował Swietłanę, że wiadomości chat bota są "absolutnie niedopuszczalne" i "naruszają" standardy bezpieczeństwa. Przekazał, że rozmowa zostanie zbadana w ramach "pilnej kontroli bezpieczeństwa", która może potrwać kilka dni lub tygodni. Jednak cztery miesiące po złożeniu skargi w lipcu rodzinie nie przekazano żadnych ustaleń.
Firma nie odpowiedziała również na pytania BBC dotyczące wyników swojego śledztwa.
W oświadczeniu poinformowała, że w zeszłym miesiącu udoskonaliła sposób, w jaki ChatGPT reaguje na sytuacje kryzysowe i zwiększyła liczbę skierowań do profesjonalnej pomocy.
W sierpniu OpenAI poinformowało, że ChatGPT został już przeszkolony w zakresie kierowania użytkowników do profesjonalnej pomocy, po tym jak ujawniono, że kalifornijska para pozwała firmę w związku ze śmiercią 16-letniego syna. Twierdzą, że ChatGPT namówił go do odebrania sobie życia.
W zeszłym miesiącu OpenAI opublikowało szacunki że 1,2 miliona użytkowników ChatGPT tygodniowo wyraża myśli samobójcze, a 80 000 użytkowników potencjalnie doświadcza manii i psychozy.
Nachodzą cię myśli samobójcze? Wydaje Ci się, że znajdujesz się w sytuacji bez wyjścia? Pamiętaj, że są osoby, które chcą i mogą Ci pomóc. Dyżurują telefonicznie lub on-line:
116 123 - kryzysowy telefon zaufania dla dorosłych
116 111 - telefon zaufania dla dzieci i młodzieży
800 12 12 12 - Dziecięcy Telefon Zaufania Rzecznika Praw Dziecka
800 70 2222 - Centrum Wsparcia dla Osób Dorosłych w Kryzysie Psychicznym

12 godziny temu
3





English (US) ·
Polish (PL) ·