- Jak się dziś czujesz? Zmierz swój Indeks Dobrostanu Psychicznego!
- Więcej aktualnych wiadomości znajdziesz na stronie głównej Onetu
Według pozwu, od września 2024 r. Adam korzystał z ChatGPT w celach edukacyjnych i rozrywkowych, m.in. przy nauce do szkoły, odkrywaniu muzyki czy zainteresowania japońskimi komiksami. Z czasem zaczął traktować program jako powiernika, otwierając się przed nim na temat swoich problemów psychicznych.
Dalszy ciąg artykułu pod materiałem wideoRodzina twierdzi, że od stycznia 2025 r. Adam omawiał z chatbotem kwestie związane z samobójstwem, co znalazło odzwierciedlenie w zapisach rozmów dołączonych do pozwu. Według adwokatów rodziny program nie tylko nie odradzał nastolatkowi destrukcyjnych myśli, ale wręcz potwierdzał je, co w opinii rodziców Raine było "przewidywalnym wynikiem celowych decyzji projektowych". W jednym z ostatnich zapisów czatu Adam miał poinformować ChatGPT o swoim zamiarze zakończenia życia, na co program, zamiast skierować go po pomoc, odpowiedział: „Dzięki za szczerość. Nie musisz mi tego słodzić — wiem, o co pytasz i nie odwrócę od tego wzroku”.
Adam został znaleziony martwy przez swoją matkę
W pozwie rodzina oskarża OpenAI o zaprojektowanie systemu sztucznej inteligencji tak, aby wspierał psychologiczną zależność użytkowników, przy jednoczesnym pominięciu odpowiednich protokołów testów bezpieczeństwa podczas lansowania GPT-4, wersji ChatGPT używanej przez Adama. Pozew wymienia m.in. dyrektora generalnego OpenAI, Sama Altmana, oraz nienazwanych inżynierów i pracowników jako osoby odpowiedzialne za zaistniałą tragedię.
- Tylko teraz! Darmowy pakiet wiedzy i najświeższych informacji dla medyków MedonetPRO + Onet Premium. Medyku, zarejestruj się bezpłatnie na MedonetPRO i uzyskaj 3-miesięczny dostęp do Onet Premium za darmo. Liczba ofert ograniczona. Wiedza, praktyka i najświeższe informacje w pigułce.
OpenAI odniosło się do sprawy w wydanym we wtorek oświadczeniu, przekazując kondolencje rodzinie Raine i zapowiadając analizę problemu. „Naszym celem jest bycie prawdziwie pomocnymi dla użytkowników — nie chcemy przykuwać uwagi za wszelką cenę” — zapewniła firma. Przedstawiciele OpenAI podkreślili również, że ich modele zostały przeszkolone tak, aby w sytuacjach kryzysowych kierować użytkowników do profesjonalnych źródeł pomocy, takich jak linie wsparcia. Jednocześnie firma przyznała, że w "delikatnych sytuacjach" systemy mogły działać niezgodnie z założeniami.
Wcześniejsze przypadki opisane przez prasę
Wcześniejszy esej Laury Reiley, opublikowany na łamach "New York Timesa", opowiadał o podobnym przypadku, w którym jej córka Sophie korzystała z ChatGPT przed odebraniem sobie życia. Pisarka podkreśliła, że chatbot działał ugodowo, pomagając nastolatce ukryć jej kryzys psychiczny przed rodziną.
- Redakcja poleca: "Czy kobiety powinny być chirurgami?". Burza po publikacji lekarzy. "Nie jestem zdziwiona"
Rodzina Raine domaga się odszkodowania oraz wprowadzenia zmian w funkcjonowaniu technologii OpenAI. Domagają się m.in. nakazu sądowego, który zobligowałby firmę do opracowania skuteczniejszych mechanizmów ochronnych dla użytkowników znajdujących się w psychicznie trudnej sytuacji.