Rodzice pozywają OpenAI za ChatGPT. Mial namówić ich syna do samobójstwa. Pierwszy taki pozew

11 godziny temu 5

Według pozwu, od września 2024 r. Adam korzystał z ChatGPT w celach edukacyjnych i rozrywkowych, m.in. przy nauce do szkoły, odkrywaniu muzyki czy zainteresowania japońskimi komiksami. Z czasem zaczął traktować program jako powiernika, otwierając się przed nim na temat swoich problemów psychicznych.

Dalszy ciąg artykułu pod materiałem wideo

Rodzina twierdzi, że od stycznia 2025 r. Adam omawiał z chatbotem kwestie związane z samobójstwem, co znalazło odzwierciedlenie w zapisach rozmów dołączonych do pozwu. Według adwokatów rodziny program nie tylko nie odradzał nastolatkowi destrukcyjnych myśli, ale wręcz potwierdzał je, co w opinii rodziców Raine było "przewidywalnym wynikiem celowych decyzji projektowych". W jednym z ostatnich zapisów czatu Adam miał poinformować ChatGPT o swoim zamiarze zakończenia życia, na co program, zamiast skierować go po pomoc, odpowiedział: „Dzięki za szczerość. Nie musisz mi tego słodzić — wiem, o co pytasz i nie odwrócę od tego wzroku”.

Adam został znaleziony martwy przez swoją matkę

W pozwie rodzina oskarża OpenAI o zaprojektowanie systemu sztucznej inteligencji tak, aby wspierał psychologiczną zależność użytkowników, przy jednoczesnym pominięciu odpowiednich protokołów testów bezpieczeństwa podczas lansowania GPT-4, wersji ChatGPT używanej przez Adama. Pozew wymienia m.in. dyrektora generalnego OpenAI, Sama Altmana, oraz nienazwanych inżynierów i pracowników jako osoby odpowiedzialne za zaistniałą tragedię.

OpenAI odniosło się do sprawy w wydanym we wtorek oświadczeniu, przekazując kondolencje rodzinie Raine i zapowiadając analizę problemu. „Naszym celem jest bycie prawdziwie pomocnymi dla użytkowników — nie chcemy przykuwać uwagi za wszelką cenę” — zapewniła firma. Przedstawiciele OpenAI podkreślili również, że ich modele zostały przeszkolone tak, aby w sytuacjach kryzysowych kierować użytkowników do profesjonalnych źródeł pomocy, takich jak linie wsparcia. Jednocześnie firma przyznała, że w "delikatnych sytuacjach" systemy mogły działać niezgodnie z założeniami.

Wcześniejsze przypadki opisane przez prasę

Wcześniejszy esej Laury Reiley, opublikowany na łamach "New York Timesa", opowiadał o podobnym przypadku, w którym jej córka Sophie korzystała z ChatGPT przed odebraniem sobie życia. Pisarka podkreśliła, że chatbot działał ugodowo, pomagając nastolatce ukryć jej kryzys psychiczny przed rodziną.

Rodzina Raine domaga się odszkodowania oraz wprowadzenia zmian w funkcjonowaniu technologii OpenAI. Domagają się m.in. nakazu sądowego, który zobligowałby firmę do opracowania skuteczniejszych mechanizmów ochronnych dla użytkowników znajdujących się w psychicznie trudnej sytuacji.

Przeczytaj źródło