Czy po śmierci można wciąż rozmawiać z bliskimi? Dla wielu to pytanie brzmi jak z filmu science fiction, ale dla rosnącej liczby osób – to już rzeczywistość. Sztuczna inteligencja coraz częściej staje się narzędziem do „cyfrowego życia po życiu”, oferując rozmowy z głosami i wspomnieniami tych, którzy odeszli.
Jak wyjaśnia dr Tomasz Hollanek z Uniwersytetu w Cambridge, etyk zajmujący się problematyką sztucznej inteligencji, coraz więcej osób korzysta z technologii, by odzyskać namiastkę kontaktu ze zmarłymi. Popularność zyskują tak zwane deadboty i griefboty – programy umożliwiające prowadzenie rozmów przypominających dialog z nieżyjącą osobą.
System, który „wskrzesza zmarłych”
Pomysł na „cyfrowe życie po śmierci” nie jest nowy. Od lat powstają serwisy i aplikacje, które pomagają zachować wspomnienia o bliskich w formie cyfrowej. Jednak dopiero rozwój nowoczesnych modeli sztucznej inteligencji pozwolił nadać temu pomysłowi nowy wymiar – umożliwił tworzenie chatbotów mówiących i zachowujących się jak konkretna osoba.
Największe kontrowersje wzbudzają systemy, które „wskrzeszają” zmarłych. Wystarczy nagranie głosu, zestaw wiadomości lub publiczne wypowiedzi, by odtworzyć styl mówienia i osobowość danej osoby. Tak powstaje cyfrowy sobowtór.
– Od zmarłych nie da się uzyskać zgody na wykorzystanie ich danych i wizerunku. Nie mogą oni także wyrazić sprzeciwu, jeśli bot w ich imieniu powie coś, z czym sami by się nie zgodzili – tłumaczy dr Hollanek.
„Świadome griefboty”. Kiedy człowiek tworzy własnego ducha
Na wyzwania związane z etyką i prywatnością odpowiada nowa generacja narzędzi. Tak zwane „świadome griefboty” powstają jeszcze za życia użytkownika, który samodzielnie gromadzi dane – głos, wideo, wiadomości – by po śmierci pozostawić po sobie cyfrową reprezentację.
– To narzędzia, które w pewnym sensie pozwalają kontrolować, w jaki sposób inni będą nas pamiętać – mówi ekspert z Cambridge.
Jednak nawet takie rozwiązania nie są wolne od zagrożeń. Jak zauważa Hollanek, reakcje emocjonalne bliskich na kontakt z „cyfrowym duchem” bywają nieprzewidywalne.
Niektóre projekty wykorzystują tę technologię w szlachetnych celach – do zachowania świadectw osób, które przeżyły dramatyczne wydarzenia, takie jak Holokaust czy konflikty zbrojne. Umożliwiają one przyszłym pokoleniom „rozmowę” z cyfrowymi wersjami świadków historii.
Globalny eksperyment na granicy etyki
Jak podkreśla Hollanek, trudno oszacować, ile osób korzysta z takich rozwiązań. Griefbota można stworzyć zarówno przy użyciu komercyjnych platform z USA i Korei Południowej, jak i ogólnodostępnych narzędzi – nawet takich jak ChatGPT.
Badania nad postrzeganiem cyfrowej nieśmiertelności prowadzone są również w Polsce. Dr Hollanek uczestniczy w projekcie kierowanym przez dr Katarzynę Nowaczyk-Basińską, analizującym różnice kulturowe w podejściu do tego zjawiska w Polsce, Indiach i Chinach.
Wśród badanych pojawiają się wspólne obawy – dotyczące komercjalizacji śmierci i dominacji firm prywatnych, które zarabiają na emocjach.
– Pojawia się pytanie, czy taki model biznesowy powinien w ogóle obejmować produkty związane z tak delikatną sferą, jak śmierć, żałoba czy godzenie się z własną doczesnością – wskazuje ekspert. Jednocześnie większość badaczy nie odrzuca w pełni tego typu eksperymentów, lecz apeluje o ich regulację prawną.
Dr Hollanek przypomina, że w Unii Europejskiej już obowiązuje Rozporządzenie w sprawie Sztucznej Inteligencji, które nakazuje producentom wyraźne informowanie użytkowników, że mają do czynienia z AI, a nie z człowiekiem.
Tymczasem w Stanach Zjednoczonych dopiero toczą się rozmowy nad ochroną wizerunku po śmierci. – To, co firmy teraz robią, jest wielkim eksperymentem w obszarze wyjątkowo wrażliwym – podsumowuje dr Hollanek.
Czytaj też:
Papież Franciszek, Strzembosz, Kołaczkowska. Rok 2025 przyniósł lawinę pożegnańCzytaj też:
Gdy zwierzę oswaja się ze śmiercią towarzysza. „Nie różnimy się od nich zbyt wiele”



![Zendaya w filmie oscarowego twórcy „Tamtych dni, tamtych nocy”. To pełna napięcia gra, która rozpala zmysły [RECENZJA]](https://images.immediate.co.uk/production/volatile/sites/64/2025/10/okladka-01c585e.png?resize=1200%2C630)



English (US) ·
Polish (PL) ·