Coraz więcej osób wykorzystuje sztuczną inteligencję, by odzyskać namiastkę kontaktu ze zmarłymi lub zapewnić sobie "cyfrowe życie po śmierci" - mówi etyk dr Tomasz Hollanek. Stąd popularność m.in. deadbotów i griefbotów, które umożliwiają "rozmowę" z osobą zmarłą i często pomagają poradzić sobie z żałobą. Komercjalizacja takich technologii to jednak ryzykowny eksperyment dotykający wyjątkowo wrażliwej sfery emocji - uważa ekspert.

  • Coraz więcej osób korzysta z tzw. deadbotów i griefbotów - czatbotów, które naśladują sposób mówienia zmarłych bliskich. Dla wielu to forma wsparcia w żałobie, ale eksperci ostrzegają przed etycznymi i emocjonalnymi zagrożeniami.
  • Powstają też systemy pozwalające ludziom jeszcze za życia świadomie gromadzić dane, by po śmierci stworzyć własną cyfrową reprezentację. Takie rozwiązania dają pewną kontrolę nad pamięcią po sobie, ale niosą ryzyko niewłaściwego wykorzystania wizerunku.
  • Eksperci apelują o pilne regulacje prawne i etyczne, zwłaszcza wobec firm zarabiających na technologiach związanych ze śmiercią i żałobą.
  • Bądź na bieżąco! Wejdź na stronę główną RMF24.pl

Pomysł na "cyfrowe życie po śmierci" nie jest nowy. Od lat powstają aplikacje i serwisy pozwalające zachować wspomnienia o zmarłych w formie cyfrowej - opowiada dr Tomasz Hollanek z Uniwersytetu w Cambridge, etyk zajmujący się problemami sztucznej inteligencji. 

Nowoczesne modele AI nadały jednak tym pomysłom zupełnie nowy wymiar - umożliwiły tworzenie czatbotów, które potrafią mówić i zachowywać się jak konkretna osoba, także taka, która już nie żyje. Takie programy określa się mianem deadbotów lub griefbotów.

Najwięcej kontrowersji budzą narzędzia pozwalające na cyfrowe "wskrzeszenie" zmarłej osoby. Dziś chatbota można stosunkowo łatwo zaprogramować tak, aby odpowiadał w sposób przypominający styl mówienia konkretnego celebryty czy polityka. 

Systemy te analizują unikalne słownictwo i sposób formułowania zdań w publicznych wypowiedziach danej osoby, a następnie starają się odwzorować te cechy. Podobnie, na podstawie nagrań rozmów czy wymienionych wiadomości, możliwe jest odtworzenie sposobu komunikowania się zmarłego bliskiego.

Ekspert wskazał, że taki sposób na "rozmowę" z nieżyjącą osobą niesie dużo problemów etycznych. Od zmarłych nie da się uzyskać zgody na wykorzystanie ich danych i wizerunku. Nie mogą oni także wyrazić sprzeciwu, jeśli bot w ich imieniu powie coś, z czym sami by się nie zgodzili.

"Świadome giefboty" za życia gromadzą dane

Na te wyzwania odpowiada druga kategoria produktów w sektorze digital afterlife - przeznaczona dla osób, które za życia świadomie gromadzą własne dane, aby stworzyć swoją pośmiertną reprezentację. 

To narzędzia, które w pewnym sensie pozwalają kontrolować, w jaki sposób inni będą nas pamiętać - wyjaśnia Hollanek.

Świadomie tworzone griefboty nie są jednak całkowicie wolne od zagrożeń związanych np. z tym, jak "cyfrowy duch" jest odbierany przez bliskich.

Badacz zaznacza też, że - poza zastosowaniami prywatnymi - istnieją produkty mające na celu odtworzenie postaci publicznych lub historycznych, by zachować ich świadectwo. 

Możemy mówić np. o projektach, które pozwalają w nowym formacie przechować wspomnienia osób, które przeżyły Holokaust lub inne konflikty - dodaje.

Jego zdaniem trudno oszacować, ile osób korzysta w ten sposób z nowych technologii, ponieważ griefbota można stworzyć zarówno przy użyciu specjalistycznych rozwiązań, jak i powszechnie dostępnych narzędzi. Nawet ChatGPT można zaprogramować tak, aby udawał konkretną osobę.

Badania prowadzone m.in. w Polsce

Największe podmioty w tej branży pochodzą z USA i Korei Południowej. Coraz częściej pojawiają się także firmy europejskie, m.in. z Niemiec i Włoch. Oferta obejmuje zarówno rozwiązania tanie, jak i produkty kosztujące kilkanaście tysięcy euro lub więcej.

Dr Hollanek uczestniczy obecnie w projekcie badawczym, kierowanym przez dr Katarzynę Nowaczyk-Basińską, analizującym międzykulturowe różnice w postrzeganiu cyfrowej nieśmiertelności. Naukowcy porównują postawy wobec tego zjawiska na podstawie badań fokusowych w Polsce, Indiach i Chinach oraz rozmów z ekspertami zajmującymi się problematyką śmierci.

We wszystkich badanych grupach pojawiały się obawy związane z dominacją w branżach prywatnych, nastawionych na zysk podmiotów. 

Pojawia się pytanie, czy taki model biznesowy powinien w ogóle obejmować produkty związane z tak delikatną sferą, jak śmierć, żałoba czy godzenie się z własną doczesnością - wskazuje.

Jednocześnie większość ekspertów nie sprzeciwiała się kategorycznie eksperymentom z technologią, wskazywali jednak na pilną potrzebę regulacji. W kontekście praktyki prawnej dr Hollanek podkreślił rolę rozporządzenia UE w sprawie AI, które nakłada na producentów czatbotów obowiązek wyraźnego informowania użytkowników, że wchodzą w interakcję ze sztuczną inteligencją, a nie człowiekiem. 

W Stanach Zjednoczonych trwają rozmowy nad ochroną wizerunku po śmierci. Branża pozostaje w dużej mierze nieregulowana. 

To, co firmy teraz robią, jest wielkim eksperymentem w obszarze wyjątkowo wrażliwym - podsumowuje Hollanek.