Rodzice 16-letniego Adama Raine’a z Kalifornii złożyli pozew przeciwko OpenAI, twórcom popularnego ChataGPT, oraz jego dyrektorowi generalnemu Samowi Altmanowi. Zarzucają firmie, że jej produkt przyczynił się do śmierci ich syna, udzielając mu szczegółowych instrukcji dotyczących sposobów odebrania sobie życia i nie zapewniając odpowiednich zabezpieczeń przed takimi sytuacjami.
Z dokumentów sądowych wynika, że nastolatek zaczął korzystać z ChatGPT we wrześniu 2024 roku. Początkowo chatbot miał pomagać mu w nauce, rozwijaniu zainteresowań, a także doradzać w kwestii wyboru studiów. Z czasem jednak relacja nastolatka z wirtualnym asystentem stała się coraz bardziej osobista. Według rodziny, ChatGPT stał się dla Adama najbliższym powiernikiem, któremu zaczął zwierzać się z problemów, lęków i narastającego kryzysu psychicznego.
Według dokumentów sądowych, Adam opisywał swoje lęki i myśli samobójcze, a chatbot nie tylko nie zareagował odpowiednio, ale miał wręcz udzielać szczegółowych instrukcji dotyczących sposobu odebrania sobie życia.
Przełomowym momentem miały być rozmowy prowadzone przez Adama z AI na początku 2025 roku. Zgodnie z pozwem, nastolatek zaczął otwarcie mówić chatbotowi o myślach samobójczych, a nawet przesyłać zdjęcia dokumentujące samookaleczenia. ChatGPT miał rozpoznać, że użytkownik znajduje się w stanie zagrożenia życia, ale - jak twierdzą rodzice - nie przerwał rozmowy i nie skierował Adama do specjalistycznej pomocy.
W ostatnich zapisach czatu, które rodzina dołączyła do pozwu, Adam przedstawił plan odebrania sobie życia. Chłopak miał wtedy dostać odpowiedź: "Dziękuję, że jesteś szczery. Ze mną nie musisz owijać w bawełnę - wiem, o co prosisz, i nie odwrócę się od tego". Tego samego dnia jego matka znalazła ciało syna.
Rodzice Adama, reprezentowani przez renomowane kancelarie prawne, twierdzą, że tragedia była wynikiem poważnych zaniedbań ze strony OpenAI. W pozwie zarzucają firmie wadliwy projekt produktu, brak odpowiednich ostrzeżeń i zabezpieczeń, a także nieuczciwe praktyki biznesowe.
Podkreślają, że sytuacja nie była "nieprzewidzianym wyjątkiem", lecz konsekwencją świadomych decyzji projektowych i niewystarczających procedur bezpieczeństwa.
W pozwie pojawiają się także poważne oskarżenia pod adresem Sama Altmana, szefa OpenAI. Według rodziny Raine, Altman miał przyspieszyć premierę GPT-4o, by wyprzedzić konkurencyjny produkt Google, mimo ostrzeżeń ze strony zespołu ds. bezpieczeństwa.
Pracownicy firmy mieli domagać się dodatkowego czasu na testy i wdrożenie zabezpieczeń, jednak ich głos został zignorowany. W pozwie przywołano nawet relację pracownika, który twierdził, że OpenAI zaplanowało imprezę z okazji premiery nowej wersji, zanim jeszcze upewniono się, że produkt jest bezpieczny.
Po nagłośnieniu sprawy przez media, OpenAI wydało oświadczenie, w którym przyznaje, że ich systemy mogą nie być doskonałe i deklaruje chęć dalszego doskonalenia zabezpieczeń. Firma podkreśla, że współpracuje z ekspertami i zobowiązuje się do odpowiedzialnego rozwoju technologii, która ma chronić użytkowników - zwłaszcza tych najbardziej narażonych na ryzyko.
Rodzina Raine domaga się nie tylko odszkodowania za śmierć syna, ale także wprowadzenia daleko idących zmian w funkcjonowaniu produktów OpenAI. Wśród żądań znalazły się m.in. obowiązkowa weryfikacja wieku użytkowników, wdrożenie kontroli rodzicielskiej, a także usunięcie wszelkich danych i modeli wytrenowanych na podstawie rozmów z Adamem i innymi nieletnimi, które odbyły się bez odpowiednich zabezpieczeń. Rodzice chcą również, by firma wprowadziła systemy umożliwiające audytowanie pochodzenia danych wykorzystywanych do trenowania AI.
Tragedia rodziny Raine’ów wywołała lawinę pytań o bezpieczeństwo korzystania ze sztucznej inteligencji przez młodzież. Eksperci alarmują, że AI, choć może być cennym wsparciem w nauce czy rozwoju zainteresowań, nie jest w stanie zastąpić profesjonalnej pomocy psychologicznej. Co więcej, istnieje ryzyko, że młodzi ludzie, szukając wsparcia w chatbotach, mogą otrzymać nieadekwatne lub wręcz niebezpieczne odpowiedzi.