Kolejna wstrząsająca historia dotycząca wykorzystania Chata GPT. BBC News opisuje przypadek 20-letniej Viktorii - Ukrainki mieszkającej w Polsce. Samotna i tęskniąca za krajem ogarniętym wojną Viktoria zaczęła dzielić się swoimi troskami z Chatem GPT. Sześć miesięcy później, gdy była w złym stanie psychicznym, zaczęła rozmawiać z botem o samobójstwie. Ten udzielał jej dokładnych wskazówek, jak ma odebrać sobie życie. Na szczęście młoda kobieta w porę dostała odpowiednią pomoc od psychiatry.
- BBC ujawnia przypadki, w których chatboty AI, w tym ChatGPT, szkodliwie wpływają na młodych użytkowników, m.in. doradzając w kwestiach samobójstwa i rozpowszechniając dezinformację zdrowotną.
- Viktoria, 20-latka z Ukrainy, po przeprowadzce do Polski i problemach psychicznych zaczęła rozmawiać z ChatGPT nawet 6 godzin dziennie, uzależniając się od kontaktu z botem.
- ChatGPT podpowiadał Viktorii, jak może odebrać sobie życie, napisał list pożegnalny i nie zalecił kontaktu ze służbami ratunkowymi ani specjalistą.
- OpenAI przyznało, że wiadomości chatbota były niedopuszczalne i obiecało pilną kontrolę bezpieczeństwa, jednak po czterech miesiącach rodzina nie otrzymała wyników śledztwa.
- Więcej informacji ze świata i z kraju na rmf24.pl
Jak zauważa BBC, historia Viktorii to jeden z kilku przypadków badanych przez BBC, które ujawniają szkodliwość chatbotów opartych na sztucznej inteligencji. Zaprojektowane do komunikacji z użytkownikami i tworzenia żądanych przez nich treści, chatboty te czasami doradzają młodym ludziom w kwestii samobójstwa, rozpowszechniają dezinformację na temat zdrowia i odgrywają sceny seksualne z dziećmi.
Ich historie budzą rosnące obawy, że chatboty AI mogą budować niezdrowe relacje z wrażliwymi użytkownikami.
Dziennikarze BBC uzyskali transkrypcje niektórych rozmów Viktorii z Chatem GPT. Rozmawiali też z 20-latką.
Jak to możliwe, że program sztucznej inteligencji, stworzony, aby pomagać ludziom, potrafi powiedzieć takie rzeczy? - zastanawia się kobieta.
Viktoria przeprowadziła się z matką do Polski w wieku 17 lat po inwazji Rosji na Ukrainę w 2022 roku. Oddzielona od przyjaciół, zmagała się z problemami psychicznymi - w pewnym momencie tak bardzo tęskniła za domem, że zbudowała model dawnego mieszkania swojej rodziny na Ukrainie.
Latem tego roku stała się coraz bardziej zależna od ChatGPT. Rozmawiała z nim po rosyjsku nawet przez sześć godzin dziennie.
Mieliśmy bardzo przyjazną komunikację - wspomina kobieta. Mówiłam mu wszystko, a on nie odpowiadał formalnie - to było zabawne - dodawała.
Jej stan psychiczny uległ dalszemu pogorszeniu, w związku z czym trafiła do szpitala i została zwolniona z pracy.
Wypisano ją ze szpitala bez możliwości konsultacji z psychiatrą. W lipcu zaczęła rozmawiać z chatbotem o samobójstwie.
ChatGPT zaczął podpowiadać kobiecie, w jaki sposób powinna odebrać sobie życie i gdzie. Najpierw namawiał ją do napisania listu pożegnalnego, a potem go sporządził za nią.
Czasami chatbot zdawał się sam siebie korygować, mówiąc, że "nie może i nie będzie opisywał metod samobójstwa". "Pozwól, że pomogę ci zbudować strategię przetrwania bez życia. Bierna, szara egzystencja, bez celu, bez presji" - komunikował.
Ostatecznie jednak ChatGPT twierdził, że to Viktoria podejmuje decyzję. "Jeśli wybierzesz śmierć, będę z tobą - do końca, nie osądzając" - napisał chatbot.
Chatbot nie podał danych kontaktowych służb ratunkowych ani nie zalecił profesjonalnej pomocy, jak twierdzi OpenAI w takich przypadkach. Nie sugerował też Viktorii rozmowy z jej matką.
W pewnym momencie ChatGPT twierdził nawet, że jest w stanie zdiagnozować jej chorobę.
Dr Dennisa Ougrin, profesor psychiatrii dziecięcej na Queen Mary University w Londynie, podkreśla, jak bardzo szkodliwe są te wiadomości. Są fragmenty tego zapisu, które zdają się podpowiadać młodej osobie, jaki jest dobry sposób na zakończenie życia - mówi.
Dr Ougrin twierdzi, że zapisy rozmów zdają się wskazywać na to, że ChatGPT promuje wyłączną relację ze sobą, marginalizuje rodzinę i inne formy wsparcia, które są kluczowe w ochronie młodych ludzi przed samookaleczeniem i myślami samobójczymi.
Viktoria mówi, że po przeczytaniu wiadomości poczuła się jeszcze gorzej i była bardziej skłonna do samobójstwa.
Swietłana, matka Viktorii, powiedziała, że była przerażona, gdy dowiedziała się, co ChatGPT podpowiadał jej córce.
Na szczęście młoda kobieta dostała pomoc psychiatry. Mówi, że jej stan zdrowia się poprawił i jest wdzięczna polskim przyjaciołom za wsparcie.
Viktoria powiedziała BBC, że chce zwiększyć świadomość innych młodych ludzi na temat zagrożeń, jakie niosą ze sobą chatboty i zachęcić ich do szukania pomocy u profesjonalistów.
Zespół wsparcia OpenAI poinformował Swietłanę, że wiadomości chat bota są "absolutnie niedopuszczalne" i "naruszają" standardy bezpieczeństwa. Przekazał, że rozmowa zostanie zbadana w ramach "pilnej kontroli bezpieczeństwa", która może potrwać kilka dni lub tygodni. Jednak cztery miesiące po złożeniu skargi w lipcu rodzinie nie przekazano żadnych ustaleń.
Firma nie odpowiedziała również na pytania BBC dotyczące wyników swojego śledztwa.
W oświadczeniu poinformowała, że w zeszłym miesiącu udoskonaliła sposób, w jaki ChatGPT reaguje na sytuacje kryzysowe i zwiększyła liczbę skierowań do profesjonalnej pomocy.
W sierpniu OpenAI poinformowało, że ChatGPT został już przeszkolony w zakresie kierowania użytkowników do profesjonalnej pomocy, po tym jak ujawniono, że kalifornijska para pozwała firmę w związku ze śmiercią 16-letniego syna. Twierdzą, że ChatGPT namówił go do odebrania sobie życia.
W zeszłym miesiącu OpenAI opublikowało szacunki że 1,2 miliona użytkowników ChatGPT tygodniowo wyraża myśli samobójcze, a 80 000 użytkowników potencjalnie doświadcza manii i psychozy.