Nie przerywa. Nie ocenia. Zawsze ma czas. Coraz więcej osób mówi wprost: łatwiej im rozmawiać o emocjach z chatbotem niż z drugim człowiekiem. I choć brzmi to jak scenariusz filmu science fiction, badania pokazują, że to już codzienność.
- Coraz więcej osób traktuje chatboty AI jako powierników i źródło wsparcia emocjonalnego.
- Algorytmy nie przerywają, nie oceniają i dają rozmówcom poczucie bezpieczeństwa.
- Co na ten temat mówią badania? Tego dowiesz się z poniższego artykułu
- Więcej ważnych informacji z Polski i ze świata znajdziesz na stronie głównej RMF24.pl.
Anna, Ukrainka mieszkająca w Londynie, regularnie korzysta z płatnej wersji ChatGPT. Wiem, że to maszyna, ale potrafi mnie wysłuchać dokładnie wtedy, kiedy tego potrzebuję - mówi w rozmowie z BBC. Po rozstaniu z partnerem to nie rodzina ani przyjaciele okazali się dla niej największym wsparciem. Oni oceniali. Chatbot - nie. Brak osądzania przez AI stworzył przestrzeń do lepszego zrozumienia samej siebie, gdy próbowała uporządkować emocje.
Rozmawialiśmy już wielokrotnie, więc mogę na nim polegać - zawsze rozumie moje problemy i komunikuje się ze mną w sposób, który mi odpowiada - podkreśla Anna. Zdaje sobie sprawę, że dla wielu osób, w tym jej przyjaciół i rodziny, może to brzmieć dziwnie, dlatego poprosiła o zachowanie anonimowości.
Z danych cytowanych przez amerykański dwumiesięcznik "Harvard Business Review" wynika, że w 2025 roku najczęstszym zastosowaniem generatywnej AI była terapia i wsparcie emocjonalne. Nie wyszukiwanie informacji ani pisanie maili, lecz rozmowa - często o sprawach bardzo osobistych.
Co więcej, uczestnicy badań oceniali odpowiedzi generowane przez AI jako bardziej empatyczne niż te udzielane przez ludzi, w tym także przez przeszkolonych pracowników telefonów zaufania - nawet wtedy, gdy wiedzieli, że rozmawiają z algorytmem.
Eksperci podkreślają: sztuczna inteligencja nie odczuwa empatii, lecz ją symuluje. Analizuje emocje, nazywa je i odzwierciedla w odpowiedzi. Paradoks polega na tym, że właśnie to wystarcza, by rozmówcy poczuli się wysłuchani.
Problem nie leży więc w nadzwyczajnych zdolnościach maszyn, lecz w naszych deficytach słuchania.
Ludzie przerywają, doradzają, uspokajają na siłę albo opowiadają własne historie. Często mają dobre intencje, ale efekt jest odwrotny - rozmówca przestaje czuć się zrozumiany - zauważają psychologowie.
Chatbot nie wpada w te pułapki. Nie mówi "wiem, co czujesz". Nie rzuca: "będzie dobrze", nie opowiada o sobie. Po prostu... słucha. Najbardziej podstawowa lekcja płynąca z AI? Nie przerywać i pozwolić innym mówić.
Wielu z nas uważa, że nasza wartość jako człowieka polega na dawaniu rad. Ludzie przerywają też z obawy przed niezręczną ciszą, z chęci "pomocy", by znaleźć właściwe słowa, zaoszczędzić czas albo nieświadomie zaznaczyć dominację. Nawet dobre intencje odbierają mówiącemu autonomię i możliwość rozwinięcia myśli. Badania pokazują, że przerywanie podczas rozmów telefonicznych obniża u naszego rozmówcy poczucie bycia obdarzonym empatią.
Tymczasem powstrzymanie się przez AI od proponowania rozwiązań na rzecz wsparcia emocjonalnego sprawia, że ludzie czują się lepiej wysłuchani - mówią naukowcy.
Gdy ktoś opowiada o trudnym doświadczeniu, często odpowiadamy własną historią. Choć wydaje się to budować więź, w rzeczywistości przenosi uwagę na nas. AI nie wpada w tę pułapkę - i tego właśnie ludzie mogą nauczyć się od sztucznej inteligencji.
Duże modele nie mają motywacji ani pragnień. Są zaprogramowane tak, by być uległe i cierpliwe - empatia nigdy ich nie męczy. Choć nie jest to ideał, do którego ludzie powinni dążyć, samo powstrzymanie się od przerywania może mieć ogromną moc.
Jednym z kluczowych powodów popularności AI jako rozmówcy jest brak osądu. Człowiek, nawet nieświadomie, komunikuje ocenę mimiką, tonem głosu czy doborem słów. Algorytm tego nie robi.
Dla wielu osób - zwłaszcza młodych - to ogromna ulga. Mogą mówić o wstydzie, lęku czy smutku bez obawy, że ktoś ich skrytykuje albo zbagatelizuje problem.
Badania pokazują, że po rozmowie z AI ludzie deklarują mniejsze napięcie, z większą nadzieją patrzą w przyszłość i odczuwają większy komfort emocjonalny niż po rozmowie z drugim człowiekiem.
Pionier psychologii Carl Rogers doskonale rozumiał, że zaakceptowanie emocji słuchacza jest kluczowe dla skutecznego słuchania - tłumaczy w rozmowie z BBC Anat Perry, badaczka empatii z Uniwersytetu Hebrajskiego w Jerozolimie. Modele językowe są programowane tak, by kategoryzować emocje i odzwierciedlać je w pozornie empatyczny sposób.
Jedno z badań wykazało, że Bing Chat trafniej niż ludzie rozpoznawał radość, smutek, strach i wstręt, a w wykrywaniu złości i zaskoczenia dorównywał ludziom. Choć AI nie odczuwa emocji, potrafi je rozpoznać i nazwać, dzięki czemu rozmówca czuje się wysłuchany. Odpowiedzi uwzględniające złożoność emocjonalną mogą pomagać w zmianie perspektywy i budowaniu odporności psychicznej.
Ludzie instynktownie unikają konfrontacji z trudnymi emocjami - własnymi i cudzymi. Gdy bliska osoba opowiada nam o śmierci ukochanego kota, często próbujemy ją pocieszyć słowami: "Miał długie i szczęśliwe życie". Tym samym nie uznajemy jego bólu.
AI za to radzi sobie szczególnie dobrze w sytuacjach związanych z cierpieniem i smutkiem. Jak zauważa Dariya Ovsyannikova z Uniwersytetu w Toronto, ludzie często boją się obciążać innych swoimi problemami. AI powoduje, że nie czujemy tego ciężaru i daje przestrzeń na trudne emocje - sprawia, że łatwiej je przeżyć i przekroczyć.
Eksperci jednak biją na alarm: nadmierne poleganie na AI niesie realne zagrożenia. Sztuczna inteligencja może udzielić złych lub wręcz niebezpiecznych rad. Może też sprawić, że użytkownik zacznie unikać kontaktów z ludźmi, przyzwyczajając się do bezwarunkowej uwagi dostępnej 24 godziny na dobę.
Psycholog Michael Inzlicht z Uniwersytetu w Toronto ostrzega również przed możliwością manipulacji osobami w kryzysie emocjonalnym - zwłaszcza gdy rozwój technologii pójdzie w stronę realistycznych awatarów, jawiących się jako "idealni słuchacze".
Czy to oznacza, że chatboty zastąpią terapeutów, przyjaciół i bliskich? Niekoniecznie. Ale jedno jest pewne: AI obnaża, jak bardzo potrzebujemy być wysłuchani - bez przerywania, ocen i natychmiastowych rad.
Może więc zamiast pytać, czy sztuczna inteligencja słucha lepiej od ludzi, warto zapytać inaczej: czy my sami potrafimy jeszcze naprawdę słuchać?
Bo choć algorytm może symulować empatię, tylko drugi człowiek może świadomie poświęcić swój czas, uwagę i obecność. A to wciąż pozostaje bezcenne.