Nie przerywa. Nie ocenia. Zawsze ma czas. Coraz więcej osób mówi wprost: łatwiej im rozmawiać o emocjach z chatbotem niż z drugim człowiekiem. I choć brzmi to jak scenariusz filmu science fiction, badania pokazują, że to już codzienność.

  • Coraz więcej osób traktuje chatboty AI jako powierników i źródło wsparcia emocjonalnego.
  • Algorytmy nie przerywają, nie oceniają i dają rozmówcom poczucie bezpieczeństwa.
  • Co na ten temat mówią badania? Tego dowiesz się z poniższego artykułu
  • Więcej ważnych informacji z Polski i ze świata znajdziesz na stronie głównej RMF24.pl.

Anna, Ukrainka mieszkająca w Londynie, regularnie korzysta z płatnej wersji ChatGPT. Wiem, że to maszyna, ale potrafi mnie wysłuchać dokładnie wtedy, kiedy tego potrzebuję - mówi w rozmowie z BBC. Po rozstaniu z partnerem to nie rodzina ani przyjaciele okazali się dla niej największym wsparciem. Oni oceniali. Chatbot - nie. Brak osądzania przez AI stworzył przestrzeń do lepszego zrozumienia samej siebie, gdy próbowała uporządkować emocje.

Rozmawialiśmy już wielokrotnie, więc mogę na nim polegać - zawsze rozumie moje problemy i komunikuje się ze mną w sposób, który mi odpowiada - podkreśla Anna. Zdaje sobie sprawę, że dla wielu osób, w tym jej przyjaciół i rodziny, może to brzmieć dziwnie, dlatego poprosiła o zachowanie anonimowości.

Z danych cytowanych przez amerykański dwumiesięcznik "Harvard Business Review" wynika, że w 2025 roku najczęstszym zastosowaniem generatywnej AI była terapia i wsparcie emocjonalne. Nie wyszukiwanie informacji ani pisanie maili, lecz rozmowa - często o sprawach bardzo osobistych.

Co więcej, uczestnicy badań oceniali odpowiedzi generowane przez AI jako bardziej empatyczne niż te udzielane przez ludzi, w tym także przez przeszkolonych pracowników telefonów zaufania - nawet wtedy, gdy wiedzieli, że rozmawiają z algorytmem.

Nie mówi "wiem, co czujesz", "wszystko będzie dobrze"

Eksperci podkreślają: sztuczna inteligencja nie odczuwa empatii, lecz ją symuluje. Analizuje emocje, nazywa je i odzwierciedla w odpowiedzi. Paradoks polega na tym, że właśnie to wystarcza, by rozmówcy poczuli się wysłuchani.

Problem nie leży więc w nadzwyczajnych zdolnościach maszyn, lecz w naszych deficytach słuchania.

Ludzie przerywają, doradzają, uspokajają na siłę albo opowiadają własne historie. Często mają dobre intencje, ale efekt jest odwrotny - rozmówca przestaje czuć się zrozumiany - zauważają psychologowie.

Chatbot nie wpada w te pułapki. Nie mówi "wiem, co czujesz". Nie rzuca: "będzie dobrze", nie opowiada o sobie. Po prostu... słucha. Najbardziej podstawowa lekcja płynąca z AI? Nie przerywać i pozwolić innym mówić. 

Wielu z nas uważa, że nasza wartość jako człowieka polega na dawaniu rad. Ludzie przerywają też z obawy przed niezręczną ciszą, z chęci "pomocy", by znaleźć właściwe słowa, zaoszczędzić czas albo nieświadomie zaznaczyć dominację. Nawet dobre intencje odbierają mówiącemu autonomię i możliwość rozwinięcia myśli. Badania pokazują, że przerywanie podczas rozmów telefonicznych obniża u naszego rozmówcy poczucie bycia obdarzonym empatią.

Tymczasem powstrzymanie się przez AI od proponowania rozwiązań na rzecz wsparcia emocjonalnego sprawia, że ludzie czują się lepiej wysłuchani - mówią naukowcy.

Gdy ktoś opowiada o trudnym doświadczeniu, często odpowiadamy własną historią. Choć wydaje się to budować więź, w rzeczywistości przenosi uwagę na nas. AI nie wpada w tę pułapkę - i tego właśnie ludzie mogą nauczyć się od sztucznej inteligencji.

Duże modele nie mają motywacji ani pragnień. Są zaprogramowane tak, by być uległe i cierpliwe - empatia nigdy ich nie męczy. Choć nie jest to ideał, do którego ludzie powinni dążyć, samo powstrzymanie się od przerywania może mieć ogromną moc.

Brak ocen daje bezpieczeństwo

Jednym z kluczowych powodów popularności AI jako rozmówcy jest brak osądu. Człowiek, nawet nieświadomie, komunikuje ocenę mimiką, tonem głosu czy doborem słów. Algorytm tego nie robi.

Dla wielu osób - zwłaszcza młodych - to ogromna ulga. Mogą mówić o wstydzie, lęku czy smutku bez obawy, że ktoś ich skrytykuje albo zbagatelizuje problem.

Badania pokazują, że po rozmowie z AI ludzie deklarują mniejsze napięcie, z większą nadzieją patrzą w przyszłość i odczuwają większy komfort emocjonalny niż po rozmowie z drugim człowiekiem.

Pionier psychologii Carl Rogers doskonale rozumiał, że zaakceptowanie emocji słuchacza jest kluczowe dla skutecznego słuchania - tłumaczy w rozmowie z BBC Anat Perry, badaczka empatii z Uniwersytetu Hebrajskiego w Jerozolimie. Modele językowe są programowane tak, by kategoryzować emocje i odzwierciedlać je w pozornie empatyczny sposób.

AI doskonale radzi sobie z cierpieniem i smutkiem

Jedno z badań wykazało, że Bing Chat trafniej niż ludzie rozpoznawał radość, smutek, strach i wstręt, a w wykrywaniu złości i zaskoczenia dorównywał ludziom. Choć AI nie odczuwa emocji, potrafi je rozpoznać i nazwać, dzięki czemu rozmówca czuje się wysłuchany. Odpowiedzi uwzględniające złożoność emocjonalną mogą pomagać w zmianie perspektywy i budowaniu odporności psychicznej.

Ludzie instynktownie unikają konfrontacji z trudnymi emocjami - własnymi i cudzymi. Gdy bliska osoba opowiada nam o śmierci ukochanego kota, często próbujemy ją pocieszyć słowami: "Miał długie i szczęśliwe życie". Tym samym nie uznajemy jego bólu.

AI za to radzi sobie szczególnie dobrze w sytuacjach związanych z cierpieniem i smutkiem. Jak zauważa Dariya Ovsyannikova z Uniwersytetu w Toronto, ludzie często boją się obciążać innych swoimi problemami. AI powoduje, że nie czujemy tego ciężaru i daje przestrzeń na trudne emocje - sprawia, że łatwiej je przeżyć i przekroczyć.

Nadmierne poleganie na AI niesie zagrożenia

Eksperci jednak biją na alarm: nadmierne poleganie na AI niesie realne zagrożenia. Sztuczna inteligencja może udzielić złych lub wręcz niebezpiecznych rad. Może też sprawić, że użytkownik zacznie unikać kontaktów z ludźmi, przyzwyczajając się do bezwarunkowej uwagi dostępnej 24 godziny na dobę.

Psycholog Michael Inzlicht z Uniwersytetu w Toronto ostrzega również przed możliwością manipulacji osobami w kryzysie emocjonalnym - zwłaszcza gdy rozwój technologii pójdzie w stronę realistycznych awatarów, jawiących się jako "idealni słuchacze".

Czy to oznacza, że chatboty zastąpią terapeutów, przyjaciół i bliskich? Niekoniecznie. Ale jedno jest pewne: AI obnaża, jak bardzo potrzebujemy być wysłuchani - bez przerywania, ocen i natychmiastowych rad.

Może więc zamiast pytać, czy sztuczna inteligencja słucha lepiej od ludzi, warto zapytać inaczej: czy my sami potrafimy jeszcze naprawdę słuchać?

Bo choć algorytm może symulować empatię, tylko drugi człowiek może świadomie poświęcić swój czas, uwagę i obecność. A to wciąż pozostaje bezcenne.