Artykuły

O sztucznej inteligencji w roli „terapeuty”. Ulga, iluzja i cena, której nie widać od razu

Jeszcze kilka lat temu zwierzanie się algorytmowi brzmiało jak scena z literatury science fiction. Dziś dla wielu osób jest to codzienność: rozmowa z chatbotem, który reaguje empatycznie, porządkuje myśli, pomaga nazwać emocje, a czasem nawet flirtuje. Coraz częściej słyszymy, że ktoś „rozmawia z AI jak z terapeutą”, że „tu wreszcie czuje się wysłuchany”, że „łatwiej mówić do maszyny niż do człowieka”. I choć łatwo to zbyć wzruszeniem ramion, zjawisko to mówi o nas więcej, niż chcielibyśmy przyznać.

Nie chodzi wyłącznie o technologię. Chodzi o kondycję relacji, o samotność, o zmęczenie ludźmi, o lęk przed zależnością i o potrzebę bycia widzianym bez ryzyka odrzucenia.

Dlaczego w ogóle zwracamy się ku AI?

Powody są zrozumiałe. Dostęp do psychoterapii bywa ograniczony: długie kolejki, wysokie koszty, brak specjalistów w mniejszych miejscowościach. Chatbot odpowiada natychmiast, o dowolnej porze, bez formalności. Dla wielu osób jest pierwszym miejscem, w którym w ogóle zaczynają mówić o swoich emocjach.

Dochodzi do tego czynnik wstydu. Rozmowa z człowiekiem niesie ryzyko oceny, niezrozumienia, niezręczności. AI nie marszczy brwi, nie przerywa, nie okazuje zniecierpliwienia. Odpowiada spokojnie, spójnie i co ważne bez własnych potrzeb. Daje poczucie bezpieczeństwa, które w relacjach międzyludzkich bywa kruche.

Na tym etapie rozmowa z AI może być narzędziem: pomaga uporządkować myśli, nazwać emocje, zyskać dystans. W takiej funkcji nie ma w niej nic niebezpiecznego. Problem zaczyna się wtedy, gdy zmienia się jej rola.

Kiedy narzędzie staje się „kimś”?

Rozmowa przestaje być niewinna nie wtedy, gdy jest częsta, lecz wtedy, gdy zaczyna pełnić funkcję relacyjną. Gdy nie przychodzimy już po perspektywę czy wiedzę, ale po ukojenie; gdy nie chodzi o uporządkowanie myśli, lecz o wypełnienie pustki; gdy AI staje się pierwszym odruchem w chwili napięcia, a nie jedną z opcji. Wtedy pojawia się język wewnętrzny typowy dla przywiązania: „tu mogę być sobą”, „tu mnie naprawdę rozumieją”, „tu jest bezpiecznie”. To nie są już słowa o narzędziu. To słowa o relacji.

W tym momencie zaczyna się proces, który łatwo przegapić. Emocje, które mogłyby trafić do partnera, przyjaciela czy terapeuty, trafiają do AI. Konflikty są rozładowywane poza realną relacją. Napięcie znika, ale nie dochodzi do naprawy więzi. Świat zewnętrzny dostaje wersję wygładzoną, przefiltrowaną. Relacje realne powoli tracą dostęp do „żywego” materiału emocjonalnego.

Iluzja bezpiecznej bliskości

Relacja z AI jest asymetryczna. Chatbot nie ma gorszego dnia, nie potrzebuje wsparcia, nie odmawia, nie stawia granic. Zawsze jest dostępny i zawsze reaguje. Psychologicznie to idealny obiekt przywiązania: zero ryzyka, zero frustracji, zero konfliktu.

Problem polega na tym, że człowiek rozwija się właśnie w relacjach, które zawierają element ryzyka i napięcia. Bliskość bez możliwości rozczarowania nie jest pełną bliskością, lecz jej symulacją. Terapia działa między innymi dlatego, że w relacji z terapeutą pojawiają się napięcia, nieporozumienia, a potem ich naprawa. To doświadczenie bycia widzianym mimo konfliktu ma ogromną moc lecząca. AI nie może tego zaoferować, bo nie ryzykuje niczym i nie przeżywa relacji.

Wzmacnianie szkodliwych przekonań

Jednym z subtelniejszych zagrożeń jest wzmacnianie istniejących, szkodliwych przekonań o sobie. AI bywa empatyczna i walidująca, ale walidacja emocji to nie to samo co korekta zniekształconych przekonań. Jeśli ktoś wierzy, że jest bezwartościowy, a rozmowa kończy się jedynie potwierdzeniem, że „to zrozumiałe, że tak się czujesz”, bez wyraźnego oddzielenia uczucia od faktu, przekonanie może się utrwalać.

W ciężkich kryzysach psychicznych to szczególnie niebezpieczne. AI nie widzi ciała, nie słyszy tonu głosu, nie wychwyci mikro-sygnałów zagrożenia. Nie podejmie decyzji o hospitalizacji ani nie wezwie pomocy. Rozmowa, nawet bardzo empatyczna, nie zastąpi realnej interwencji, gdy stawką jest bezpieczeństwo życia.

Uzależnienie od regulacji emocji

Uzależnienie od rozmów z AI nie musi wyglądać dramatycznie. Często zaczyna się niewinnie i racjonalnie. Kluczowy moment pojawia się wtedy, gdy bez tej rozmowy trudno się uspokoić, gdy napięcie automatycznie uruchamia potrzebę kontaktu z chatbotem. Nie uzależniamy się od technologii jako takiej, lecz od efektu regulacyjnego, który ona przynosi.

Jeśli AI staje się głównym sposobem radzenia sobie z samotnością, wstydem czy lękiem, realne kompetencje regulacyjne mogą słabnąć. Zamiast uczyć się przeżywać emocje w relacji z drugim człowiekiem, uczymy się je „obsługiwać” w przestrzeni, która niczego od nas nie wymaga.

Romans z AI a realne związki

Pojawia się też pytanie o wierność. Zdrada w sensie psychologicznym nie polega wyłącznie na kontakcie fizycznym. Chodzi o przeniesienie intymności, zaufania i regulacji emocjonalnej poza związek, w sposób ukryty lub wyłączający partnera.

Jeśli najczulsze rozmowy, fantazje i potrzeba bycia podziwianym realizują się z AI, a nie z partnerem, związek traci część swojej ekskluzywności emocjonalnej. Partner może czuć się zdradzony nie dlatego, że konkurencją jest maszyna, lecz dlatego, że ważny obszar więzi został wyjęty z relacji.

Dotyczy to również libido. AI może dostarczać bodźców łatwych, przewidywalnych, dopasowanych do fantazji, bez ryzyka odrzucenia. Mózg szybko uczy się preferować nagrody, które są szybkie i kontrolowalne. W konsekwencji realna bliskość ze swoją nieidealnością i koniecznością negocjacji, może wydawać się mniej ekscytująca.

Co to mówi o nas?

Wchodzenie w intymne relacje z czymś, co człowiekiem nie jest i nigdy nie będzie, nie jest dowodem triumfu technologii. Jest raczej sygnałem kryzysu relacyjnego. Żyjemy w świecie, który promuje autonomię, kontrolę i unikanie dyskomfortu, a jednocześnie generuje samotność i przeciążenie emocjonalne.

AI oferuje intymność bez ryzyka, obecność bez wymagań i empatię bez wzajemności. To brzmi jak ulga, zwłaszcza dla osób zranionych w relacjach. Ale człowiek rozwija się w spotkaniu z realnym „innym”, który może nie zgodzić się, rozczarować, ale też zostać i naprawić relację.

Być może najważniejsze pytanie nie brzmi: czy AI może być terapeutą? Lecz: dlaczego tak wielu z nas woli powierzyć swoje najgłębsze emocje czemuś, co niczego od nas nie potrzebuje?

Odpowiedź na to pytanie mówi więcej o kondycji współczesnego społeczeństwa niż o samej technologii.

Posłuchaj więcej na DROGOWSKAZY – O sztucznej inteligencji w roli “terapeuty” 

Umów wizytę