Często żyjemy w przekonaniu, że ulga w cierpieniu zależy od znalezienia jednej, właściwej odpowiedzi na dręczące pytania. Traktujemy kryzys psychiczny jak błąd w skomplikowanym kodzie: wystarczy wpisać odpowiednią komendę, by system wrócił do równowagi. To założenie sprawia, że podczas bezsennej nocy czy nagłego ataku paniki sięgamy po telefon, by „porozmawiać” ze sztuczną inteligencją. Ona zawsze ma czas i dobiera słowa z idealną precyzją. Zapominamy jednak, że prawdziwa regulacja emocji nie rodzi się z algorytmicznej poprawności, lecz z niedoskonałego, biologicznego rezonansu między dwojgiem ludzi.
Gdy wpisujesz w okno czatu swoje obawy, otrzymujesz w odpowiedzi ciąg zdań brzmiących jak podręcznik empatii. Twój mózg poznawczy – odpowiedzialny za logikę i analizę – czuje się usatysfakcjonowany. Widzisz listę pięciu kroków radzenia sobie ze stresem i zapewnienie, że „to minie”. Jednak bardzo często, mimo tej intelektualnej wiedzy, ucisk w klatce piersiowej nie ustępuje, a lęk powraca ze zdwojoną siłą po odłożeniu telefonu. Szukasz ukojenia w miejscu, które potrafi świetnie przetwarzać dane, ale nie potrafi przetwarzać ludzkiego doświadczenia.
Kluczowym mechanizmem jest tutaj koregulacja. To proces, w którym jeden układ nerwowy wpływa na drugi, pomagając mu się wyciszyć. Jako ssaki jesteśmy biologicznie zaprogramowani, by w chwilach zagrożenia szukać żywej twarzy, tonu głosu i mikroekspresji sygnalizujących bezpieczeństwo. Sztuczna inteligencja nie posiada ciała, nie oddycha i nie czuje napięcia. Dla bota twoje słowa są tylko statystyką, a nie ładunkiem emocjonalnym, który trzeba „przyjąć”. W praktyce oznacza to, że twój umysł otrzymuje instrukcję obsługi emocji, ale twoje ciało pozostaje samotne w swoim pobudzeniu, bo nie wyczuło obecności drugiego człowieka.
W relacji z algorytmem wpadasz też w pułapkę iluzorycznej akceptacji. Bot nigdy się nie niecierpliwi, nie przerywa i nie interpretuje słów przez pryzmat własnych zranień. Może to wydawać się rajem, szczególnie dla osób po doświadczeniach odrzucenia. Jednak ta sterylna perfekcja jest w rzeczywistości martwa. Prawdziwy rozwój i leczenie ran psychicznych dzieje się w relacji autentycznej, a więc czasem trudnej. To momenty, gdy druga osoba musi się wysilić, by nas zrozumieć, lub gdy wspólnie naprawiamy drobne nieporozumienie, budują w nas przekonanie, że jesteśmy warci uwagi.
Tomasz, trzydziestokilkuletni grafik, zaczął korzystać z czatów AI pod presją terminów, by nie obciążać żony swoimi problemami. Wpisując: „Czuję się beznadziejnie, chyba nie dam rady”, otrzymywał natychmiastowe: „Przykro mi, że tak się czujesz, pamiętaj o swoich sukcesach”. Na poziomie treści było to poprawne, ale po kilku tygodniach Tomasz zauważył, że jego poczucie izolacji się pogłębia. Rozmowa z maszyną stała się monologiem do lustra, które niczego nie odbija. Brakowało elementu bycia widzianym przez kogoś, kto realnie istnieje. W praktyce oznacza to, że Tomasz otrzymywał „wsparcie”, które paradoksalnie wzmacniało jego samotność, ponieważ utwierdzało go w nawyku unikania żywego kontaktu w chwilach słabości.
Pułapka cyfrowego wsparcia – czego unikać
W sytuacjach kryzysowych rzadko sprawdza się próba „intelektualizacji” bólu przy pomocy technologii. Często próbujemy znaleźć logiczne uzasadnienie dla cierpienia lub szybką technikę, która wyłączy smutek jak przełącznik światła. Zadajemy botom pytania: „Dlaczego tak się czuję?” lub „Jak przestać się martwić w 5 minut?”. Otrzymujemy wtedy narzędzia poznawcze, skuteczne dla spokojnego mózgu, ale bezużyteczne w zalewie kortyzolu (hormonu stresu). Próba racjonalnego rozwiązania problemu, który ma naturę cielesną, rodzi frustrację: „Wiem, co powinienem zrobić, bo AI mi to napisała, a nadal nie potrafię”.
Sprawdzanie rezonansu w ciele
Zamiast bezrefleksyjnie oddawać swoje emocje maszynie, warto skontaktować się z tym, co dzieje się w tobie na poziomie fizycznym. Pomoże to odróżnić potrzebę zdobycia informacji od głębokiej potrzeby obecności drugiej osoby.
Kiedy czujesz impuls, by opisać swój problem botowi, zatrzymaj się na dziesięć sekund. Połóż rękę na klatce piersiowej lub brzuchu i zadaj sobie pytanie: „Czy szukam teraz konkretnej rady, czy szukam poczucia, że nie jestem sam(a)?”. Jeśli czujesz napięcie, drżenie lub pustkę domagającą się wypełnienia, prawdopodobnie potrzebujesz regulacji poprzez relację. Jeśli mimo to zdecydujesz się pisać, obserwuj ciało w trakcie czytania odpowiedzi. Czy czujesz głęboki wydech i rozluźnienie, czy może tylko „kliknięcie” w głowie przy zachowaniu sztywności mięśni? To kluczowa wskazówka.
Kotwiczenie w rzeczywistości zmysłowej
Gdy czujesz, że rozmowa z algorytmem wciąga cię w pętlę analizowania własnej psychiki, a ulga nie nadchodzi, konieczne jest wyjście z wirtualnego „laboratorium”. Ekrany mają tendencję do wywoływania dysocjacji, czyli stanu odcięcia od czucia własnego ciała.
Oderwij wzrok od wyświetlacza i znajdź w otoczeniu trzy obiekty o różnych fakturach, na przykład drewniany blat, miękki koc czy zimną szklankę. Dotknij każdego z nich, skupiając uwagę na wrażeniach płynących z opuszków palców: temperaturze, szorstkości, oporze materii. Następnie nazwij na głos jedną emocję, która jest w tobie żywa, bez proszenia o jej naprawienie: „Czuję teraz lęk i to jest trudne”. To ćwiczenie przywraca sprawczość i uziemia układ nerwowy w „tu i teraz”. W praktyce oznacza to, że zamiast dyskutować o lęku z maszyną, uczysz się go bezpiecznie przeżywać we własnym ciele.
Najczęstsze pytania
Czy korzystanie z AI jako wsparcia jest szkodliwe? Samo w sobie nie, o ile traktujemy to jako narzędzie edukacyjne lub doraźny sposób na uporządkowanie myśli (np. stworzenie listy zadań w panice). Problem pojawia się wtedy, gdy algorytm staje się substytutem bliskich relacji lub terapii, a my zaczynamy unikać ludzi na rzecz łatwiejszego, bezkonfliktowego kontaktu z maszyną.
Dlaczego czasem czuję się lepiej po „rozmowie” z botem? Działa tu mechanizm werbalizacji – samo ubranie chaosu myśli w słowa i „wyrzucenie” ich z siebie przynosi ulgę, niezależnie od odbiorcy. Dodatkowo brak oceny ze strony AI obniża lęk przed odrzuceniem. Jest to jednak ulga zazwyczaj krótkotrwała, działająca jak plaster przyklejony na głęboką ranę, a nie jak właściwe lekarstwo.
Kiedy powinienem zrezygnować z cyfrowego wsparcia na rzecz człowieka? Jeśli zauważasz, że twoje rozmowy z AI są powtarzalne i dotyczą wciąż tych samych bolesnych schematów, a mimo „trafnych rad” twoje samopoczucie się nie poprawia – to sygnał alarmowy. Złożone problemy emocjonalne, traumy czy przewlekły smutek wymagają żywej obecności, która potrafi unieść ciężar twoich emocji, a nie tylko je skatalogować.
Warto pamiętać, że choć technologia pędzi do przodu, nasza biologia od tysięcy lat pozostaje niezmienna – do ukojenia potrzebujemy drugiego człowieka. Jeśli czujesz, że utknąłeś w martwym punkcie lub potrzebujesz przestrzeni, w której ktoś naprawdę usłyszy to, co niewypowiedziane, zespół DDJA pracuje na relacji, a nie na algorytmach. W naszej poradni możesz bezpiecznie przyjrzeć się temu, czego żadna maszyna nie jest w stanie dostrzec.


