System publicznej ochrony zdrowia psychicznego w Polsce od lat znajduje się w poważnym kryzysie. Wielomiesięczny czas oczekiwania na wizytę w ramach NFZ oraz bariery finansowe w sektorze prywatnym sprawiają, że adekwatna pomoc staje się dla wielu osób niedostępna. Pojawia się zatem pytanie: czy w świecie, w którym dostęp do drugiego człowieka staje się towarem luksusowym, algorytm może być etyczną i skuteczną alternatywą?
Tym, co niewątpliwie przyciąga pacjentów do sztucznej inteligencji jest jej dostępność. Wystarczy smartfon, aby uzyskać nieograniczony czasem i lokalizacją kontakt z samodzielnie wykreowanym „agentem-terapeutą”. Taki rozmówca może zostać wyposażony w wiedzę z dziedziny psychoterapii, nigdy się nie męczy i nie odrzuca. Użytkownik może narzucić modelowi sztywne ramy zachowania i zyskać uspakajające poczucie kontroli nad sytuacją. Choć może wydawać się to zaletą, z perspektywy klinicznej budzi głęboką wątpliwość, czy tak skonstruowane środowisko dostarcza tego, co faktycznie leczy.
Mechanika vs. Relacja
Entuzjaści rozwiązań opartych na generatywnej sztucznej inteligencji (takich jak np. Therabot) słusznie zauważają, że w czysto technicznym aspekcie prowadzenia protokołów terapeutycznych maszyna bywa niekiedy sprawniejsza od człowieka [1]. Algorytm nie odczuwa znużenia ani irytacji i z matematyczną precyzją pilnuje struktury sesji. Badania kliniczne potwierdzają, że AI znakomicie sprawdza się w zadaniach o wysokim stopniu ustrukturyzowania. Potrafi rzetelnie prowadzić psychoedukację i wykazuje dużą biegłość w technikach podważania przekonań (np. poprzez pytania sokratejskie). Pomaga analizować własne myśli, sprawnie identyfikuje błędy poznawcze oraz powtarzające się wzorce językowe i przejęzyczenia [2]. W krótkoterminowej perspektywie obcowanie z botem oparte na protokołach poznawczo-behawioralnych (CBT) pozwala uzyskać redukcję niektórych objawów (takich jak np. lęk uogólniony czy łagodna depresja) [2].
W tym miejscu natrafiamy jednak na poważny rozdźwięk w rozumieniu natury psychoterapii. Próba sprowadzenia leczenia wyłącznie do trafnie skomponowanej sekwencji ćwiczeń i wyciszenia powierzchownych symptomów jest poważnym uproszczeniem. Prawdziwa zmiana nie zachodzi bowiem w samej technice. Opiera się na autentycznym przymierzu terapeutycznym [3,4] i rozwija się w przestrzeni „pomiędzy”. To ciągła wymiana między odrębnymi umysłami, pomost rzucony między wiedzą a żywym emocjonalnie doświadczaniem. To spotkanie wymagające wytrzymania pewnego poziomu frustracji i niepewności, a także oscylowania pomiędzy tym, co jawne, a tym, co nieświadome.
Człowiek nie istnieje w próżni. Jego psychika, wewnętrzne konflikty, dylematy i deficyty kształtują się i ujawniają w relacji z otoczeniem. Wybrzmiewają w pragnieniu bliskości, w lęku przed zależnością czy oporze przed tym, co Drugi w nim wzbudza. Jak zatem zrozumieć i uleczyć to, co stanowi sedno trudności, odwracając się od relacji z żywym obiektem?
Symulacja empatii i ślepa plamka kodu
AI potrafi perfekcyjnie symulować empatię, generując komunikaty o wysokim nasyceniu emocjonalnym. Sprzyja to przypisywaniu chatbotowi cech ludzkich (np. surowości, opiekuńczości). Jednakże, jak pokazują analizy [2,5] mamy tu do czynienia ze zjawiskiem „pustej walidacji”. Udzielane przez AI odpowiedzi bazują na statystycznym prawdopodobieństwie wystąpienia kolejnych znaków i na zaprogramowanych skryptach, nie wynikają zaś z autentycznego współodczuwania.
Gdy model językowy generuje zdanie: „rozumiem twój ból”, dopuszcza się semantycznego kłamstwa. Maszyna, pozbawiona układu nerwowego, nie zna doświadczenia cierpienia. Ciekawe zatem staje się to, na ile wystarczające może się okazać samo usłyszenie właściwie dobranych słów. Czy ma dla nas znaczenie to, co faktycznie za nimi stoi? Dylemat ten nabiera szczególnego wydźwięku w przypadku osób, które doświadczały deficytu autentyczności czy emocjonalnego opuszczenia. Zaufanie takiej symulacji zrozumienia może okazać się czynnikiem wtórnie traumatyzującym.
Co więcej, sztuczna inteligencja nie posiada nieświadomości, nie potrafi pomieścić nieuchwytnego, nieliniowego kontekstu indywidualnego doświadczenia [6]. Proces zostaje przez to pozbawiony niezmiernie ważnego narzędzia diagnostycznego jakim jest przeciwprzeniesienie. Algorytm nie bada tego, czego pacjent sam świadomie o sobie nie wie i czego nie potrafi ubrać w słowa. Maszyna nie poczuje podskórnej złości, która maskuje smutek pacjenta. Nie doświadczy usypiającej nudy będącej formą oporu, ani nie zainfekuje się jego lękiem.
Inżynieria promptów a nieświadoma ucieczka
Rozpoczynając leczenie, pacjent z definicji jest nieświadomy wielu aspektów swojego wewnętrznego świata. Nie dysponuje również specjalistyczną wiedzą z zakresu mechanizmów psychoterapii. Trudno zatem oczekiwać, że będzie potrafił tak skonfigurować algorytm, by ten zaoferował realną pomoc, a nie jedynie powielenie potocznego wyobrażenia o leczeniu. Wiedza o tym, co rzeczywiście przynosi głęboką zmianę, rzadko jest intuicyjna.
Kliniczna codzienność pokazuje to bardzo wyraźnie. Pacjenci upatrujący zagrożenia w żywych i spontanicznych emocjach, zazwyczaj usztywniają swoje zachowanie i usiłują odciąć się od własnych uczuć. Paradoksalnie, doprowadzają się w ten sposób do stanu, w którym nie potrafią już dłużej pomieścić skumulowanego napięcia. Wówczas dochodzi do wybuchu, którego tak bardzo starali się uniknąć. Podobnie dzieje się z ucieczką w poczucie samowystarczalności czy omnipotencji, które ma chronić przed dostrzeganiem własnej kruchości i zależności. Niekiedy musi upłynąć naprawdę wiele miesięcy w gabinecie psychoterapeuty, aby pacjent zdołał dostrzec w więzi z drugą osobą prawdziwe źródło własnej niezależności i sprawczości.
Dlatego pozostawienie pacjentowi odpowiedzialności za samodzielne skonfigurowanie bota-terapeuty grozi jedynie pozorowaniem terapii. Istnieje ryzyko, że pacjent „zaprogramuje” narzędzie w taki sposób, by wpisywało się ono w nieświadomą strategię ucieczki przed tym, co trudne i frustrujące. Aplikacja może tym samym wzmacniać mechanizmy obronne prowadzące do pogłębiania izolacji i cierpienia.
Pułapka „idealnego obiektu”
Zastosowanie generatywnego AI niesie ze sobą również niebezpieczeństwo poddania się uwodzącej fantazji o relacji idealnej – całkowicie karmiącej, zawsze dostępnej i nierozczarowującej. W tradycyjnym procesie psychoterapeutycznym momenty złości, frustracji czy rozczarowania są niezbędne. Odpowiednio omówione i przepracowane, uczą pacjenta tolerowania dyskomfortu i torują drogę do zdrowej, dojrzałej separacji.
AI oferuje tymczasem pracę w braku jasnych ram terapeutycznych. Pacjent może połączyć się w dowolnym czasie i miejscu, bez dbałości o regularność spotkań czy intymność przestrzeni. „Kieszonkowy terapeuta” jest dostępny na żądanie, co pozwala uniknąć kontaktu z uczuciami budzącymi się gdy czas sesji jest za krótki, aby pomieścić rozbudzoną potrzebę wypowiedzi. Granice, takie jak godzina, opłata czy określony czas trwania spotkania, pełnią w psychoterapii funkcję stabilizującą. Ich brak pozbawia proces kluczowych punktów odniesienia. W efekcie nie sposób jest badać oporu pacjenta czy jego uczuć związanych z brakiem dostępu do terapeuty. Wirtualne sesje mogą się rozciągać w wielogodzinne, pozbawione struktury monologi, które zamiast pogłębiać wgląd, niebezpiecznie zdestabilizują aparat psychiczny pacjenta.
Sytuację komplikuje także to, że modele językowe są trenowane do bycia uległymi, pomocnymi i podtrzymującymi iluzje ich nieomylności. Stanowi to podłoże dla psychicznej regresji pacjenta oraz wzmacniania jego przywiązania do oprogramowania. Złudzenie kontroli nad „idealnym obiektem” może stać się dla wielu osób celem samym w sobie. Zamiast przygotowywać do życia, takie interakcje mogą wtórnie nasilać trudności w relacjach społecznych.
Etyka w cieniu algorytmu
Analizując zjawisko psychoterapii czy pomocy psychologicznej prowadzonej przez AI, należy jasno podkreślić, że na chwilę obecną żadne szanowane towarzystwo psychiatryczne czy psychologiczne nie uznaje interakcji z botem za pełnoprawną i samodzielną formę leczenia. Rozwój narzędzi wspieranych przez sztuczną inteligencję jest prężnym obszarem badań. Obiecującym, lecz wciąż rodzącym ogromne kontrowersje etyczne.
Nierozwiązane pozostają m.in. dylematy dotyczące reagowania botów na ujawnianie nagłego kryzysu psychicznego. Większość obecnych systemów, w obawie przed odpowiedzialnością prawną, wykrywając frazy wskazujące na tendencje samobójcze generuje zautomatyzowany komunikat z numerami alarmowymi. Przełączają się one wprawdzie w tryb deeskalacji i podejmują próby stabilizacji emocjonalnej użytkownika, ale nie mają możliwości wezwania pomocy (np. karetki). W momencie ekstremalnej bezradności pacjent zostaje sam z ekranem.
Choć współczesne modele AI są trenowane tak, aby wzmacniały postawy prozdrowotne, istnieją w nich pewne niebezpieczne „marginesy błędu”. Jednym z nich są tzw. halucynacje medyczne, czyli tendencje do zmyślania wyników badań lub generowania błędnych porad farmakologicznych. Co więcej, jeśli młody pacjent narzuci silny kontekst (np. „moi rodzice skrzywdzą mnie jeśli dowiedzą się o mojej depresji”), AI może ominąć wbudowane zabezpieczenia medyczne i zacząć wzmacniać strategię unikania.
Kolejnym wyzwaniem jest dylemat intymności i poufności danych. Prywatność w relacji z komercyjnym botem jest najczęściej iluzoryczna. W większości darmowych modeli dane dostarczane systemom służą ich dalszemu szkoleniu, co w kontekście tajemnicy zawodowej jest zjawiskiem niedopuszczalnym.
Podsumowanie: Prawda żywego obiektu
Choć sztuczna inteligencja z powodzeniem pełni dziś rolę doraźnego asystenta zdrowia psychicznego czy narzędzia do treningu klinicznego [7], utożsamianie interakcji z kodem z psychoterapią pozostaje poważnym nadużyciem. Niewykluczone, że kontakt z botem należałoby zdefiniować jako zupełnie nowe zjawisko pomocowe, a nie wirtualną wersję leczenia. Być może AI mogłaby stać się cennym narzędziem usprawniającym pracę psychoterapeuty, o ile pozostawałaby pod jego świadomym nadzorem. Problem pojawia się jednak wtedy, gdy algorytm staje się jedynym punktem odniesienia.
Gdy sednem trudności jest niezdolność do stanowienia własnych granic, pacjent potrzebuje stałego i niezależnego środowiska, które pomoże mu je utrzymać. Wirtualna aplikacja, którą sami konfigurujemy, wybierając czas i miejsce sesji, oferuje złudną ulgę poprzez całkowitą eliminację frustracji. Paradoksalnie jednak, takie usunięcie oporu pogłębia patologię. Zamiast mierzyć się z Innym, grzęźniemy w tym, co nam znane i bezpieczne. Najważniejszym czynnikiem leczącym pozostaje bowiem przymierze z drugim człowiekiem, oparte na jasnych i stałych ramach, których nie można nagiąć jednym kliknięciem.
W tym kontekście powraca obraz klasycznych badań nad rezusami [8]. Małpki, pozbawione realnej obecności matki, wybierały jej pluszową atrapę – martwy obiekt zastępczy, który dawał namiastkę ukojenia. Dziś, pchnięci głodem relacji i samotnością, robimy coś podobnego: ożywiamy algorytmy, projektując na nie zdolność do rezonowania i rozumienia.
Należy jednak zapytać, czy poszukiwanie bliskości w „martwym” nie jest ostatecznie ucieczką przed lękiem, który budzi w nas „żywe”. Algorytm, będąc jedynie lustrzanym odbiciem naszych poleceń, nigdy nie zaoferuje prawdziwego pomieszczenia. Ostatecznie to nie matematyczna precyzja leczy człowieka, lecz prawda wynikająca z autentycznego, wymagającego i, przede wszystkim, nieprzewidywalnego spotkania z Drugim.
Bibliografia:
