1. pl
  2. en
a close up of a person's blue eye
04 października 2025

Psychoterapia między człowiekiem a maszyną

W gabinecie terapeuty coraz częściej pojawia się nowy „uczestnik” – nie pacjent, nie lekarz, lecz algorytm. Sztuczna inteligencja w psychoterapii to już nie wizja przyszłości, lecz narzędzie obecne w badaniach klinicznych i w praktyce. Pytanie brzmi: czy to rewolucja, która nas wyzwoli, czy pułapka, która zagrozi temu, co w terapii najważniejsze – ludzkiemu spotkaniu?

Adam Miner i współautorzy z Uniwersytetu Stanforda zauważają, że AI wcale nie musi być doskonałą imitacją człowieka, by wspierać proces leczenia. „Konwersacyjna AI raczej nie osiągnie w najbliższym czasie wystarczającej technicznej doskonałości, by zastąpić ludzkich terapeutów. Jednak nie musi przejść testu Turinga, by mieć istotny wpływ na opiekę psychiatryczną” (Miner i in., 2019, s. 2). Słowem – nie chodzi o to, by maszyna udawała terapeutę, ale by zdejmowała z niego część obciążeń, na przykład wstępne zbieranie danych czy monitorowanie stanu pacjenta.

Najświeższe dowody na skuteczność znajdziemy w pracy Han Li i zespołu (2023). Autorzy przeanalizowali 35 badań obejmujących ponad 17 tysięcy osób i stwierdzili, że systemy konwersacyjne oparte na AI „znacząco redukują objawy depresji i dystresu psychologicznego” (Li i in., 2023, s. 3). Co więcej, największe korzyści odczuwają osoby starsze i pacjenci z diagnozami klinicznymi – a więc grupy, które tradycyjnie bywają trudniej dostępne dla klasycznej terapii. To mocny argument za tym, że AI może poszerzać dostęp do opieki psychicznej tam, gdzie brakuje specjalistów.

Ale nie wszystko jest tak proste. Jak pokazuje Paiva i współautorzy w artykule opublikowanym w Discover Artificial Intelligence, sama obietnica „terapii cyfrowej” niesie też poważne wyzwania. Autorzy podkreślają, że rozwój tej dziedziny jest nierozerwalnie związany z kwestiami etycznymi i prawnymi: „Potencjał zastosowania AI w zdrowiu psychicznym idzie w parze z koniecznością ochrony prywatności, odpowiedzialności klinicznej i przejrzystości działania systemów” (Paiva i in., 2023, s. 7). Innymi słowy – nie wystarczy, że chatbot „działa”. Musi działać w sposób bezpieczny, przewidywalny i zgodny z zasadami, które chronią pacjenta.

Tu wracamy do ostrzeżeń Minera: „Jeśli konwersacyjna AI nie jest bezpieczna, nie powinna być używana; a jeśli nie jest godna zaufania, nie będzie używana” (Miner i in., 2019, s. 2). Trudno o bardziej klarowne podsumowanie. AI może zwiększać dostępność terapii, wspierać diagnostykę, wzmacniać efektywność – ale nigdy nie zastąpi terapeutycznego kontaktu, w którym najważniejsze są empatia, interpretacja i odpowiedzialność człowieka.

Czy zatem powinniśmy bać się nowego uczestnika gabinetu? Niekoniecznie. Raczej powinniśmy nauczyć się, jak z nim współpracować. Bo przyszłość psychoterapii to duet: człowiek i maszyna. A kto w tym duecie prowadzi? Na szczęście wciąż – i oby zawsze – człowiek.


Przypisy

  • Miner, A. S., Shah, N., Bullock, K. D., Arnow, B. A., Bailenson, J., & Hancock, J. (2019). Key considerations for incorporating conversational AI in psychotherapy. Frontiers in Psychiatry, 10, 746. https://doi.org/10.3389/fpsyt.2019.00746

  • Li, H., Zhang, R., Lee, Y.-C., Kraut, R. E., & Mohr, D. C. (2023). Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being. npj Digital Medicine, 6(236). https://doi.org/10.1038/s41746-023-00979-5

  • Paiva, A., Leite, I., Oliveira, R., & Santos, R. (2023). Artificial intelligence in mental health: applications, risks, and future perspectives. Discover Artificial Intelligence, 3(1), 54. https://doi.org/10.1007/s44163-023-00054-9

Emothly wspiera specjalistów zdrowia psychicznego, oferując innowacyjne narzędzia do transkrypcji, analizy i generowania notatek klinicznych dla poprawy opieki nad pacjentami.

Media społecznościowe

Kontakt

+48 602 667 934

This website was made in WebWave website builder.