У кабінеті терапевта все частіше з'являється новий «учасник» – не пацієнт, не лікар, а алгоритм. Штучний інтелект у психотерапії вже не є баченням майбутнього, а інструментом, присутнім у клінічних дослідженнях і на практиці. Питання в тому: чи це революція, яка нас звільнить, чи пастка, яка загрожує тому, що в терапії найважливіше – людській зустрічі?
Адам Майнер та співавтори з Університету Стенфорда зазначають, що ШІ зовсім не повинен бути досконалою імітацією людини, щоб підтримувати процес лікування. «Розмовний ШІ навряд чи досягне найближчим часом достатньої технічної досконалості, щоб замінити людських терапевтів. Однак він не повинен проходити тест Тюрінга, щоб мати істотний вплив на психіатричну допомогу»(Майнер та ін., 2019, с. 2). Словом – справа не в тому, щоб машина вдавала терапевта, а в тому, щоб знімала з нього частину навантажень, наприклад, попереднє збори даних або моніторинг стану пацієнта.
Найсвіжіші докази ефективності ми знаходимо в роботі Хан Лі та команди (2023). Автори проаналізували 35 досліджень, що охоплюють понад 17 тисяч осіб, і стверджують, що розмовні системи на основі ШІ «значно зменшують симптоми депресії та психологічного дистресу»(Лі та ін., 2023, с. 3). Більше того, найбільші переваги відчувають літні люди та пацієнти з клінічними діагнозами – тобто групи, які традиційно важче доступні для класичної терапії. Це потужний аргумент на користь того, що ШІ може розширити доступ до психічної допомоги там, де не вистачає фахівців.
Але не все так просто. Як показують Пайва та співавтори в статті, опублікованій в Discover Artificial Intelligence, сама обіцянка «цифрової терапії» несе також серйозні виклики. Автори підкреслюють, що розвиток цієї сфери нерозривно пов'язаний з етичними та правовими питаннями: «Потенціал застосування ШІ в психічному здоров'ї йде в парі з необхідністю захисту приватності, клінічної відповідальності та прозорості роботи систем»(Пайва та ін., 2023, с. 7). Іншими словами – недостатньо, щоб чат-бот «працював». Він повинен працювати безпечно, передбачувано та відповідно до принципів, які захищають пацієнта.
Тут ми повертаємось до застережень Майнера: «Якщо розмовний ШІ не є безпечним, його не слід використовувати; а якщо він не заслуговує довіри, його не використовуватимуть»(Майнер та ін., 2019, с. 2). Важко знайти більш чітке підсумування. ШІ може підвищувати доступність терапії, підтримувати діагностику, зміцнювати ефективність – але ніколи не замінить терапевтичний контакт, в якому найважливіші емпатія, інтерпретація та відповідальність людини.
Отже, чи повинні ми боятися нового учасника кабінету? Не обов'язково. Скоріше, ми повинні навчитися, як з ним співпрацювати. Бо майбутнє психотерапії – це дует: людина та машина. А хто в цьому дуеті веде? На щастя, все ще – і сподіваємось завжди – людина.
Майнер, А. С., Шах, Н., Буллок, К. Д., Арноу, Б. А., Бейленсон, Дж., & Хенкок, Дж. (2019).Ключові міркування щодо впровадження розмовного ШІ в психотерапії.Frontiers in Psychiatry, 10, 746.https://doi.org/10.3389/fpsyt.2019.00746
Лі, Х., Чжан, Р., Лі, Ю.-Ц., Краут, Р. Е., & Мохр, Д. С. (2023).Систематичний огляд та мета-аналіз розмовних агентів на основі ШІ для сприяння психічному здоров'ю та добробуту.npj Digital Medicine, 6(236).https://doi.org/10.1038/s41746-023-00979-5
Пайва, А., Лейте, І., Олівейра, Р., & Сантос, Р. (2023).Штучний інтелект у психічному здоров'ї: застосування, ризики та перспективи.Discover Artificial Intelligence, 3(1), 54.https://doi.org/10.1007/s44163-023-00054-9
Emothy підтримує фахівців у сфері психічного здоров'я, пропонуючи інноваційні інструменти для транскрипції, аналізу та генерації клінічних нотаток з метою покращення догляду за пацієнтами.
+48 602 667 934
+48 602 667 934