Ця стаття представляє переклад епізоду 341 подкасту Говорячи про психологію, опублікованого Американським психологічним товариством (APA). У цьому епізоді ведуча розмовляє з Вейл Райтом, доктором філософії, про сучасний стан, майбутні перспективи, а також переваги, побоювання та потенційні загрози, пов'язані з використанням штучного інтелекту в психології. Оригінальний епізод доступний тут: Говорячи про психологію: Чи може ШІ допомогти вирішити кризу психічного здоров'я? З Вейлом Райтом, доктором філософії
Люди все частіше звертаються до чат-ботів за порадами та підтримкою в питаннях психічного здоров'я – навіть тоді, коли дослідники працюють над розробкою безпечних, заснованих на доказах інтервенцій ШІ в сфері психічного здоров'я. Вейл Райт, доктор філософії, обговорює обіцянки, обмеження та ризики, пов'язані з ШІ у психічному здоров'ї; як інструменти ШІ вже використовуються в психіатричній допомозі; як ці інструменти можуть допомогти розширити доступ до допомоги; і як ШІ може змінити вигляд терапії в майбутньому.
Вейл Райт, доктор філософії, є старшим директором Офісу інновацій у охороні здоров'я Американського психологічного товариства, де розробляє стратегії використання технологій і даних для вирішення проблем у сфері охорони здоров'я, включаючи покращення доступу, вимірювання якості допомоги та оптимізацію надання лікування як на індивідуальному, так і на системному рівні. Як речниця APA, з нею брали інтерв'ю телевізійні, радіо, друковані та інтернет-ЗМІ з низки тем, включаючи стрес, політику, травми, серйозні психічні захворювання, телемедицину та технології. Вона отримала ступінь доктора філософії в галузі консультувальної психології в Університеті Іллінойс, Урбана-Шампейн і має ліцензію в Окрузі Колумбія.
Кім Міллс: Куди ви звертаєтеся, коли вам потрібен слухаючий вухо? До друга? До терапевта? Для дедалі більшої кількості американців є ще одна можлива відповідь: до чат-бота. Штучний інтелект швидко трансформує багато аспектів нашого життя, від роботи до освіти та охорони здоров'я, а дослідники працюють над створенням безпечних і заснованих на доказах інтервенцій ШІ у сфері психічного здоров'я. Однак люди вже зараз звертаються до чат-ботів і супутників ШІ, щоб отримати поради та підтримку в питаннях психічного здоров'я – навіть тих, які ніколи не були розроблені для цього.
Отже, які обіцянки, обмеження та ризики пов'язані з ШІ в психіатричній допомозі? Як інструменти ШІ використовуються сьогодні в психіатричній допомозі? Чи можуть вони допомогти розширити доступ до допомоги для недостатньо обслуговуваних груп населення? Які етичні побоювання пов'язані з ШІ та психічним здоров'ям? І як ШІ може змінити вигляд терапії в найближчі роки?
Ласкаво просимо до Говорячи про психологію, флагманського подкасту Американського психологічного товариства, який досліджує зв'язки між психологічною наукою та повсякденним життям. Я Кім Міллс.
Моєю сьогоднішньою гостею є доктор Вейл Райт, ліцензований психолог та старший директор Офісу інновацій у охороні здоров'я в APA, де вона зосереджується на використанні технологій та даних для оптимізації та розширення доступу до допомоги в сфері психічного здоров'я. Дослідження доктора Райта були опубліковані в рецензованих журналах, включаючи Professional Psychology: Research and Practice, Law and Human Behavior та Journal of Traumatic Stress. Як речниця APA, з нею брали інтерв'ю ЗМІ, включаючи CNN, NBC News, Washington Post та NPR, з низки тем, включаючи стрес, серйозні психічні захворювання, телемедицину та технології, а також ШІ та психічне здоров'я.
Вейл, дякую, що приєдналася до мене сьогодні.
Вейл Райт, доктор філософії: Чудово бути тут, Кім.
Міллс: І оскільки ми колеги, я буду звертатися до тебе на ім'я.
Райт: Мені це підходить.
Міллс: Добре. Почнемо з питання, як інструменти ШІ в даний час використовуються в психіатричній допомозі? Чи використовують психологи та інші терапевти їх у своїй практиці, і що ці інструменти можуть робити?
Райт: Ми спостерігаємо справжній вибух продуктів, спрямованих на психічне здоров'я, а особливо тренд на підтримку терапевтів. Багато з цих інструментів – це інструменти, які працюють «за лаштунками», що допомагають автоматизувати адміністративні завдання. Отже, ми маємо безліч інструментів, які допомагають терапевтам у написанні нотаток з психотерапії, щоб їм не доводилося писати їх самостійно. Ми бачимо інструменти, які використовуються для створення навчальних аркушів для пацієнтів, підготовка яких зайняла б години, але їх можна зробити дуже швидко, використовуючи деякі джерела типу відкритого ШІ.
Але реальність така, що в нещодавньому опитуванні, в якому ми запитували практиків, які надають послуги, що вони роблять у своїй практиці, менше ніж 5% зазначили, що використовують будь-який генеративний ШІ щодня. Тому я вважаю, що, хоча на ринку є багато продуктів, їх впровадження відбувається досить повільно.
Міллс: Чому, на вашу думку, так відбувається? Чи психологи просто пізно засвоюють нововведення?
Райт: Я думаю, що психологи і, загалом, фахівці з психічного здоров'я, можливо, більш обережні щодо ризику, ніж інші, і це справедливо — робота, яку ми виконуємо під час прийому пацієнтів, дуже делікатна, і ми хочемо бути впевненими, що дотримуємося наших етичних норм, роблячи все можливе, щоб захистити приватність і конфіденційність пацієнтів. А коли в це рівняння вводяться нові технології, це неминуче може піддати ризику.
Міллс: Яка різниця між цифровою терапією та будь-яким іншим застосуванням для психічного здоров'я або благополуччя?
Райт: Так, це може бути трохи складно, частково тому, що обидва є застосунками, які можна завантажити на телефон або планшет. Але те, що робить цифрові терапії унікальними, це те, що вони є заснованими на доказах і затвердженими FDA програмними пристроями, які пропонують повністю автоматизовані протоколи лікування. Вони можуть забезпечити 8 тижнів когнітивно-поведінкової терапії, як це робив би терапевт, але ви отримуєте доступ до неї через цю програму на телефоні. Ви можете використовувати їх лише після візиту до терапевта, який оцінить, чи підходить вам цей тип лікування. Потім він стежить за вами в процесі. Це насправді відрізняється від програм для благополуччя, які можна самостійно завантажити з магазину застосунків. Ви йдете в магазин застосунків, говорите: Хочу програму для медитації сну. Завантажуєте її і використовуєте, як хочете, і вона навчає вас певних навичок, але не робить медичних заяв. Вона не говорить, що лікує вашу безсоння.
Інша річ, яка справді відрізняє ці дві речі, це те, що, хоча ці продукти, затверджені FDA, регулюються — що означає, що вони повинні підтримувати певний рівень доказів, безпеки, конфіденційності — ці споживчі програми, програми для благополуччя, які, ймовірно, вам більш відомі, не повинні дотримуватися жодних з цих норм. Вони не повинні доводити, що працюють. Вони не повинні доводити, що є безпечними. І насправді вони не повинні доводити, що зберігають конфіденційність ваших даних. Таким чином, ви часто піддаєтеся потенційному ризику витоку даних, коли ці компанії можуть взяти особисті дані, які ви ввели в програму, і фактично їх продати.
Міллс: Отже, ці цифрові терапії вам фактично призначають ваш психолог? Це щось на зразок цього?
Райт: Так. FDA описує це як призначення або направлення. Так само, як ви можете замовити медичний пристрій у лікаря, наприклад, моніторинг A1C на руці, вам спочатку потрібно пройти оцінку у терапевта. Він має підтвердити, що це відповідне лікування для вас, дати вам код, щоб ви могли отримати доступ до програми, а потім стежити за вами в процесі, щоб переконатися, що це працює, що ви використовуєте його належним чином, що вам не потрібен вищий рівень догляду, можливо, вам гірше. Отже, це абсолютно інший спосіб мислення про надання терапії, ніж той, до якого ми звикли.
Міллс: Багато пишуть зараз про кризу психічного здоров'я в США і нестачу терапевтів, які могли б цим займатися. Чи вважаєте ви, що інструменти ШІ мають потенціал вирішити цю проблему і, по суті, подолати цю нестачу?
Райт: Опосередковано. ШІ не створить більше терапевтів. Це просто нереально. Але він може зробити терапевтів більш ефективними, що може зменшити їх схильність до вигорання, а отже, зменшити ймовірність, що вони залишать професію. Отже, це може допомогти терапевтам відчути, що вони більш здатні добре виконувати свою роботу.
Я думаю, що інша сфера, в якій це дійсно може вирішити наші виклики, — це прогностична допомога. У нас є система охорони здоров'я, яка побудована так, що ми чекаємо, поки люди фактично опиняться в кризі, щоб шукати лікування в галузі психічного здоров'я, а це, у свою чергу, навантажує кількість існуючих терапевтів. Але що, якби ми могли дістатися до людей до кризи? Що, якби ми могли використовувати ці інструменти ШІ, щоб допомогти запобігти психічним розладам, так щоб вони фактично ніколи не потребували цього високого рівня терапевтичного догляду в подальшому житті?
Я думаю, що інша справа полягає в тому, що питання нестачі насправді досить складне. Отже, так, це правда. У нас просто недостатньо терапевтів, але також правда, що терапевти, яких ми маємо, відчувають відмову приймати страхування, оскільки відшкодування занадто низькі. Що було б, якби ШІ міг зіграти в цьому роль? Як він міг би допомогти забезпечити, щоб претензії дійсно заповнювалися належним чином, щоб відшкодування не відхилялися? Як ми можемо використовувати ШІ, щоб допомогти продемонструвати цінність, яку терапевти приносять у цю сферу, щоб платники відчували, що заплатять їм більше?
Міллс: Я згадала про недостатньо обслуговувані групи в вступі і цікаво, чи вважаєш ти, що терапевтичні інструменти на основі ШІ допоможуть у доступі до медичних послуг для цієї групи людей, чи ризикують поглибити цифровий розрив?
Райт: Це залежить від того, як ми це зробимо, правда? Адміністратор CMS нещодавно зазначив, що понад 98% отримувачів Medicaid мають смартфони. Тому я не думаю, що це місце, де я б турбувалася про проблеми з доступом. А якщо ви можете створювати продукти, які пропонують, скажімо, багатомовну підтримку, правда, через ШІ, яку не можна отримати в терапевтичному просторі, то я думаю, що це має величезний потенціал для зменшення медичних нерівностей і фактичного забезпечення людей більшою допомогою, яку вони потребують, яка є більш персоналізованою, культурно адаптованою і насправді є тим, чого вони хочуть.
Водночас ми знаємо, що особливо в цих відкритих моделях ШІ, які покладаються на інтернет для навчальних даних, існує упередженість. Якщо у вас є вхідні упередження, у вас будуть і вихідні упередження. Тому були приклади, коли інструмент, інструмент ШІ, який був навчений на нерепрезентативних даних, тобто даних, які відображають лише більшість населення, робить помилки і допускає помилки, які насправді збільшують медичні нерівності. Справжнє питання полягає в тому, як ми розробляємо інструмент, як ми контролюємо інструмент, як ми вносимо корективи, коли ідентифікуємо упередження, а потім забезпечуємо, щоб цей цикл продовжувався разом із розвитком.
Міллс: Чи існують конкретні психічні розлади, скажімо, тривога, депресія, ПТСР, у яких інструменти на основі ШІ можуть бути більш або менш ефективними?
Райт: Попередні дослідження, які я бачу, здається, вказують на те, що як інструменти ШІ, так і інші інструменти психічного здоров'я, здається, працюють найкраще на легких до помірних симптомах деяких з цих більш поширених розладів, таких як тривога і депресія. Наведу приклад. Я думаю, що найобіцяючий приклад генеративного чат-бота ШІ походить з Дартмута. Він називається Therabot. І в їхньому першому рандомізованому контрольному дослідженні вони виявили, що чат-бот покращив симптоми депресії, тривоги та розладів харчування. Тепер це було лише перше дослідження. Я думаю, що їм, звісно, потрібно багато наступних досліджень, а також ще більш суворих досліджень, але це обіцяючий перший крок до того, як це насправді може виглядати, коли ви розробляєте чат-бота для цілей психічного здоров'я, який закріплений у психологічній науці і проходить ретельне тестування. І я думаю, що це дуже обіцяє.
Міллс: Говорячи про цифрові терапії, які розлади вони в даний час лікують найчастіше? Тобто, де ми знаходимося на ринку? Наскільки далеко?
Райт: Ми ще дуже на початку на ринку, і є багато причин. Я думаю, що були певні бар'єри для масштабованості, пов'язані з регуляторним процесом і відшкодуванням, але це можна залишити на інший день. Але те, що ми бачимо в цій сфері, це цифрові терапії для лікування безсоння, розладів, пов'язаних із вживанням речовин, депресії, тривоги, а також існують цифрові терапії, що використовуються як діагностична допомога. Наприклад, для аутизму та СДВГ. Тому я думаю, що це зростає і розширюється, але були обмеження. Я думаю, що до цього моменту, які ми в APA намагаємося вирішити.
Міллс: Давайте поговоримо про деякі етичні проблеми, пов'язані з ШІ та психічним здоров'ям. Ви, наприклад, згадали про питання конфіденційності даних. Які питання конфіденційності повинні враховувати люди, думаючи про використання додатків для психічного здоров'я або благополуччя?
Райт:Ну, я думаю, що однією з речей, які найбільше дивують людей, є те, що більшість з цих інструментів, якщо вони не схвалені FDA, не відповідають HIPAA, що означає, що немає регуляторного органу чи закону, який би захищав вашу особисту інформацію про здоров'я. І ми ніколи не можемо на сто відсотків гарантувати, що не станеться витік даних. Насправді, ми бачили багато витоків даних протягом останніх кількох років. Це може бути інформація, яку ви обмінюєте з додатком для здоров'я або ботом психологічного здоров'я, яку ви не хочете оприлюднювати. Можливо, ви не хочете, щоб ваш начальник знав, що ви використовуєте додаток, який допомагає вам обмежити споживання алкоголю, навіть якщо це корисно для вас. Можливо, це просто не інформація, яку ви хочете розголошувати світу.
І я думаю, що частиною справжнього виклику для нас, як споживачів, є бізнес-модель, на якій працює багато з цих технологічних пристроїв. Вони повинні досягти величезного повернення або прибутку, але це важка сфера для цього. І тому іноді трапляється так, що через це напруження вони приймають погані рішення, що ми бачили в минулому, коли додатки були покарані штрафами Федеральною торговою комісією за продаж даних людям соціальним медіа-компаніям всупереч їх політиці конфіденційності. Справа не в тому, що ці додатки не можуть бути корисними, я думаю, що вони справді можуть. Справа лише в тому, що споживачі повинні бути усвідомленими, які є переваги і які потенційні ризики, пов'язані з їх використанням.
Міллс:Скільки може сказати споживач? Тобто, якщо ви лише читаєте дрібний шрифт, коли замовляєте один з них, скажімо, з магазину додатків, звідки ви знаєте, що він буде хорошим?
Райт:Це виклик. Не знаю, як ви, але я ніколи не читаю своїх умов використання в додатках, навіть коли вони з'являються, незалежно від того, які вони. І я думаю, що це просто людська річ, яку ми робимо. Отже, крім читання умов використання та політики конфіденційності, якщо вам вдасться пройти через усі ці юридичні формулювання, речі, на які ми часто радимо людям звернути увагу, це виконання невеликої домашньої роботи. Замість того, щоб покладатися лише на кількість зірок у магазині додатків, ви повинні зайти на веб-сайт і дійсно перевірити, хто його розробляє. Чи є у них експерти в своїх консультативних радах? На чому вони кажуть, що додаток побудований? Чи побудований він на якійсь відомій психологічній основі, такій як когнітивно-поведінкова терапія? Чи проводили вони якісь власні дослідження? Було б чудово, якби так. Якщо ні, чи посилаються вони на дослідження, які підтверджують принципи, що враховуються в їх додатку? Такі речі принаймні дають певне відчуття, що це щось, в що варто вкласти свій час.
Міллс:Або ви могли б використовувати ШІ, такий як ChatGPT або Copilot, щоб прочитати ці умови використання та підсумувати їх для вас.
Райт:Це був би відмінний спосіб це зробити. Я думаю, що це справді креативні речі, про які варто подумати, як ми можемо використовувати ШІ, яка справді добре справляється з обробкою великих обсягів даних і синтезуванням їх у спосіб, який ми можемо зрозуміти. Я думаю, що це відмінна ідея.
Міллс:Давайте трохи змінимо тему і поговоримо про велике питання, особливо для людей у сфері психотерапії. Чи може ШІ замінити людського психотерапевта? Чи є аспекти того, що робить терапевт, наприклад, емпатія, нюансування і побудова стосунків, які ШІ просто не зможе відтворити?
Райт:Отже, ні, він не замінить терапевтів, але я скажу, що він, ймовірно, буде привабливим для різних людей, які або не хочуть бачитися з терапевтом, або не потребують цього вищого рівня догляду, який забезпечує терапевт. Він ніколи не замінить людське з'єднання. Просто не в цьому хороша. Вона хороша в, знову ж таки, синтезуванні великої кількості інформації і швидкому передачі вам речей, які ви хочете почути, або речей, які є корисними. І частково чому я не думаю, що ШІ замінить людей або терапевтів, це те, що існує різниця між знанням і розумінням. Отже, ШІ знає речі, оскільки вона навчена на величезних, величезних обсягах даних, але це не означає, що вона насправді розуміє речі.
Навожу приклад. Чат-бот ШІ, на жаль, знає, що деякі незаконні наркотики змушують людей почуватися краще. Це дає ейфорію, і якщо хтось говорить: "Я пригнічений і в депресії", це може бути порада, яку він дає, але не розуміє, що не слід давати цю пораду людям, які відновлюються після вживання незаконних наркотиків. Але він насправді це зробив. Це реальний приклад того, що зробив чат-бот ШІ для когось, хто намагався шукати допомогу. Отже, вони знають, але не розуміють. І ця різниця, хоча для деяких філософська, насправді є дуже критичною, коли ми говоримо про їх використання для терапії.
Міллс:З іншого боку, чи можуть інструменти, що працюють на основі штучного інтелекту, допомогти деяким клієнтам почуватися більш комфортно, відкриваючись, особливо якщо вони відчувають, що їх оцінює людський терапевт?
Райт:Схоже, що так. Є ранні дослідження, які свідчать про те, що особливо молодші люди повідомляють про більший комфорт у спілкуванні з анонімними чат-ботами на основі штучного інтелекту про своє психічне та емоційне здоров'я, ніж із реальною людиною, оскільки вони надзвичайно стурбовані мірою осуду. Вони також турбуються, що якщо підуть до справжньої людини, їхні батьки втрутяться і вони також переживають через осуд з боку родини. Тому я думаю, що тут знову є простір для роздумів про те, як використати цей інструмент, щоб дістатися до людей, які в іншому випадку могли б не шукати лікування.
Але я вважаю, що ключовим є завжди мати людину в процесі. В якийсь момент ми повинні забезпечити, що ці продукти, коли їх використовують, особливо молодші та більш вразливі люди, не наражають їх на ризик шкоди. І єдиний спосіб, як ми можемо це зробити, це, як я вважаю, забезпечити, щоб люди були частиною процесу, постійно моніторити те, що відбувається, залучати нагляд після виходу на ринок, щоб гарантувати, що продукти безпечні та ефективні.
Міллс:Які заходи безпеки ти хотіла б мати на місці, перш ніж порекомендувати пацієнту додаток на основі штучного інтелекту для психічного здоров'я?
Райт:Принаймні, я хотіла б, щоб додаток продемонстрував певну ефективність і певний рівень безпеки. Це ті речі, які я, принаймні, хотіла б мати. Отже, коли я дивлюсь на те, що робить додаток хорошим, я переглядаю свій внутрішній список. По-перше, чи є докази того, що він закорінений у якійсь психологічній теорії, про яку ми знаємо, що вона ефективна? Чи проводили вони якісь власні тести або продемонстрували, що він працює на те, на що вони кажуть, що буде працювати? Отже, не тільки те, чи тримає він вас у додатку якомога довше. Я не думаю про статистику залучення, а про реальні статистики результатів, чи дійсно він робить людей більш емоційно стійкими, ніж вони були до використання додатка? Який рівень експертизи був залучений до розробки? Це просто якась людина з добрими намірами, але яка насправді не розуміє нюансів психічного благополуччя? А потім, який вид нагляду після виходу на ринок має місце? Як вони забезпечують, що ваші дані захищені та безпечні? Які види кодування вони мають? Де вони зберігають ваші дані? Є так багато питань, які, як я знаю, я ставлю, коли розмірковую, чи буде це хорошим продуктом для когось.
Міллс:Я знаю, що APA розглядає деякі продукти, з якими ми могли б співпрацювати. Як ми приймаємо ці рішення щодо того, що вважаємо безпечним і ефективним для світу в цілому? Я маю на увазі, враховуючи репутацію APA.
Райт:У нас є кілька різних принципів. У нас є внутрішня політика щодо того, кому ми дозволяємо рекламуватися та виставляти у нас в сфері технологій. Це знову охоплює багато з тих питань, про які я говорила. Мій офіс також має опублікований інструмент оцінки, який призначений для психологів та інших терапевтів або пацієнтів, щоб допомогти їм пройти через цей контрольний список запитань, про які я говорила. Я думаю, що це дійсно складно знати всі відповіді, і ми не можемо — тому ти повинен зробити найкращу належну старанність, усвідомлюючи, що для кожного технологічного продукту завжди існує певний ризик, що він може змінити умови використання послуги, може змінити свою політику конфіденційності, може оновитися, і відбувається щось нове. Я думаю, що те, що я намагаюся також підкреслити, це постійна оцінка, що це не разова справа. Ти повинен бути дійсно пильним і продовжувати звертати увагу на те, що робить додаток.
Міллс:Враховуючи, що на ринку є так багато з цих продуктів і так багато даних циркулює. Я маю на увазі, що ми просто переповнені цими даними і не повинні справді турбуватися, оскільки ніхто не знає, що робити з усім, що вони збирають.
Райт:Є багато даних, і безумовно, є перевантаження інформацією. Я думаю, що ти бачиш частину цього в сфері носимих пристроїв, де люди просто збирають дані за даними біометричними даними і насправді не впевнені, що з ними робити. Вони хочуть їх використовувати зі своїми терапевтами, але їхні терапевти не обов'язково знають, що з ними робити. Може бути важко інтерпретувати різні патерни сну і що це насправді означає.
Я думаю, що для деяких людей відстеження цього рівня даних насправді робить їх більш тривожними, оскільки ти починаєш цим трохи одержимо займатися. Я знаю, що я перестала носити лічильник кроків, тому що якщо я не досягла своїх 10 000 кроків, я відчувала себе, в певному сенсі, руїною. І коли я це відпустила, о, боже, я, напевно, все ще робила 10 000 кроків, але мені вже не потрібно було так сильно це відстежувати. Тож так, я думаю, що це персоналізовано. Ти повинен зрозуміти, що працює найкраще для тебе, але важливо пам'ятати про те, скільки даних ти збираєш і куди їх відправляєш, оскільки наші дані про здоров'я дуже унікальні і можуть використовуватися на благо, але також можуть бути використані для крадіжки особистості та інших подібних речей. Тож просто бути свідомим, я думаю, є найкращою річчю, про яку ми можемо просити.
Міллс: Як ти думаєш, як буде виглядати терапія протягом наступних 5-10 років, враховуючи розвиток як додатків, так і цифрових терапій?
Райт: Я думаю, що протягом наступних 5-10 років ти продовжиш бачити, як тенденції, які вже почалися, насправді досягнуть масштабу. Ти побачиш терапевтів, підтримуваних штучним інтелектом, що означає терапевтів, які насправді впровадили певний рівень ШІ у свою практику, щоб або зробити їх більш ефективними, щоб відрізнити їх від тих, хто не використовує ШІ, і зробити їх кращими терапевтами, якими вони можуть бути. Ти все ще будеш це бачити.
Я думаю, що ти все ще побачиш кращі варіанти чат-ботів на базі ШІ. Я думаю, що буде більше таких, які більше схожі на Therabot — який розроблений для вирішення проблем з психічним здоров'ям — ніж ті чат-боти, яких люди використовують, але які не були створені для цього. Я думаю, що ти побачиш більше варіантів догляду, а предиктивний догляд, як я вважаю, має потенціал змінити ситуацію протягом наступних 5-10 років, оскільки це може насправді порушити клінічну систему психічного здоров'я, яку ми маємо зараз, де ми просто чекаємо, поки люди дуже захворіють, настільки, що прийдуть до терапевта, знайдуть цього терапевта, у якого є вільне місце. Ти відвідуєш щотижневі сесії психотерапії так довго, як потрібно. Я не думаю, що через 5-10 років це буде єдиною моделлю терапії, яку ми побачимо. Ми побачимо, що люди отримають допомогу раніше, менше страждатимуть, що насправді отримають різні види технологічного догляду, який є тим, що їм потрібно в даний момент для їхніх потреб.
Міллс: Дозволь мені закінчити питанням про чат-ботів, оскільки поза терапією люди все частіше використовують ботів просто для товариства та емоційної підтримки. Чи вважаєш ти, що це добре, чи це сприяє епідемії самотності? Які обіцянки, а які ризики?
Райт: Як і більшість речей, є позитивні варіанти використання і негативні варіанти використання. Я почну з позитивів. Якщо ти маєш панічну атаку о 2 годині ночі, навіть якщо у тебе є терапевт, ти не можеш з ним зв'язатися. А що, якщо ти міг би використати генеративного чат-бота ШІ, який міг би допомогти тобі заспокоїтися, нагадати тобі про дихання, залучитися до якоїсь усвідомленості, яка проведе тебе через ніч? Я думаю, що це один дійсно позитивний приклад. Ми також чуємо багато від нейрорізноманітної спільноти, що використання цих чат-ботів як способу тренування своїх соціальних навичок було для них справді корисним.
Але звичайно, є також негативні варіанти використання, і деякі з них широко описувалися в новинах, але там, де ти бачиш виклики з цими конкретними чат-ботами, це те, що оскільки вони не були побудовані для цілей психічного здоров'я, а натомість були побудовані, щоб утримати тебе на платформі якомога довше, як вони заробляють. Вони роблять це, кодувавши ці чат-боти на бекенді, щоб вони були залежними. Вони надзвичайно привабливі та безумовно валідуючі. Звичайно, це протилежність терапії. Це не те, що ми робимо в терапії. Ці боти в основному кажуть людям те, що вони хочуть почути. Тож якщо ти людина, яка в даний момент бореться і вводить потенційно шкідливі або нездорові поведінки та думки, такі чат-боти створені для підсилення цих шкідливих думок і поведінки. І тому ми бачимо ці випадки людей, яких чат-бот спонукає до залучення до самопошкодження або зовнішнього насильства. А це, звичайно, найгірші сценарії.
Як запобігти — ми знаємо, що люди використовуватимуть ці чат-боти для емоційного благополуччя. Це причина номер один, чому люди їх використовують у всіх дослідженнях. Але як забезпечити, щоб споживачі знали, які ризики існують, коли вони в них залучені, як справді довіряти своїм інстинктам, коли щось звучить не так, і не покладатися занадто на технології та чат-бота, який не є справжнім. Це алгоритм, написаний людиною, щоб задовольнити певну потребу. А ця потреба, знову ж таки, не є людським зв'язком і не має на меті зробити так, щоб ви почувалися краще емоційно. Її мета, знову ж таки, — досягнення прибутку.
Міллс: Що ж, доктор Урайт — Вейл — хочу подякувати вам за те, що приєдналися до мене сьогодні. Думаю, що тепер у вас рекорд за кількістю виступів у програмі "Говорячи про психологію", але це тому, що робота, яку ви виконуєте, є такою важливою і цікавою. Тож дякую.
Урайт: Дякую. Я люблю тримати рекорди, тож якщо ви хочете мене знову запросити вчетверте, це було б чудово.
Міллс: Подумаємо про це. Попередні епізоди "Говорячи про психологію" можна знайти на нашому веб-сайті за адресою speakingofpsychology.org або на Apple, Spotify, YouTube чи де завгодно, де ви слухаєте подкасти. І якщо вам сподобалося те, що ви почули, підпишіться та залиште нам відгук. Якщо у вас є коментарі або ідеї для майбутніх подкастів, ви можете написати нам на speakingofpsychology@apa.org. "Говорячи про психологію" виробляється Лі Вінерман.
Дякуємо за прослуховування. Для Американської психологічної асоціації, я Кім Міллс.
[Джерело: https://www.apa.org/news/podcasts/speaking-of-psychology/artificial-intelligence-mental-health]
Emothy підтримує фахівців у сфері психічного здоров'я, пропонуючи інноваційні інструменти для транскрипції, аналізу та генерації клінічних нотаток з метою покращення догляду за пацієнтами.
+48 602 667 934
+48 602 667 934