Niniejszy artykuł przedstawia tłumaczenie Odcinka 341 podcastu Speaking of Psychology, opublikowanego przez Amerykańskie Towarzystwo Psychologiczne (APA). W tym odcinku, prowadząca rozmawia z Vaile Wright, PhD, na temat obecnego stanu, przyszłych perspektyw, a także korzyści, obaw i potencjalnych zagrożeń związanych z wykorzystaniem sztucznej inteligencji w psychologii. Oryginalny odcinek jest dostępny tutaj: Speaking of Psychology: Can AI help solve the mental health crisis? With Vaile Wright, PhD
Ludzie coraz częściej zwracają się do chatbotów w poszukiwaniu porad i wsparcia w zakresie zdrowia psychicznego – nawet podczas gdy badacze pracują nad rozwojem bezpiecznych, opartych na dowodach interwencji AI w dziedzinie zdrowia psychicznego. Vaile Wright, PhD, omawia obietnice, ograniczenia i ryzyko związane z AI w zdrowiu psychicznym; w jaki sposób narzędzia AI są już wykorzystywane w opiece psychiatrycznej; jak te narzędzia mogłyby pomóc rozszerzyć dostęp do opieki; oraz jak AI może zmienić wygląd terapii w przyszłości.
Vaile Wright, PhD, jest starszym dyrektorem Biura Innowacji w Opiece Zdrowotnej w Amerykańskim Towarzystwie Psychologicznym, gdzie opracowuje strategie wykorzystania technologii i danych do rozwiązywania problemów w opiece zdrowotnej, w tym poprawy dostępu, pomiaru opieki i optymalizacji świadczenia leczenia zarówno na poziomie indywidualnym, jak i systemowym. Jako rzeczniczka APA, była przeprowadzana z nią wywiady przez media telewizyjne, radiowe, drukowane i internetowe na szereg tematów, w tym stres, politykę, traumę, poważne choroby psychiczne, telezdrowie i technologię. Uzyskała tytuł PhD w dziedzinie psychologii poradnictwa na Uniwersytecie Illinois, Urbana-Champaign i posiada licencję w Dystrykcie Kolumbii.
Kim Mills: Gdzie się zwracasz, gdy potrzebujesz słuchającego ucha? Do przyjaciela? Do terapeuty? Dla coraz większej liczby Amerykanów jest jeszcze jedna możliwa odpowiedź: do chatbota. Sztuczna inteligencja szybko przekształca wiele części naszego życia, od pracy, przez edukację, po opiekę zdrowotną, a badacze pracują nad stworzeniem bezpiecznych i opartych na dowodach interwencji AI w zakresie zdrowia psychicznego. Jednocześnie jednak ludzie już teraz zwracają się do chatbotów i towarzyszy AI, aby uzyskać porady i wsparcie w zakresie zdrowia psychicznego – nawet tych, które nigdy nie zostały do tego zaprojektowane.
Zatem jakie są obietnice, ograniczenia i ryzyko związane z AI w opiece psychiatrycznej? Jak narzędzia AI są dziś wykorzystywane w opiece psychiatrycznej? Czy mogłyby one pomóc rozszerzyć dostęp do opieki dla populacji niedostatecznie obsłużonych? Jakie są obawy etyczne związane z AI i zdrowiem psychicznym? I jak AI może zmienić wygląd terapii w nadchodzących latach?
Witamy w Speaking of Psychology, sztandarowym podcaście Amerykańskiego Towarzystwa Psychologicznego, który bada związki między nauką psychologiczną a życiem codziennym. Jestem Kim Mills.
Moim dzisiejszym gościem jest dr Vaile Wright, licencjonowana psycholog i starszy dyrektor Biura Innowacji w Opiece Zdrowotnej w APA, gdzie koncentruje się na wykorzystaniu technologii i danych w celu optymalizacji i zwiększenia dostępu do opieki w zakresie zdrowia psychicznego. Badania dr Wright zostały opublikowane w recenzowanych czasopismach, w tym Professional Psychology: Research and Practice, Law and Human Behavior oraz Journal of Traumatic Stress. Jako rzeczniczka APA, była przeprowadzana z nią wywiady przez media, w tym CNN, NBC News, Washington Post i NPR, na szereg tematów, w tym stres, poważne choroby psychiczne, telezdrowie i technologię, a także AI i zdrowie psychiczne.
Vaile, dziękuję, że dołączyłaś do mnie dzisiaj.
Vaile Wright, PhD: Cudownie tu być, Kim.
Mills: A ponieważ jesteśmy współpracownikami, będę się do ciebie zwracać po imieniu.
Wright: Pasuje mi to.
Mills: Dobrze. Zacznijmy od pytania, jak narzędzia AI są obecnie wykorzystywane w opiece psychiatrycznej? Czy psychologowie i inni terapeuci już ich używają w swoich praktykach i co te narzędzia potrafią?
Wright: Obserwujemy prawdziwą eksplozję produktów ukierunkowanych na zdrowie psychiczne, a zwłaszcza trend w kierunku wspierania terapeutów. Wiele z tych narzędzi to narzędzia działające „za kulisami”, które pomagają zautomatyzować zadania administracyjne. Mamy więc całą masę narzędzi, które mają pomóc terapeutom w pisaniu notatek z psychoterapii, aby nie musieli ich sami pisać. Widzimy narzędzia używane do tworzenia arkuszy edukacyjnych dla pacjentów, których przygotowanie zajęłoby godziny, ale można je wykonać bardzo szybko, korzystając z niektórych źródeł typu otwarte AI.
Ale rzeczywistość jest taka, że w niedawnej ankiecie, w której zapytaliśmy praktyków świadczących usługi, co robią w swojej praktyce, mniej niż 5% stwierdziło, że używa jakiegokolwiek generatywnego AI na co dzień. Myślę więc, że chociaż na rynku jest wiele produktów, ich wdrażanie przebiega dość wolno.
Mills: Dlaczego tak jest Twoim zdaniem? Czy psychologowie po prostu późno przyswajają nowości?
Wright: Myślę, że psychologowie i ogólnie specjaliści ds. zdrowia psychicznego są być może bardziej niechętni ryzyku niż inni, i słusznie — praca, którą wykonujemy podczas przyjmowania pacjentów, jest bardzo delikatna i chcemy mieć pewność, że postępujemy zgodnie z naszymi wytycznymi etycznymi, robiąc wszystko, co w naszej mocy, aby chronić prywatność i poufność pacjentów. A kiedy wprowadza się w to równanie pojawiające się technologie, nieuchronnie potencjalnie naraża się to na ryzyko.
Mills: Jaka jest różnica między cyfrową terapią a jakąkolwiek inną aplikacją zdrowia psychicznego lub wellness?
Wright: Tak, to może być trochę trudne, częściowo dlatego, że obie są aplikacjami, które można pobrać na telefon lub tablet. Ale tym, co czyni cyfrowe terapie wyjątkowymi, jest to, że są to oparte na dowodach i zatwierdzone przez FDA urządzenia programowe, które oferują w pełni zautomatyzowane protokoły leczenia. Mogą one zapewnić 8 tygodni terapii poznawczo-behawioralnej, tak jak zrobiłby to terapeuta, ale uzyskujesz do niej dostęp za pomocą tej aplikacji na telefonie. Można z nich korzystać tylko po wizycie u terapeuty, który oceni, czy nadajesz się do tego typu leczenia. Następnie monitoruje on Cię w czasie. To jest naprawdę inne niż aplikacje wellness, które można samemu pobrać ze sklepu z aplikacjami. Idziesz do sklepu z aplikacjami, mówisz: Chcę aplikację do medytacji snu. Pobierasz ją i używasz, jak chcesz, a ona uczy cię pewnych umiejętności, ale nie wysuwa roszczeń medycznych. Nie mówi, że leczy twoją bezsenność.
Inna rzecz, która naprawdę różni te dwie rzeczy, to fakt, że chociaż te zatwierdzone przez FDA produkty są regulowane — co oznacza, że muszą utrzymywać pewien poziom dowodów, bezpieczeństwa, prywatności — te aplikacje dla konsumentów, aplikacje wellness, które prawdopodobnie są ci bardziej znane, nie muszą przestrzegać żadnych z tych zasad. Nie muszą udowadniać, że działają. Nie muszą udowadniać, że są bezpieczne. I w rzeczywistości nie muszą udowadniać, że zachowują poufność twoich danych. Często narażasz się więc na potencjalne ryzyko naruszenia danych, gdzie te firmy mogą wziąć informacje umożliwiające identyfikację osobistą, które umieściłeś w aplikacji, i faktycznie je sprzedać.
Mills: Zatem te cyfrowe terapie są Ci faktycznie przepisywane przez Twojego psychologa? Czy to jest coś w tym stylu?
Wright: Tak. FDA opisuje to jako przepisanie lub zlecenie. Tak jak możesz zamówić urządzenie medyczne u lekarza, np. monitorowanie A1C na ramieniu, musisz najpierw zostać oceniony przez terapeutę. Musi on stwierdzić, że jest to odpowiednie leczenie dla Ciebie, dać Ci kod, abyś mógł uzyskać dostęp do aplikacji, a następnie monitoruje Cię w czasie, aby upewnić się, że to działa, że używasz go odpowiednio, że nie potrzebujesz wyższego poziomu opieki, może jest gorzej. Jest to zatem zupełnie inny sposób myślenia o świadczeniu terapii niż ten, do którego jesteśmy przyzwyczajeni.
Mills: Wiele pisze się teraz o kryzysie zdrowia psychicznego w USA i niedoborze terapeutów, którzy mogliby się nim zająć. Czy uważasz, że narzędzia AI mają potencjał, aby rozwiązać ten problem i w zasadzie pokonać ten niedobór?
Wright: Pośrednio. AI nie stworzy więcej terapeutów. To po prostu nierealne. Ale może sprawić, że terapeuci będą bardziej wydajni, co może zmniejszyć ich podatność na wypalenie, a tym samym mniejsze prawdopodobieństwo, że odejdą z zawodu. Może więc pomóc terapeutom poczuć, że są bardziej zdolni do dobrego wykonywania swojej pracy.
Myślę, że innym obszarem, w którym mogłoby to naprawdę rozwiązać nasze wyzwania, jest opieka predykcyjna. Mamy system opieki zdrowotnej, który jest tak skonstruowany, że czekamy, aż ludzie w zasadzie znajdą się w kryzysie, aby szukać leczenia w zakresie zdrowia psychicznego, a to z kolei obciąża liczbę istniejących terapeutów. Ale co by było, gdybyśmy mogli dotrzeć do ludzi przed kryzysem? Co by było, gdybyśmy mogli użyć tych narzędzi AI, aby pomóc zapobiegać zaburzeniom zdrowia psychicznego, tak aby faktycznie nigdy nie potrzebowali tego wysokiego poziomu opieki terapeutycznej w późniejszym życiu?
Myślę, że inną rzeczą jest to, że kwestia niedoboru jest faktycznie dość skomplikowana. Zatem tak, to prawda. Po prostu nie mamy wystarczającej liczby terapeutów, ale prawdą jest również, że terapeuci, których mamy, są zniechęcani do przyjmowania ubezpieczeń, ponieważ zwroty kosztów są zbyt niskie. Co by było, gdyby AI mogła odegrać w tym rolę? Jak mogłaby odegrać rolę w zapewnieniu, że roszczenia są naprawdę odpowiednio wypełniane, tak aby zwroty kosztów nie były odrzucane? Jak możemy wykorzystać AI, aby pomóc pokazać wartość, jaką terapeuci wnoszą w tę przestrzeń, tak aby płatnicy czuli, że zapłacą im więcej?
Mills: Wspomniałam o populacjach niedostatecznie obsłużonych we wstępie i zastanawiam się, czy uważasz, że narzędzia terapeutyczne oparte na AI pomogą w dostępie do opieki dla tej grupy ludzi, czy też zaryzykują pogłębienie przepaści cyfrowej?
Wright: To zależy od tego, jak to zrobimy, prawda? Administrator CMS wspomniał niedawno, że ponad 98% beneficjentów Medicaid ma smartfony. Nie sądzę więc, żeby to było miejsce, w którym martwiłabym się o problemy z dostępem. A jeśli możesz tworzyć produkty, które oferują, powiedzmy, wielojęzyczne wsparcie, prawda, w sposób za pośrednictwem AI, którego nie można uzyskać w przestrzeni terapeutycznej, to myślę, że ma to ogromny potencjał do zmniejszenia nierówności zdrowotnych i faktycznego zapewnienia ludziom większej opieki, której potrzebują, która jest bardziej spersonalizowana, bardziej dostosowana kulturowo i która faktycznie jest tym, czego chcą.
Jednocześnie wiemy, że zwłaszcza w tych otwartych modelach AI, które polegają na internecie w zakresie danych treningowych, istnieje uprzedzenie. Jeśli masz uprzedzenia wejściowe, będziesz mieć uprzedzenia wyjściowe. Były więc przykłady, w których narzędzie, narzędzie AI, które zostało przeszkolone na niereprezentatywnych danych, więc danych, które odzwierciedlają tylko większość populacji, popełniają błędy i popełniają błędy, które faktycznie zwiększają nierówności zdrowotne. Chodzi tak naprawdę o to, jak opracowujemy narzędzie, jak monitorujemy narzędzie, jak wprowadzamy poprawki, gdy identyfikujemy uprzedzenia, a następnie zapewniamy, że ten cykl jest kontynuowany wraz z rozwojem.
Mills: Czy istnieją specyficzne schorzenia psychiczne, powiedzmy lęk, depresja, PTSD, w których narzędzia oparte na AI mogą być bardziej lub mniej skuteczne?
Wright: Wczesne badania, które widzę, wydają się sugerować, że zarówno narzędzia AI, jak i inne narzędzia zdrowia psychicznego wydają się działać najlepiej na łagodne do umiarkowanych objawy niektórych z tych bardziej powszechnych zaburzeń, takich jak lęk i depresja. Podam przykład. Myślę, że najbardziej obiecujący przykład generatywnego chatbota AI pochodzi z Dartmouth. Nazywa się Therabot. I w ich pierwszym randomizowanym badaniu kontrolnym stwierdzili, że chatbot poprawił objawy depresji, lęku i zaburzeń odżywiania. Teraz było to tylko pierwsze badanie. Myślę, że potrzebują oczywiście wielu kolejnych badań, a także jeszcze bardziej rygorystycznych badań, ale jest to obiecujący pierwszy krok w kierunku tego, jak to naprawdę może wyglądać, gdy opracowujesz chatbota do celów zdrowia psychicznego, który jest zakorzeniony w nauce psychologicznej i jest rygorystycznie testowany. I myślę, że jest to bardzo obiecujące.
Mills: Mówiąc o cyfrowych terapiach, jakie zaburzenia leczą one obecnie najczęściej? To znaczy, gdzie jesteśmy na rynku? Jak daleko?
Wright: Jesteśmy jeszcze bardzo wcześnie na rynku i jest wiele powodów. Były, jak sądzę, pewne bariery dla skalowalności w związku z procesem regulacyjnym i zwrotu kosztów, ale możemy to zostawić na inny dzień. Ale to, co widzimy w tej przestrzeni, to cyfrowe terapie do leczenia bezsenności, zaburzeń związanych z używaniem substancji, depresji, lęku, a także znajdują się cyfrowe terapie używane jako pomoc diagnostyczna. Na przykład w przypadku autyzmu i ADHD. Myślę więc, że to rośnie i się rozszerza, ale były ograniczenia. Myślę, że do tego momentu, które my w APA próbujemy rozwiązać.
Mills: Porozmawiajmy o niektórych obawach etycznych związanych z AI i zdrowiem psychicznym. Wspomniałaś na przykład o kwestii prywatności danych. Jakie kwestie prywatności powinni wziąć pod uwagę ludzie, myśląc o korzystaniu z aplikacji zdrowia psychicznego lub wellness?
Wright: Cóż, myślę, że jedną z rzeczy, która najbardziej zaskakuje ludzi, jest to, że większość z tych narzędzi, jeśli nie są zatwierdzone przez FDA, nie jest zgodna z HIPAA, co oznacza, że nie ma organu regulacyjnego ani prawa, które chroniłoby Twoje osobiste informacje zdrowotne. I nigdy nie możemy zagwarantować w stu procentach, że nie dojdzie do naruszenia danych. W rzeczywistości widzieliśmy wiele naruszeń danych w ciągu ostatnich kilku lat. Może być informacja, którą wymieniasz z aplikacją wellness lub botem zdrowia psychicznego, której nie chcesz upubliczniać. Być może nie chcesz, aby Twój szef wiedział, że używasz aplikacji, która pomaga Ci ograniczyć spożycie alkoholu, nawet jeśli jest to dla Ciebie korzystne. Może to po prostu nie jest informacja, którą chcesz ujawniać światu.
I myślę, że częścią prawdziwego wyzwania dla nas jako konsumentów jest model biznesowy, na którym działa wiele z tych urządzeń technologicznych. Muszą osiągnąć ogromny zwrot lub zysk, ale jest to trudna przestrzeń do zrobienia. I dlatego czasami dzieje się tak, że z powodu tego napięcia podejmują złe decyzje, co widzieliśmy w przeszłości, kiedy aplikacje zostały ukarane grzywną przez Federalną Komisję Handlu za sprzedawanie danych ludziom firmom mediów społecznościowych wbrew ich polityce prywatności. Nie chodzi o to, że te aplikacje nie mogą być pomocne, myślę, że naprawdę mogą. Chodzi tylko o to, że konsumenci muszą być świadomi, jakie są korzyści i jakie są potencjalne zagrożenia związane z ich używaniem.
Mills: Ile może stwierdzić konsument? To znaczy, jeśli tylko czytasz drobnym drukiem, kiedy zamawiasz jedną z nich, powiedzmy, ze sklepu z aplikacjami, skąd wiesz, że będzie dobra?
Wright: To jest wyzwanie. Nie wiem jak Ty, ale ja nigdy nie czytam moich warunków korzystania z usług w aplikacjach, nawet kiedy się pojawiają, bez względu na to, jakie są. I myślę, że to jest po prostu ludzka rzecz, którą robimy. Zatem, poza czytaniem warunków korzystania z usług i polityki prywatności, jeśli w ogóle uda Ci się przebrnąć przez wszystkie te prawnicze sformułowania, rzeczy, które często mówimy ludziom, aby przyjrzeli się, to wykonanie małej pracy domowej. Zamiast polegać tylko na liczbie gwiazdek w sklepie z aplikacjami, musisz wejść na stronę internetową i naprawdę sprawdzić, kto ją opracowuje. Czy mają ekspertów w swoich radach doradczych? Na czym mówią, że aplikacja jest zbudowana? Czy jest zbudowana na jakiejś znanej zasadzie psychologicznej, takiej jak terapia poznawczo-behawioralna? Czy przeprowadzili jakieś własne badania? Byłoby wspaniale, gdyby tak. Jeśli nie, czy wskazują na badania, które potwierdzają zasady, które uwzględniają w swojej aplikacji? Takie rzeczy dają przynajmniej pewne poczucie, że jest to coś, w co warto zainwestować swój czas.
Mills: Albo mógłbyś użyć AI, takiej jak ChatGPT lub Copilot, aby przeczytać te warunki korzystania z usług i streścić je dla Ciebie.
Wright: To byłby doskonały sposób na zrobienie tego. Myślę, że to są naprawdę kreatywne rzeczy, o których warto pomyśleć, to jak możemy użyć AI, która jest naprawdę dobra w pobieraniu dużych ilości danych i syntezowaniu ich w sposób, który możemy zrozumieć. Myślę, że to doskonały pomysł.
Mills: Zmieńmy trochę temat i porozmawiajmy o wielkim pytaniu, szczególnie dla osób w dziedzinie psychoterapii. Czy AI mogłaby zastąpić ludzkiego psychoterapeutę? Czy są aspekty tego, co robi terapeuta, na przykład empatia, niuansowanie i budowanie relacji, których AI po prostu nie będzie w stanie odtworzyć?
Wright: Zatem nie, nie zastąpi terapeutów, ale powiem, że prawdopodobnie będzie atrakcyjna dla różnych osób, które albo nie chcą widzieć się z terapeutą, albo nie potrzebują tego wyższego poziomu opieki, który zapewnia terapeuta. Nigdy nie zastąpi ludzkiego połączenia. Po prostu nie jest w tym dobra. Jest dobra w, znowu, syntetyzowaniu dużej ilości informacji i szybkim przekazywaniu Ci rzeczy, które chcesz usłyszeć, lub rzeczy, które są pomocne. A częściowo dlaczego nie sądzę, że AI zastąpi ludzi lub terapeutów, jest to, że istnieje różnica między wiedzą a rozumieniem. Zatem AI wie rzeczy, ponieważ jest szkolona na ogromnych, ogromnych ilościach danych, ale to nie znaczy, że faktycznie rozumie rzeczy.
Podam przykład. Chatbot AI niestety wie, że niektóre nielegalne narkotyki sprawiają, że ludzie czują się lepiej. Daje to hajem, a jeśli ktoś mówi: Jestem przygnębiony i w depresji, to może być rada, którą daje, ale nie rozumie, że nie daje się tej rady osobom, które wracają do zdrowia po używaniu nielegalnych narkotyków. Ale faktycznie to zrobił. To jest prawdziwy przykład tego, co zrobił chatbot AI dla kogoś, kto próbował szukać pomocy. Więc wiedzą, ale nie rozumieją. I ta różnica, choć dla niektórych filozoficzna, jest w rzeczywistości naprawdę krytyczna, gdy mówimy o ich wykorzystaniu do terapii.
Mills: Z drugiej strony, czy narzędzia napędzane przez AI mogłyby pomóc niektórym klientom czuć się bardziej komfortowo, otwierając się, zwłaszcza jeśli czują, że są oceniani przez ludzkiego terapeutę?
Wright: Wydaje się, że tak jest. Istnieją wczesne badania, które sugerują, że szczególnie młodsze osoby zgłaszają większy komfort rozmawiania z anonimowymi chatbotami AI o swoim zdrowiu psychicznym i emocjonalnym niż z prawdziwą osobą, ponieważ są niesamowicie zaniepokojone stopniem osądu. Martwią się również, że jeśli pójdą do prawdziwej osoby, ich rodzice się zaangażują i martwią się również o osąd ze strony swoich rodzin. Myślę więc, że znowu jest tu miejsce na zastanowienie się, jak użyć tego narzędzia, aby dotrzeć do ludzi, którzy w przeciwnym razie mogliby nie szukać leczenia.
Ale myślę, że kluczem jest zawsze mieć w obiegu człowieka. W pewnym momencie musimy zapewnić, że te produkty, gdy są używane, szczególnie przez młodsze i bardziej wrażliwe osoby, że nie narażamy ich na ryzyko szkody. I jedynym sposobem, w jaki możemy to zrobić, jest, jak sądzę, zapewnienie, że ludzie są częścią procesu, ciągłe monitorowanie tego, co się dzieje, angażowanie się w nadzór po wprowadzeniu na rynek, aby zapewnić, że produkty są bezpieczne i skuteczne.
Mills: Jakie zabezpieczenia chciałabyś mieć na miejscu, zanim poleciłabyś pacjentowi aplikację AI do zdrowia psychicznego?
Wright: Przynajmniej chciałabym, aby aplikacja wykazała, że ma pewną skuteczność i pewien poziom bezpieczeństwa. To są dla mnie rzeczy, które co najmniej chciałabym mieć. Zatem, kiedy patrzę na to, co czyni aplikację dobrą, przeglądam moją wewnętrzną listę. Po pierwsze, czy są dowody na to, że jest zakorzeniona w jakiejś zasadzie psychologicznej, o której wiemy, że jest skuteczna? Czy przeprowadzili jakieś własne testy lub wykazali, że działa na to, na co mówią, że będzie działać? Zatem nie tylko to, czy utrzymuje Cię w aplikacji tak długo, jak to możliwe. Nie myślę o statystykach zaangażowania, ale o rzeczywistych statystykach wyników, czy faktycznie sprawia, że ludzie są bardziej odporni emocjonalnie niż byli przed użyciem aplikacji? Jaki poziom wiedzy specjalistycznej był zaangażowany w rozwój? Czy jest to tylko jakaś osoba o dobrych intencjach, ale która tak naprawdę nie rozumie niuansów dobrostanu psychologicznego? A potem, jaki rodzaj nadzoru po wprowadzeniu na rynek ma miejsce? Jak zapewniają, że Twoje dane są chronione i bezpieczne? Jakie rodzaje kodowania mają? Gdzie przechowują Twoje dane? Jest tak wiele pytań, które, jak wiem, zadaję, kiedy zastanawiam się, czy byłby to dobry produkt dla kogoś do użycia.
Mills: Wiem, że APA przygląda się niektórym produktom, z którymi moglibyśmy współpracować. Jak podejmujemy te decyzje dotyczące tego, co uważamy za bezpieczne i skuteczne dla świata w ogóle? Mam na myśli, biorąc pod uwagę reputację APA.
Wright: Mamy kilka różnych zasad. Mamy wewnętrzną politykę dotyczącą tego, komu pozwalamy reklamować się i wystawiać u nas w zakresie technologii. To znowu obejmuje wiele z tych pytań, o których mówiłam. Moje biuro ma również opublikowane narzędzie do oceny, które jest skierowane do psychologów i innych terapeutów lub pacjentów, aby pomóc im przejść przez tę listę kontrolną pytań, o których mówiłam. Myślę, że jest to naprawdę trudne, aby znać wszystkie odpowiedzi i nie możemy — więc musisz zrobić najlepszą należytą staranność, jaką możesz, zdając sobie sprawę, że w przypadku każdego produktu technologicznego zawsze istnieje pewne ryzyko, że może zmienić warunki korzystania z usługi, może zmienić swoją politykę prywatności, może się zaktualizować i dzieje się coś nowego. Myślę, że to, co staram się również podkreślić, to ciągła ocena, że nie jest to jednorazowe. Musisz być naprawdę pilny i nadal zwracać uwagę na to, co robi aplikacja.
Mills: Biorąc pod uwagę, że na rynku jest tak wiele z tych produktów i tak dużo danych krąży. Mam na myśli, że jesteśmy po prostu przytłoczeni tymi danymi i nie powinniśmy się tak naprawdę martwić, ponieważ nikt nie wie, co zrobić z tym wszystkim, co zbierają.
Wright: Jest dużo danych i z pewnością jest przeciążenie informacjami. Myślę, że widzisz część tego w przestrzeni urządzeń do noszenia, gdzie osoby po prostu zbierają dane za danymi za danymi biometrycznymi i tak naprawdę nie są pewne, co z nimi zrobić. Chcą ich używać ze swoimi terapeutami, ale ich terapeuci niekoniecznie wiedzą, co z nimi zrobić. Może być trudno zinterpretować różne wzorce snu i co to naprawdę oznacza.
I myślę, że dla niektórych śledzenie tego poziomu danych faktycznie sprawia, że są bardziej niespokojni, ponieważ zaczynasz się tym trochę obsesyjnie zajmować. Wiem, że przestałam nosić licznik kroków, ponieważ jeśli nie osiągnęłam moich 10 000 kroków, byłam w pewnym sensie wrakiem. I kiedy to puściłam, o rany, prawdopodobnie nadal robiłam 10 000 kroków, ale nie musiałam już tego tak bardzo śledzić. Zatem tak, myślę, że jest to spersonalizowane. Musisz zorientować się, co działa najlepiej dla Ciebie, ale ważne jest, aby pamiętać o tym, ile danych zbierasz i gdzie je puszczasz, ponieważ nasze dane zdrowotne są bardzo unikalne i mogą być używane do dobra, ale także mogą być używane do kradzieży tożsamości i innych tego typu rzeczy. Zatem po prostu bycie świadomym, myślę, jest najlepszą rzeczą, o jaką możemy prosić.
Mills: Jak myślisz, jak będzie wyglądać terapia w ciągu następnych 5 do 10 lat, biorąc pod uwagę rozwój zarówno aplikacji, jak i cyfrowych terapii?
Wright: Myślę, że w ciągu najbliższych 5 do 10 lat będziesz nadal widzieć, jak trendy, które już się rozpoczęły, naprawdę osiągną skalę. Będziesz mieć terapeutów wspomaganych przez AI, co oznacza terapeutów, którzy naprawdę osadzili pewien stopień AI w swojej praktyce, aby albo uczynić ich bardziej wydajnymi, aby odróżnić ich od tych, którzy nie używają AI, i aby uczynić ich najlepszymi terapeutami, jakimi mogą być. Będziesz więc nadal to widzieć.
Myślę, że będziesz nadal widzieć lepsze opcje chatbotów AI. Myślę, że będzie więcej takich, które są bardziej podobne do Therabot — który jest opracowany do celów rozwiązywania problemów ze zdrowiem psychicznym — niż te chatboty towarzyszące, których ludzie używają, ale które nie zostały do tego zbudowane. Myślę, że zobaczysz więcej opcji opieki, a opieka predykcyjna jest, jak sądzę, tym, co ma potencjał, aby zmienić sytuację w ciągu najbliższych 5 do 10 lat, ponieważ mogłaby naprawdę zakłócić kliniczny system zdrowia psychicznego, który obecnie mamy, gdzie po prostu czekamy, aż ludzie bardzo zachorują, tak bardzo, że przyjdą do terapeuty, znajdą tego terapeutę, który ma wolne miejsce. Chodzisz na cotygodniowe sesje psychoterapii tak długo, jak musisz. Nie sądzę, że za 5 do 10 lat będzie to jedyny model terapii, który zobaczymy. Zobaczymy, że ludzie otrzymają pomoc wcześniej, będą mniej cierpieć, że faktycznie otrzymają różne rodzaje opieki opartej na technologii, która jest tym, czego potrzebują w tym momencie do swoich potrzeb.
Mills: Pozwól mi zakończyć pytaniem dotyczącym chatbotów, ponieważ poza terapią ludzie coraz częściej używają botów po prostu do towarzystwa i wsparcia emocjonalnego. Czy uważasz, że jest to dobra rzecz, czy też przyczynia się do epidemii samotności? To znaczy, jakie są obietnice, a jakie ryzyka?
Wright: Podobnie jak większość rzeczy, są pozytywne przypadki użycia i są negatywne przypadki użycia. Zacznę od pozytywów. Jeśli masz atak paniki o 2 w nocy, nawet jeśli masz terapeutę, nie możesz się z nim skontaktować. A co, jeśli mógłbyś użyć generatywnego chatbota AI, który mógłby pomóc Ci się uspokoić, pomóc Ci przypomnieć o oddychaniu, zaangażować się w jakąś uważność, która przeprowadzi Cię przez noc? Myślę, że to jest jeden naprawdę pozytywny przykład. Słyszymy również wiele od społeczności neuroróżnorodnej, że używanie tych chatbotów jako sposobu na ćwiczenie ich umiejętności społecznych było dla nich naprawdę pomocne.
Ale oczywiście masz również negatywne przypadki użycia, a niektóre z nich były szeroko opisywane w wiadomościach, ale tam, gdzie widzisz wyzwania z tymi konkretnymi chatbotami, jest to, że ponieważ nie zostały one zbudowane do celów zdrowia psychicznego, ale zamiast tego zostały zbudowane, aby utrzymać Cię na platformie tak długo, jak to możliwe, jak zarabiają. Robią to, kodując te chatboty na zapleczu, aby były uzależniające. Są niezwykle atrakcyjne i bezwarunkowo walidujące. Oczywiście jest to przeciwieństwo terapii. To nie jest to, co robimy w terapii. Te boty w zasadzie mówią ludziom dokładnie to, co chcą usłyszeć. Zatem jeśli jesteś osobą, która w danym momencie zmaga się i wpisuje potencjalnie szkodliwe lub niezdrowe zachowania i myśli, tego typu chatboty są zbudowane, aby wzmacniać te szkodliwe myśli i zachowania. I dlatego widzimy te przypadki osób, które zostały zachęcone przez chatbota do angażowania się w przemoc wobec siebie lub przemoc zewnętrzną. A to są oczywiście najgorsze scenariusze.
Jak zapobiec — wiemy, że ludzie będą używać tych chatbotów do dobrego samopoczucia emocjonalnego. To jest powód numer jeden, dla którego ludzie ich używają we wszystkich badaniach. Ale jak zapewnić, że konsumenci wiedzą, jakie są ryzyka, kiedy się w nie angażują, jak naprawdę ufać swojemu instynktowi, kiedy coś nie brzmi dobrze, i nie ufać zbytnio technologii i chatbotowi, który nie jest prawdziwy. To jest algorytm napisany przez osobę, aby zaspokoić określoną potrzebę. A ta potrzeba, znowu, nie jest połączeniem ludzkim i nie ma na celu sprawienia, że poczujesz się lepiej emocjonalnie. Ma na celu, znowu, osiągnięcie zysku.
Mills: Cóż, doktor Wright — Vaile — chcę Ci podziękować za dołączenie do mnie dzisiaj. Myślę, że teraz masz rekord w liczbie występów w Speaking of Psychology, ale to dlatego, że praca, którą wykonujesz, jest tak ważna i tak interesująca. Więc dziękuję.
Wright: Dziękuję. Uwielbiam trzymać rekord, więc jeśli chcesz mnie z powrotem po raz czwarty, byłoby wspaniale.
Mills: Pomyślimy o tym. Poprzednie odcinki Speaking of Psychology można znaleźć na naszej stronie internetowej pod adresem speakingofpsychology.org lub na Apple, Spotify, YouTube lub gdziekolwiek słuchasz podcastów. A jeśli podobało Ci się to, co usłyszałeś, zasubskrybuj i zostaw nam recenzję. Jeśli masz komentarze lub pomysły na przyszłe podcasty, możesz napisać do nas na speakingofpsychology@apa.org. Speaking of Psychology jest produkowany przez Lea Winerman.
Dziękuję za słuchanie. Dla Amerykańskiego Towarzystwa Psychologicznego, jestem Kim Mills.
[Źródło: https://www.apa.org/news/podcasts/speaking-of-psychology/artificial-intelligence-mental-health]
Emothly wspiera specjalistów zdrowia psychicznego, oferując innowacyjne narzędzia do transkrypcji, analizy i generowania notatek klinicznych dla poprawy opieki nad pacjentami.
+48 602 667 934
This website was made in WebWave website builder.