Użycie AI w psychoterapii stwarza nowe możliwości, ale też realne ryzyko

Istnieje ryzyko, że chatboty mogą udzielać nieodpowiednich lub wręcz szkodliwych porad.

Sztuczna inteligencja jest już stosowana w psychoterapii w postaci chatbotów terapeutycznych. Daje to wiele możliwości, ale stwarza też ryzyko, m.in. udzielenia szkodliwych porad czy emocjonalnego uzależnienia pacjenta od cyfrowego terapeuty - ocenia dr Marcin Rządeczka z UMCS.

"Chatboty terapeutyczne wykorzystujące duże modele językowe zyskują na popularności jako potencjalne narzędzia wspierające proces psychoterapii lub jako cyfrowi asystenci zdrowia psychicznego" - poinformował PAP dr Marcin Rządeczka, kierownik Laboratorium Badań nad Multimodalnością Instytutu Filozofii Uniwersytetu Marii Curie-Skłodowskiej w Lublinie. Często są atrakcyjne dla osób poszukujących pomocy lub niemających dostępu do tradycyjnej terapii z powodu wykluczenia geograficznego, ekonomicznego czy zdrowotnego.

Nawet najbardziej popularne chatboty terapeutyczne mają zaledwie kilka milionów użytkowników, co stanowi ułamek światowej populacji. Jednak o porady na temat zdrowia psychicznego pytane są przeważnie duże modele językowe, których liczba użytkowników liczona jest w setkach milionów. "I chociaż nie są one dedykowanymi narzędziami terapeutycznymi, to porad takich udzielają poprzedzając je krótkim ostrzeżeniem, które ma zwolnić producenta z odpowiedzialności prawnej" - wyjaśnia badacz, który specjalizuje się m.in. w obszarze zastosowań sztucznej inteligencji w zdrowiu psychicznym i psychiatrii obliczeniowej.

W ocenie eksperta chatboty terapeutyczne dają wiele możliwości, jednak wiąże się z nimi również wiele wątpliwości nt. ich etyczności, bezpieczeństwa stosowania oraz skuteczności. "Chatboty terapeutyczne zostały zaprojektowane w celu dostarczania wsparcia emocjonalnego głównie w oparciu o terapię poznawczo-behawioralną (CBT)" - przypomina.

Badania wskazują, że użytkownicy często odczuwają subiektywną poprawę samopoczucia po interakcjach z chatbotami, co sugeruje ich potencjalną wartość jako uzupełnienia tradycyjnych form wsparcia psychologicznego. W ocenie specjalisty bardzo możliwe jest jednak, że za część tej poprawy odpowiada efekt placebo.

Zdaniem Rządeczki nie wolno jednak zapominać, iż narzędzia tego typu powinny być nadzorowane przez doświadczonego terapeutę. Wykorzystanie cyfrowych terapeutów wiąże się bowiem z ryzykiem m.in. nieadekwatnych interwencji. "Istnieje ryzyko, że chatboty mogą udzielać nieodpowiednich lub wręcz szkodliwych porad, zwłaszcza w przypadkach skomplikowanych zaburzeń psychicznych" - zaznacza Rządeczka. Specjalista podaje np. sytuację, w której osoba z urojeniami prześladowczymi instruowana jest, jak zebrać dowody potwierdzające swoje obawy.

Jednym z głównych wyzwań jest brak jasnych informacji na temat sposobu, w jaki chatboty identyfikują i korygują błędy poznawcze, co jest szczególnie istotne w pracy z osobami zmagającymi się z zaburzeniami psychicznymi. "Literatura naukowa wciąż nie dostarcza wystarczających danych na temat mechanizmów, które pozwalają chatbotom unikać nieświadomego wzmacniania takich błędów, zwłaszcza w porównaniu z interwencjami terapeutycznymi prowadzonymi przez człowieka" - wyjaśnia Rządeczka.

Ograniczona jest też dostępność informacji o procesie szkolenia chatbotów terapeutycznych. Ponadto, większość badań koncentruje się na krótkoterminowych efektach stosowania chatbotów, podczas gdy ich długoterminowy wpływ na relację terapeutyczną i trwałość poprawy zdrowia psychicznego pozostaje niejasny.

"Jednym z istotnych zagrożeń związanych z korzystaniem z chatbotów terapeutycznych jest także ryzyko uzależnienia emocjonalnego, wynikające z ich stałej dostępności i zdolności do szybkiego udzielania odpowiedzi, co silnie aktywuje tzw. układ nagrody w mózgu" - podkreśla dr Rządeczka.

Jak ocenia, użytkownicy często ignorują wyświetlane w trakcie konwersacji ostrzeżenia, że chatboty nie są profesjonalnymi terapeutami, traktując ich odpowiedzi jako autorytatywne źródło porad psychologicznych. "Taka nadmierna ufność może prowadzić do sytuacji, w której osoby zmagające się z problemami emocjonalnymi zaczynają polegać na chatbotach, zamiast szukać pomocy u wykwalifikowanych specjalistów" - zaznacza badacz.

Według niego problem ten pogłębia fakt, że chatboty są zaprojektowane tak, aby zapewniać użytkownikom maksymalny komfort i wsparcie emocjonalne, co paradoksalnie może zmniejszać ich motywację do samodzielnego rozwiązywania problemów i aktywnego uczestnictwa w procesie terapeutycznym.

Specjalista zwrócił uwagę, że chatboty interpretują informacje w sposób dosłowny, co czyni je podatnymi na manipulację lub wybiórcze ujawnianie informacji przez użytkowników, którzy mogą unikać trudnych tematów lub zniekształcać swoje doświadczenia.

"Co więcej, brak zdolności do odczytywania niewerbalnych sygnałów, takich jak ton głosu, mimika czy mowa ciała, dodatkowo ogranicza ich zdolność do wykrywania ukrytych problemów emocjonalnych lub niespójności w wypowiedziach" - ocenia Rządeczka.

Kolejnym problemem jest tzw. odwrotne dostosowanie się (ang. reverse alignment). W przypadku chatbotów polega ono na ryzyku nieświadomego dostosowania sposobu myślenia i języka użytkownika do charakterystycznego stylu komunikacji danego narzędzia.

"Chatboty mogą kształtować schematy myślowe użytkowników, skłaniając ich do uproszczonych i schematycznych interpretacji problemów emocjonalnych. Dodatkowo (...) chatboty generują odpowiedzi (...) brzmiące empatycznie i przekonująco, ale spełniające wszystkie oczekiwania emocjonalne użytkownika bez dostarczania krytycznego wglądu we właściwy problem" - podkreślił ekspert.

W rezultacie cyfrowi terapeuci mogą "nieświadomie" wzmacniać patologiczne wzorce myślowe, błędne przekonania, utrudniając użytkownikom osiągnięcie rzeczywistej poprawy stanu psychicznego - wyjaśnia dr Rządeczka.

Zwraca uwagę, że w wielu krajach brak jest jasnych regulacji na temat tego, kto ponosi odpowiedzialność za udzielane porady w przypadku gdy interakcja z chatbotem prowadzi do pogorszenia stanu psychicznego pacjenta. To, w jego ocenie, może prowadzić do licznych nadużyć i nieporozumień.

"Mimo licznych wyzwań, chatboty terapeutyczne mogą w niedalekiej przyszłości pełnić istotną rolę jako uzupełnienie tradycyjnych form terapii. Mogą służyć jako narzędzie emocjonalnego wsparcia między sesjami terapeutycznymi, dostarczać prostych technik samopomocowych czy monitorować kilka razy dziennie nastrój pacjenta" - tłumaczy badacz.

Jego zdaniem ważne jest, by ich stosowanie odbywało się pod nadzorem wykwalifikowanych specjalistów, a same chatboty były regularnie aktualizowane i dostosowywane do indywidualnych potrzeb użytkowników.

Joanna Morga

«« | « | 1 | » | »»

Reklama

Wiara_wesprzyj_750x300_2019.jpg

Reklama