AI kao terapeut: Milioni ljudi otvaraju dušu mašinama, može li to biti opasno?
Hladan čelik na glavi čoveka koji je već pomiren sa sobom?
To nije strah, već jasnoća.
Tako stoji u tužbi podnetoj protiv OpenAI-ja 6. novembra, u kojoj se navodi da je ChatGPT, chatbot zasnovan na veštačkoj inteligenciji, uputio ove reči Zaneu Šamblinu, dvadesettroogodišnjem Amerikancu, neposredno pre nego što se upucao.
Ovo je samo jedna od sedam tužbi podnetih protiv OpenAI-ja tog dana, a u svim se tvrdi da je bot doveo korisnike do beznađa.
U nekoliko slučajeva to je, kako se navodi, rezultiralo samoubistvom.
„Veoma je tragično“, poručili su iz OpenAI-ja, dodajući da „pregledaju tužbe kako bi razumeli detalje“ i da pokušavaju „poboljšati odgovore ChatGPT-ja u osetljivim momentima“.
Prema njihovoj službenoj objavi, oko 0,15% korisnika ChatGPT-ja svake nedelje vodi razgovore koji ukazuju na planove o samoubistvu.
Zašto je sve ovo važno
Terapeuta hronično nedostaje. Prema Svetskoj zdravstvenoj organizaciji, u siromašnim zemljama većina ljudi sa psihološkim problemima uopšte ne dobija pomoć.
Čak i u bogatim državama, između trećine i polovine građana ostaje bez podrške.
S druge strane, deo ljudi spreman je da se otvori mašini – možda zato što to može učiniti iz kuće, a i znatno je jeftinije i manje neprijatno nego razgovor sa stvarnim terapeutom.
Istraživanje koje je u oktobru sprovela kompanija JuGov za The Economist pokazalo je da se 25% ispitanika koristilo veštačkom inteligencijom u terapeutske svrhe ili bi makar razmislilo o tome.
Chatbotovi već pomažu
Ideja nije nova. Nacionalna zdravstvena služba u Velikoj Britaniji i Ministarstvo zdravlja u Singapuru poslednjih godina koriste Vajs-u (Wysa), chatbot kompanije Tačkin iServis (Touchkin eServices), koji procenjuje pacijente i nudi, uz nadzor stručnjaka, vežbe bazirane na kognitivno-bihevioralnoj terapiji. Studija iz 2022. godine pokazala je da je Vajs približno jednako efikasan u smanjenju depresije i anksioznosti povezanih sa hroničnim bolom kao i ljudski psihoterapeut.
Druga studija sa Univerziteta Stanford iz 2021. godine ispitivala je Juper (Youper), još jednog terapijskog bota razvijenog od istoimene američke startap kompanije. Razgovor sa Juperom smanjio je rezultate na standardnoj skali depresije za 19% i smanjio anksioznost za 25%, nakon dve nedelje bot-terapije – što bi inače postigli tek posle otprilike pet seansi sa ljudskim terapeutom.
Razlika između starijih i modernih AI terapeuta
Vajs i Juper uglavnom rade prema unapred definisanim pravilima i stariji su od najnovijih modela veštačke inteligencije. Za razliku od chatbota zasnovanih na velikim jezičkim modelima, poput ChatGPT-ja, oni koriste krut skup pravila i biraju odgovore iz baze gotovih poruka. Zbog toga su predvidljiviji, ali i manje prirodni za razgovor – što je presudno kada je reč o stvarnoj terapiji.
Meta-analiza iz 2023. u časopisu Digital Medicine pokazala je da su chatbotovi zasnovani na velikim jezičkim modelima efikasniji u ublažavanju simptoma depresije i psihičkog stresa od onih sa fiksnim pravilima.
Nervoza među naučnicima
YouGovova istraživanja za The Economist pokazala su da je među korisnicima koji traže terapiju putem AI-ja, 74% koristilo ChatGPT, 21% Googleov Džemini (Gemini), a 30% Meta AI, Grok, karakter.ai (platforma koja nudi „terapeutske“ ličnosti) ili neki drugi chatbot. Samo 12% njih koristilo je AI posebno dizajniran za mentalno zdravlje.
Takvo stanje brine naučnike.
Osim opasnih odgovora, poput onih navedenih u tužbama protiv OpenAI-ja, terapeuti zasnovani na LLM-ovima (large language models – veliki jezički modeli) mogu naštetiti i na druge načine. Džerid Mur (Jared Moore), računarni naučnik sa Univerziteta Stanford, upozorava da LLM terapeuti ponekad mogu previše popuštati pacijentima sa poremećajima ishrane ili fobijama, umesto da ih suoče sa problemom, prenosi Jutarnji list.

Врло брзо ће сви чет ботови тј. вештачке интелигенције морати у старту процењивати и селекционисати са каквим типом саговорника имају посла, и сходно томе прилагођавати одговоре.