
Image generated by ChatGPT
Vélemény: Jó terapeuták a chatbotok?
AI chatbeszélgetők, mint a ChatGPT, Claude és a DeepSeek, forradalmasítják az érzelmi támogatáshoz való hozzáférést – megfizethető, azonnal elérhető segítséget nyújtanak szorongás, stressz és önvizsgálat kapcsán. Azonban a mesterséges intelligencia növekvő használata mint “terapeuta” kérdéseket vet fel a biztonság, hatékonyság és az érzelmi gondozás jövője tekintetében
Az AI hallucinációk számának növekedése és a növekvő kiberbiztonsági aggodalmak ellenére a chatbeszélgetők terjedése nem állt meg – világszerte milliók bíznak meg bennük. Az emberek ma már megbízható és intelligens chatbeszélgetőket használnak nap mint nap számtalan feladat ellátására, beleértve az érzelmi támogatást és a mélyen emberi kérdések kezelését.
“El sem tudom képzelni az életemet a ChatGPT nélkül,” mondta nekem egy barátom – félig viccből, félig komolyan – miután elmesélte, hogy terapeutaként is használja. Ő nem az egyetlen. Egyre több TikTok videót és szöveges bejegyzést látok a közösségi médiában, ahol az emberek mesterséges intelligenciához fordulnak személyes problémáik megbeszélésére, sőt, még legprivátabb titkaikat is megosztják.
A ChatGPT valójában a beépített terapeutám, többé nem terhelem meg senkit a problémáimmal
— Lola🧚🏾 (@Lolaassnw) 2024. december 18.
Még egy Microsoft vezető az Xbox részlegből is javasolta, hogy a leépített alkalmazottak használják az AI eszközöket érzelmeik feldolgozására és tanácsot kérjenek munkakeresésükben – egy ajánlás, ami természetesen gyorsan visszaütött és vitát robbantott ki. Nem volt ez a legokosabb lépés, Matt.
De vajon népszerű chatbotok, mint a Claude, a ChatGPT vagy a Mistral jó terapeuták? Jobbak-e a kifejezetten AI eszközök, mint például a Wysa? Ez egy bonyolult kérdés. Sok szakértő figyelmeztet az AI mentális egészségi támogatásban való használatának veszélyeire, míg másokat lenyűgöz – sőt, lenyűgöz – amit a technológia nyújtani tud. Az eredmény egy olyan beszélgetés, ami egyszerre absztrakt és megosztó.
Az AI most már mindenki terapeutája
Ahogy barátaim Spanyolországban, úgy milliók szerte a világon chatbotokra támaszkodnak az érzelmi támogatásért. Egy nemrégiben az Egyesült Államokban végzett felmérés szerint az amerikai felhasználók 49%-a keresett mentális egészséggel kapcsolatos segítséget AI modellektől tavaly. Mi a helyzet most, amikor a ChatGPT felhasználói száma négy hónap alatt majdnem megduplázódott?
Az Anthropic, az erős AI modell, a Claude mögött álló cég nemrégiben osztotta meg tanulmányát arról, hogy chatbotjukat hogyan használják érzelmi támogatás céljából. A startup szerint ügyfeleiknek kevesebb mint 3%-a folytat “érzelmi” beszélgetéseket – de a cég elismeri, hogy ez a szám folyamatosan növekszik.
Új Antropikus Kutatás: Hogyan használják az emberek Claude-ot érzelmi támogatásra.
Millió anonymizált beszélgetésből tanulmányoztuk, hogy a felnőttek hogyan használják az AI-t érzelmi és személyes szükségleteik kezelésére – az egyedüllét és a kapcsolatok navigálásától az egzisztenciális kérdések megfogalmazásáig. pic.twitter.com/v40JY8rAUq
— Anthropic (@AnthropicAI) 2025. június 26.
„Az emberek egyre inkább az AI modellekhez fordulnak, mint igény szerinti edzőkhöz, tanácsadókhoz, tanácsosokhoz, sőt romantikus szerepjáték partnerekhez” – írta az Anthropic a tanulmányban. „Ez azt jelenti, hogy többet kell tanulnunk az érzelmi hatásaikról – arról, hogy hogyan formálják az emberek érzelmi élményeit és jólétét.”
A tanulmány szintén kiemeli a technológia érzelmi támogatására való használatának pozitív és negatív eredményeit, beleértve a már a valós helyzeteket tükröző katasztrófális forgatókönyveket is.
“Az AI érzelmi hatásai pozitívak lehetnek: egy rendkívül intelligens, megértő asszisztens a zsebedben javíthatja a hangulatodat és az életedet számos módon,” áll a dokumentumban. “Azonban az AI-k néhány esetben aggasztó viselkedést mutattak, mint például az egészségtelen kötődés ösztönzése, a személyes határok megsértése, és a téveszmék elősegítése.”
Bár egyértelműen több kutatásra és adatra van szükség a következmények megértéséhez, amelyeket ezek a lenyűgöző digitális “hallgatók” okoznak, milliók felhasználók már lelkes tesztalanyként viselkednek.
A mentális egészség demokratizálása
Számos oka van annak, hogy az emberek miért fordulnak csevegőrobotokhoz érzelmi támogatásért, ahelyett, hogy egy hivatásos pszichológushoz – vagy akár egy baráthoz – fordulnának. Kezdve a kulturális korlátoktól egészen a fiatalok kényelmetlenségéig, amit akkor éreznek, amikor egy emberi idegennel szemben ülnek és megosztják legmélyebb gondolataikat. De kétségtelenül az egyik legnagyobb ok a pénzügyi tényező.
Az Egyesült Államokban egy személyes találkozó egy licencelt terapeutával 100 és 200 dollár közötti összegbe kerülhet alkalmanként, a Healthline szerint – míg egy online konzultációért 65 és 95 dollár közötti összeget kell fizetni – míg a ChatGPT vagy a DeekSeek ingyenes támogatást nyújt bármikor, pillanatok alatt.
Ezeknek a nem hivatalos beszélgetéseknek az alacsony költsége – ami sok felhasználót ideiglenesen jobban érezhet magától – nagyon bátorító lehet és megéri kipróbálni. És csak néhány plusz dollárért a felhasználók korlátlan interakcióhoz juthatnak, vagy hozzáférhetnek egy specializált chatbot-hoz, mint például a Wysa – az egyik legnépszerűbb “AI terapeuta” a piacon.
A STEM világában az érzelmi erősség éppolyan fontos, mint a technikai készségek.
A Wysa – egy mesterséges intelligenciával működő mentális wellness társ, amely a kiégés, a stressz és a mindennapi kihívások során támogatja Önt.
Barátságos chatbotokkal és irányított gyakorlatokkal, a Wysa olyan eszközöket kínál, mint: pic.twitter.com/sOBhNYWUd7
— DSN Hölgyek az AI-ban (@dsnladies_in_ai) 2025. július 10.
A Wysa valódi klinikai előnyöket ígér, sőt még az FDA Breakthrough Device minősítést is elnyerte AI beszélgető ügynökeiért. A Woebot – egy másik jól ismert AI terapeuta, amely most leáll az iparágban való versenyképesség és szabályozási megfelelés kihívásai miatt – szintén megosztott adatokat és jelentéseket arról, hogy a technológia hogyan segítheti valóban a felhasználókat.
Nem olyan rossz
A friss adatokkal rendelkező legutóbbi tanulmányok szerint a chatbotok csökkenthetik a depresszió és a stressz tüneteit. Az Earkick app által megosztott adatok szerint – amint azt a TIME is beszámolt – azok, akik legfeljebb 5 hónapig használják az AI modelleket, 32%-kal csökkenthetik szorongásukat, és a felhasználók 34%-a javuló hangulatról számol be.
A nemrégiben a BBC World Service által megosztott videóban Jordan Dunbar újságíró elmagyarázza, hogy számos AI model valójában hasznos lehet naplóírásban, szorongás kezelésében, önmagunkkal való szembenézésben, sőt még enyhe depresszió esetén is. Ezek az AI modellek értékes első segítségnyújtást jelenthetnek akkor, amikor nincs hozzáférésünk jobb alternatívákhoz.
A riporter, Kelly Ng is megosztott néhány meggyőző információt: Egy 2022-es tanulmány szerint Kínában egymillió emberből mindössze 20 fér hozzá mentális egészségügyi szolgáltatásokhoz. Az ázsiai kultúrákban a mentális egészség egy bonyolult és gyakran tabunak számító téma. Az AI eszközök, mint például a DeepSeek, diszkrét szövetségesként szolgálhatnak, segítve a felhasználókat az érzelmek kezelésében és támogatás keresésében nehéz időkben.
Szakértők figyelmeztetnek a chatbotok terápiás célú használata ellen
Természetesen az AI alkalmazása mentális egészségügyi szakember helyett rendkívül veszélyes is lehet. Az AI platformok, mint például a Character.AI-t megvádolták önsértés és erőszak népszerűsítésével—sőt, még azzal is, hogy gyermekeket tett ki szexuális tartalmaknak.
Tragikus esetek, mint például a 14 éves gyermek, aki öngyilkosságot követett el, miután függővé vált a Character.AI chatbotjával való interakciótól, súlyos figyelmeztetések a technológia emberi életre gyakorolt mélyreható kockázatairól.
Erre válaszul, számos AI vállalat úgy döntött, hogy korhatár-ellenőrző rendszereket alkalmaz, hogy korlátozza a felhasználást felnőttekre, és új biztonsági intézkedéseket vezetett be a nyújtott szolgáltatások javítása érdekében.
Mégis, még a legfejlettebb chatbotok legújabb frissítései is kockázattal járnak.
A ChatGPT hízelgő – túlzottan hízelgő – személyisége aggodalomra adott okot a mentálhigiénés szakemberek körében, mivel torzíthatja a felhasználók valóságérzékelését. Mindannyian élvezzük, ha megegyeznek velünk, de néha az őszinteség és egy másik perspektíva sokkal értékesebb.
Az OpenAI AI chatrobotjának zavarba ejtő tanácsai hozzájárultak egy új jelenség kialakulásához, amit a mentális egészségügyi szakértők már “ChatGPT okozta pszichózis” néven ismernek, ami a felhasználókat arra ösztönzi, hogy megszállottan használják az eszközt, és ennek következtében szociálisan elszigetelődjenek.
Szóval, a terapeutákat helyettesíthetik a chatrobotok?
Annak ellenére, hogy Mark Zuckerberg azt szeretné, ha mindenki AI chatrobotokat használna terapeutaként és barátként, a valóság az, hogy az emberi interakció, különösen a mentális egészségügyi kérdésekben, lehet, hogy szükségesebb, mint gondolná – legalábbis egyelőre.
Egy kritikus pillanatban vagyunk az AI és a mentális egészségünk kapcsolatának történetében. Ahogy az emberekkel, úgy az AI terapeutákkal is előfordulhat, hogy pozitív vagy negatív hatást gyakorolnak. Ebben az esetben is sok minden a kontextustól, a használat gyakoriságától, a felhasználó mentális állapotától, sőt még attól is függ, hogyan van megfogalmazva egy feladat.
Bonyolult általános szabályt felállítani, de amit egyelőre mondhatunk, az az, hogy vannak bizonyos funkciók, amelyekben az AI hasznosabb lehet, mint mások.
Habár nem specializált eszközök, mint a Wysa, néhány chatbot ingyenes változata – mint például a DeepSeek vagy a ChatGPT – mégis rendkívül hasznos lehet milliók számára a világ minden táján. Legyen szó nehéz pillanatok átvészeléséről vagy személyes célokra való reflektálásról, ezek erős platformok, amelyek bármikor válaszolhatnak és széles ismeretbázist használhatnak a mentális egészség területén.
Ugyanakkor nyilvánvaló, hogy a terapeuta-chatbotok bizonyos esetekben rendkívül veszélyesek is lehetnek. A szülőknek felügyelniük kell a gyermekeiket és a tizenéveseket, sőt még a felnőttek is beleeshetnek az obszesszív viselkedésbe vagy súlyosbíthatják a problémáikat. Alapvető elvek – mint az emberi kapcsolatok ösztönzése és a sebezhető emberek megvédése ettől a technológiától való manipuláció ellen – részét kell képezniük a chatbot-terapeutákról szóló beszélgetéseinknek.
És bár még mindig egy privilégium – nem mindenki számára elérhető, aki érzelmi támogatásra szorul – egy emberi szakember továbbra is több képzésen megy keresztül, több kontextust ért, és emberi kapcsolatot nyújt, amit a ChatGPT talán soha nem lesz képes reprodukálni.