Un nuovo studio condotto da ricercatori delle universitร di Stanford, Carnegie Mellon, Minnesota e Texas mette in guardia dall’uso dei chatbot come ChatGPT come sostituti della terapia psicologica professionale. Stando ai risultati della ricerca, affidarsi all’AI per ottenere un supporto emotivo o psicologico non sarebbe solo inefficace ma potrebbe risultare addirittura dannoso.
Perchรฉ utilizzare ChatGPT come “therapy bot” potrebbe risultare dannoso
L’indagine ha valutato le risposte di ChatGPT e di altri “therapy bot” in scenari realistici, paragonandole agli standard clinici dei terapeuti umani. Gli esperti avrebbero cosรฌ rilevato che, mentre gli psicologi qualificati risponderebbero in modo appropriato il 93% delle volte, i chatbot fornirebbero delle risposte adeguate in meno del 60% dei casi.
Le situazioni piรน preoccupanti riguarderebbero perรฒ le crisi, ad esempio di fronte a segnali indiretti di disagio grave dove le AI spesso non riconoscerebbero la gravitร della situazione e risponderebbero con suggerimenti generici o potenzialmente dannosi.
Il team ha poi scoperto che le AI potrebbero incoraggiare deliri e mostrare bias sistematici verso persone con depressione, schizofrenia o dipendenza da alcol. In alcuni casi i bot si sarebbero rifiutati di collaborare con l’utente o avrebbero espresso riluttanza a sostenerlo. Ciรฒ violando il principio basilare della terapia che prevede di trattare tutti i pazienti senza discriminazioni.
Per ora le AI non possono sostituire i terapeuti umani
Secondo Stevie Chancellor, coautrice dello studio, i chatbot non sarebbero dei sostituti sicuri per in quanto non offrirebbero un livello di supporto qualitativamente accettabile nรฉ riconoscerebbero correttamente le situazioni critiche. Nonostante la popolaritร di ChatGPT, i ricercatori sottolineano che i bot terapeutici disponibili sul mercato non risponderebbero in modo adeguato a diverse condizioni con il rischio di peggiorare situazioni giร gravi.

