18 dicembre 2025
Chatbot per il supporto emotivo: utili, rischiosi o sopravvalutati?
Milioni di persone usano già app e chatbot per gestire ansia, umore e stress. Il problema non è che esistano — è che spesso vengono percepiti come equivalenti alla terapia quando non lo sono.
Dott.ssa Elisa Manca
Psicologa, Co-founder Emovia

Immagina di sentirti sopraffatto alle undici di sera. Non riesci a dormire, i pensieri girano in loop, e l'idea di aspettare settimane per un appuntamento con uno psicologo sembra insostenibile. In quel momento, aprire un'app che risponde subito, senza giudicarti, disponibile h24, può sembrare una salvezza.
Non è difficile capire perché i chatbot per il benessere mentale stiano crescendo così rapidamente. Ma c'è una differenza importante tra "comprensibile" e "sufficiente". E quella differenza, nel campo della salute mentale, può fare molto male.
Perché sembrano funzionare
I chatbot emotivi hanno alcune caratteristiche che li rendono genuinamente attraenti, soprattutto per chi non ha mai avuto accesso a un supporto professionale.
Sono sempre disponibili. Non hanno agende, non sono in ferie, non ti fanno aspettare tre settimane. Per qualcuno che sperimenta ansia o umore basso in modo intermittente, questo è un vantaggio reale.
Sono percepiti come non giudicanti. Non hanno una faccia che può cambiare espressione. Questo può abbassare la soglia di accesso per chi ha vergogna rispetto al proprio disagio.
Sono economicamente accessibili. O gratuiti, o con un costo molto inferiore a quello di una seduta professionale. In un contesto dove i tempi di accesso alle cure pubbliche sono lunghi e i costi del privato proibitivi per molti, questo ha un peso reale.
Ma proprio qui sta il nodo: tutte queste caratteristiche descrivono perché i chatbot sembrano un'alternativa. Non descrivono perché lo siano davvero.
Cosa dice la ricerca
L'American Psychological Association ha pubblicato una posizione molto netta nel novembre 2025: le app di benessere basate sull'IA, da sole, non possono risolvere la crisi di salute mentale. Non è un avvertimento accademico — è una presa di posizione su come questi strumenti vengono percepiti dall'opinione pubblica e usati nella pratica.
L'advisory dell'APA sull'uso dei chatbot generativi va più nel dettaglio: i sistemi di IA per la salute mentale mancano di validazione clinica rigorosa, presentano rischi significativi legati alla privacy dei dati, e possono fornire risposte inadeguate o persino dannose in contesti di crisi.
La ricerca pubblicata su PubMed Central nel 2025 sull'uso dell'IA nel monitoraggio della salute mentale e sull'uso dell'IA nella cura della salute mentale evidenzia potenziali applicazioni utili — raccolta di dati sull'umore, supporto tra le sessioni, psicoeducazione — ma anche limiti strutturali che nessun aggiornamento del modello può eliminare del tutto.
Il problema della pseudoempatia
C'è un fenomeno che merita attenzione particolare: la pseudoempatia. I chatbot moderni sono addestrati per rispondere in modo empatico — usano le parole giuste, validano le emozioni, pongono domande aperte. Ma questa competenza è performativa, non relazionale.
La vera empatia clinica implica un professionista che si lascia influenzare da ciò che emerge — che sente il peso di un racconto, che aggiusta la propria risposta non in base a pattern statistici ma in base a una comprensione contestuale profonda. Un chatbot non "sente" niente. Genera il testo che statisticamente segue quello che hai scritto.
“Tecnologia ben progettata può supportare la cura della salute mentale, ma non può sostituire la relazione terapeutica umana né la supervisione clinica professionale.”
WHO — Ethics and governance of artificial intelligence for health, 2021
Questa distinzione è cruciale perché la pseudoempatia può generare un falso senso di comprensione. L'utente percepisce di essere "capito" quando in realtà sta ricevendo risposte ottimizzate per la coerenza stilistica, non per la pertinenza clinica.
I rischi concreti
Oltre alla questione dell'empatia, ci sono rischi più operativi.
Bias nei dati di addestramento. I modelli IA sono addestrati su testi in lingua inglese, su popolazioni prevalentemente occidentali, su dataset che non rappresentano la diversità culturale, socioeconomica e clinica reale degli utenti. Risposte inadeguate per persone con background diversi non sono un'eccezione — sono una conseguenza strutturale.
Privacy e gestione dei dati. Molte app di supporto emotivo raccolgono informazioni estremamente sensibili: stati d'animo, pensieri ricorrenti, episodi di crisi. La Toscana nel suo documento "Psicologhe e psicologi nell'era digitale" sottolinea come la gestione dei dati clinici in contesti digitali richieda standard di protezione elevati che molte app commerciali non garantiscono.
Risposta inadeguata nelle crisi. Questo è il rischio più grave. In un momento di ideazione suicidaria o di crisi acuta, un chatbot non può fare ciò che fa un professionista: valutare il rischio, attivare risorse, mantenere una presenza contenitiva reale. Alcune app hanno protocolli di safety, ma sono rigidi, non contestualizzati, e non sostituiscono la valutazione clinica.
Allora sono inutili?
No. E sarebbe un errore concluderlo.
I chatbot possono svolgere un ruolo utile in contesti specifici e ben definiti:
La differenza sta nella cornice. Un chatbot usato come supplemento a un percorso clinico è una cosa. Un chatbot usato come sostituto è un'altra — ed è la seconda che preoccupa.
Il ruolo dello psicologo in questo scenario
Per i professionisti, la proliferazione dei chatbot crea una nuova responsabilità: educare. I clienti che arrivano in studio dopo mesi di uso di un'app di wellbeing portano spesso aspettative modellate da quell'esperienza — una certa immediatezza, una certa disponibilità, una certa facilità di accesso.
Non è un problema: è un'opportunità per lavorare su cosa significa la relazione terapeutica, su perché la terapia richiede tempo e discomfort, su cosa distingue un supporto automatizzato da una presenza clinica.
Il professionista che sa parlare di questi strumenti con i propri clienti — né demonizzandoli né idealizzandoli — ha un vantaggio reale. Sa contestualizzare, sa integrare, sa proteggere.
Esistono già strumenti che hanno scelto una strada opposta a quella del chatbot pseudo-terapeutico: piattaforme come Emovia, ad esempio, dove l'IA non risponde mai al cliente, ma fa domande — e tutto ciò che emerge finisce al professionista, non a un algoritmo che lo interpreta. Non è un caso: è una scelta progettuale precisa.
E questa, alla fine, è sempre stata la competenza centrale della psicologia clinica: non avere le risposte giuste, ma saper stare con le domande complesse.