24 febbraio 2026
Bias algoritmici e salute mentale: quando l'IA sbaglia, chi paga?
L'IA in salute mentale non è neutrale. I bias non sono un problema tecnico da risolvere in sala server: sono un problema clinico che atterra nei tuoi appunti, nelle valutazioni, nelle vite delle perso
Dott.ssa Elisa Manca
Psicologa, Co-founder Emovia

Ogni sistema di IA impara da dati storici. Quei dati sono stati prodotti da esseri umani, in contesti specifici, con tutte le distorsioni che porta con sé la storia della psichiatria e della psicologia clinica: sovra-diagnosi in alcune popolazioni, sotto-diagnosi in altre, strumenti validati su campioni non rappresentativi, letteratura scientifica sistematicamente sbilanciata verso popolazioni WEIRD (Western, Educated, Industrialized, Rich, Democratic).
Quando addestri un modello su quei dati, non neutralizzi il passato. Lo amplifichi.
Chi è stato rappresentato nei dati?
Questa è la prima domanda da fare a qualunque strumento di IA in ambito psicologico. Non "quanto è accurato?" ma "accurato su chi?".
La letteratura più recente lo conferma in modo esplicito. Una revisione del 2025 pubblicata su PMC sui sistemi di IA nel monitoraggio della salute mentale identifica i bias dei dati e i limiti di generalizzazione come criticità ricorrenti e strutturali, non come eccezioni gestibili.
Il punto non è che i ricercatori siano stati negligenti. Il punto è che i dataset disponibili riflettono inevitabilmente chi ha avuto accesso ai servizi di salute mentale, chi ha accettato di essere incluso negli studi, chi parlava la lingua del questionario, chi viveva in contesti urbani con sistemi sanitari strutturati.
Questo significa che un sistema addestrato su quei dati funzionerà meglio per le popolazioni già sovra-rappresentate nella letteratura. E funzionerà peggio — o in modo imprevedibile — per chiunque si discosti da quel profilo medio.
Cosa succede concretamente in clinica
Immagina uno strumento che valuta il rischio suicidario attraverso analisi del linguaggio. Addestrato su dataset anglofoni, con prevalenza di persone di alcune fasce d'età e contesti socioeconomici. Quando lo usi con un cliente immigrato di prima generazione che usa il dialetto, o con un adolescente che comunica attraverso pattern linguistici completamente diversi da quelli nel training set, il modello non lo dice esplicitamente — ma la sua "precisione" crolla.
Il problema è che il modello ti restituisce comunque un numero, un punteggio, una valutazione. Non ti dice "questo caso è fuori dal mio dominio di competenza". Funziona esattamente come se fosse affidabile, anche quando non lo è.
Questo genera due rischi opposti ma entrambi pericolosi:
Cosa succede fuori dal dataset?
Questa è la seconda domanda. I sistemi di IA hanno un concetto chiamato "distribuzione del training": il territorio su cui sono stati addestrati. Quando un caso reale si trova fuori da quella distribuzione, il modello extrapola. E l'estrapolazione, in clinica, è un terreno minato.
Un'analisi del 2025 sull'uso dell'IA nel sistema sanitario mentale mette in evidenza come i sistemi di IA tendano a fare previsioni con alta confidenza anche in domini in cui il training è scarso o assente. Il modello non sa di non sapere.
Per uno psicologo questo crea un paradosso: sei tu a dover sapere quando non fidarti dello strumento. Ma se lo strumento non ti segnala i propri limiti — e la maggior parte non lo fa — sei in una posizione in cui devi essere tu l'esperto dei limiti dell'algoritmo, non solo della persona che stai seguendo.
L'OMS, nelle sue linee guida sull'etica e la governance dell'IA in salute, parla esplicitamente di una readiness ancora diseguale tra i diversi sistemi sanitari e tra le diverse popolazioni rispetto all'adozione di questi strumenti. Non è un problema che riguarda solo i paesi con risorse limitate: riguarda anche la variabilità interna ai sistemi sanitari europei, le differenze regionali, le disuguaglianze di accesso.
“L'IA in salute mentale ha il potenziale di amplificare disparità esistenti se i bias nei dati di addestramento non vengono identificati e mitigati sistematicamente.”
Il caso dei sistemi ad alto rischio
L'AI Act europeo — entrato in vigore nel 2024 — classifica come ad alto rischio i sistemi di IA che influenzano l'accesso a servizi sanitari o che incidono su diritti fondamentali delle persone. Le linee guida della Commissione europea sulle pratiche vietate elencano otto categorie di utilizzo considerati inaccettabili: tra questi, sistemi che sfruttano vulnerabilità di gruppi specifici o che manipolano persone in modo subliminale.
In salute mentale, la vulnerabilità della persona è strutturale. Ogni sistema che opera in questo contesto deve essere valutato con criteri stringenti.
Il NIST AI Risk Management Framework propone un approccio che include la valutazione dei bias come parte integrante del ciclo di vita del sistema, non come post-processing opzionale. Identificare, misurare, gestire e monitorare i bias richiede risorse, expertise e — soprattutto — volontà da parte dei developer e degli enti regolatori.
Chi controlla gli errori?
Questa è la terza domanda. E probabilmente la più urgente.
In un contesto clinico tradizionale, l'errore professionale ha una catena di responsabilità relativamente chiara. La valutazione è tua, la firma è tua, la responsabilità è tua. Con un sistema di IA come supporto decisionale la catena si complica: l'errore è dell'algoritmo? Del developer che ha scelto il dataset? Dell'azienda che ha commercializzato lo strumento? Dello psicologo che lo ha usato senza adeguata verifica?
La risposta, oggi, è che la responsabilità professionale rimane sul professionista. Il CNOP lo ha ribadito nel suo aggiornamento di gennaio 2026: l'uso di strumenti tecnologici non trasferisce la responsabilità clinica allo strumento. Sei tu che rispondi del tuo operato, anche quando hai usato un software.
Questo ha conseguenze pratiche immediate:
Gli Ordini regionali si stanno attrezzando. La Regione Emilia-Romagna ha attivato un Gruppo di Lavoro dedicato e ha in programma formazione ECM specifica su IA e Psicologia. Il Veneto ha un proprio GdL attivo. La Lombardia ha organizzato eventi formativi con un approccio che integra fiducia, competenza tecnica e applicazioni pratiche.
Questa è la direzione giusta. Ma la formazione istituzionale non sostituisce il pensiero critico individuale.
Tre domande per ogni strumento
Prima di adottare qualsiasi sistema di IA nel tuo studio clinico, chiediti:
I bias algoritmici non sono un problema del futuro. Sono nel presente, in ogni strumento che usa machine learning su dati storici. La differenza tra uso responsabile e uso irresponsabile non sta nella tecnologia — sta nella consapevolezza del professionista che la usa.
Vuoi integrare l'IA nella tua pratica in modo etico?
Emovia è la piattaforma pensata per psicologi che vogliono innovare senza compromessi sulla qualità clinica.