05 marzo 2026

IA in assessment e psicodiagnostica: 5 usi accettabili e 5 da evitare

L'assessment psicodiagnostico è il territorio in cui la tua competenza clinica è più esposta. Usare l'IA in modo sbagliato qui non è un errore tecnico: è un errore professionale.

Dott.ssa Elisa Manca

Dott.ssa Elisa Manca

Psicologa, Co-founder Emovia

IA in assessment e psicodiagnostica: 5 usi accettabili e 5 da evitare

Se c'è un ambito in cui la domanda "posso usare l'IA per questo?" richiede una risposta precisa, è l'assessment psicodiagnostico. Non perché la tecnologia sia il diavolo, ma perché in questo territorio gli errori hanno conseguenze dirette e documentate sulla vita delle persone: diagnosi errate, trattamenti sbagliati, relazioni peritali compromesse, accesso a servizi negato o concesso fuori contesto.

Quello che segue è un tentativo di tracciare quel confine in modo operativo.

Perché l'assessment è il punto più delicato

L'assessment psicodiagnostico non è elaborazione di testi. È un processo interpretativo che richiede integrazione di informazioni eterogenee — anamnesi, osservazione clinica, risultati ai test, storia di vita, contesto relazionale — e produce formulazioni con implicazioni legali, terapeutiche e sociali.

L'AI Act europeo lo inquadra in modo abbastanza diretto: i sistemi di IA che incidono sull'accesso a servizi sanitari o che influenzano decisioni su diritti fondamentali delle persone rientrano nella categoria ad alto rischio. Il framework regolatorio europeo sull'IA prevede per questi sistemi requisiti stringenti di trasparenza, documentazione, supervisione umana e valutazione della conformità.

Non è che non puoi usare strumenti digitali nell'assessment. È che devi sapere esattamente cosa stai facendo, cosa stai delegando, e dove si ferma lo strumento e inizia la tua responsabilità professionale.

Una recente revisione pubblicata su PMC sull'uso dell'IA nel sistema di salute mentale sottolinea come l'integrazione tecnologica in clinica richieda sempre un framework di supervisione umana attiva — non un'approvazione passiva dell'output.

5 usi accettabili

1. Riorganizzare e strutturare gli appunti clinici

Hai appunti sparsi su un colloquio di assessment? Puoi usare un LLM per aiutarti a strutturarli in un formato più leggibile, a raggrupparli per aree tematiche, a identificare lacune informative. Questo è lavoro di editing e organizzazione, non interpretazione clinica.

Condizione: usi dati anonimizzati o minimizzati. Non incolli il nome del cliente, la data di nascita e la storia dettagliata su un servizio cloud senza aver verificato le policy di trattamento dati.

2. Controllare la coerenza formale del documento

Prima di consegnare una relazione di assessment, puoi chiedere a uno strumento di IA di verificare se ci sono contraddizioni formali nel testo — sezioni che si contraddicono, terminologia usata in modo inconsistente, riferimenti a dati che non compaiono altrove nel documento. È un controllo redazionale, non una revisione clinica.

3. Generare bozze strutturali

Se devi produrre una relazione di assessment e hai già tutti gli elementi clinici, puoi usare l'IA per generare una struttura vuota — intestazioni, sezioni standard, ordine logico degli argomenti — che poi riempirai con il tuo contenuto clinico. Equivale a usare un template, con la flessibilità di adattarlo al caso.

4. Ricerche bibliografiche e aggiornamento sulla letteratura

L'IA è utile per trovare letteratura rilevante su costrutti specifici, per riassumere studi recenti, per identificare scale di valutazione usate in un certo ambito. Non sostituisce la lettura critica degli articoli, ma accelera la fase esplorativa.

5. Checklist di completezza

Stai lavorando a una valutazione neuropsicologica? Stai costruendo una batteria per un assessment evolutivo? Un sistema di IA può aiutarti a verificare se stai coprendo le aree rilevanti secondo i framework clinici standard, funzionando come una checklist intelligente. La selezione finale degli strumenti resta tua.

5 usi da evitare

1. Interpretazione dei test psicologici

Questo è il no più netto. Chiedere a un LLM di interpretare i risultati di un test psicologico — Rorschach, MMPI, scale cognitive, qualsiasi cosa — non è accettabile come pratica professionale. L'interpretazione richiede contestualizzazione clinica, conoscenza della persona, integrazione con tutto il resto della valutazione. Un modello di linguaggio produce testo plausibile, non interpretazione clinica fondata.

2. Diagnosi differenziale

La diagnosi differenziale è il cuore del ragionamento clinico. Richiedere a un'IA di distinguere tra due o più quadri diagnostici sulla base di una descrizione del caso equivale a delegare il nucleo della tua competenza professionale a uno strumento che non ha mai incontrato la persona, non ha la sua storia, non può cogliere le sfumature relazionali che cambiano il senso di un sintomo.

3. Valutazione del rischio suicidario

La valutazione del rischio è un processo clinico ad alta sensibilità, culturalmente situato, altamente dipendente dalla relazione e dal contesto immediato. I sistemi di IA hanno dimostrato limiti specifici in questo ambito, inclusa la difficoltà di cogliere segnali indiretti, comunicazione implicita e variabilità culturale nell'espressione del disagio. Il rischio di falsi negativi è inaccettabile.

Il webinar dell'Ordine del Friuli-Venezia Giulia su psicologia e IA ha toccato esplicitamente il tema della responsabilità professionale in questi contesti: la delega a strumenti automatici non è difesa giuridica.

4. Formulazione del caso clinico

La formulazione è la sintesi interpretativa che metti insieme dopo aver raccolto tutti gli elementi. È il tuo modello della persona che stai seguendo — come le sue difficoltà si sono sviluppate, cosa le mantiene, su cosa lavorare. Affidarla — anche parzialmente — a un sistema di IA significa rinunciare al ragionamento che ti rende clinico. Una formulazione generata da un algoritmo non è una formulazione tua.

5. Redazione automatica di relazioni peritali

La relazione peritale è un documento con valore legale, firmato da te, che porta la tua responsabilità professionale. Un testo generato da IA — anche revisionato — può contenere affermazioni plausibili ma clinicamente non supportate, formulazioni ambigue, o errori di contenuto che ti sfuggono in fase di revisione. Il rischio legale e deontologico è reale.

L'Ordine della Toscana nel suo documento Psicologhe e psicologi nell'era digitale è chiaro sul punto: l'uso degli strumenti digitali non riduce la responsabilità professionale del clinico, la presuppone.

Il filo conduttore

Se guardi i cinque usi accettabili e i cinque da evitare, emerge un confine abbastanza netto: l'IA può supportare attività di organizzazione, strutturazione e ricerca. Non può — e non deve — entrare nelle attività interpretative, valutative o decisionali.

Questa distinzione non è arbitraria. Riflette la differenza tra uno strumento che ti libera tempo cognitivo per fare meglio il tuo lavoro, e uno strumento che sostituisce il tuo lavoro. Il primo è un'opportunità. Il secondo è un rischio professionale.

Il progetto di psicologia digitale dell'Ordine della Lombardia e il Gruppo di Lavoro del Veneto sull'IA stanno lavorando esattamente su questo: definire linee operative chiare che permettano ai professionisti di orientarsi senza improvvisare.

La domanda da farsi ogni volta non è "posso farlo tecnicamente?" ma "se questo output entra in una mia valutazione clinica, sono io che l'ho prodotto — o l'algoritmo?".

La firma in calce alla relazione è la tua. La sostanza deve esserlo altrettanto.

Vuoi integrare l'IA nella tua pratica in modo etico?

Emovia è la piattaforma pensata per psicologi che vogliono innovare senza compromessi sulla qualità clinica.

Tutti gli articoli

Altri articoli

Cosa ha detto (e non detto) il CNOP sull'intelligenza artificiale

16 apr 2026

EU AI Act e psicologi: cosa cambia dal 2026 per chi usa strumenti IA in studio

01 apr 2026

Telepsicologia e IA: come cambia lo studio dello psicologo

19 mar 2026