20 novembre 2025

Serve una nuova alfabetizzazione digitale per gli psicologi?

Senza competenze digitali concrete, il professionista rischia due trappole opposte: rifiutare l'IA per principio o adottarla ingenuamente, mettendo a rischio il cliente e la propria credibilità clinic

Dott.ssa Elisa Manca

Dott.ssa Elisa Manca

Psicologa, Co-founder Emovia

Serve una nuova alfabetizzazione digitale per gli psicologi?

Negli ultimi mesi, la conversazione sull'intelligenza artificiale in psicologia è esplosa. Ordini regionali, seminari, FAD, gruppi di lavoro: tutti ne parlano. Il CNOP ha attivato un gruppo di lavoro specifico e ha inserito il tema digitale tra le priorità strategiche del Manifesto Programmatico 2025-2029. Il Veneto ha lanciato un gruppo dedicato alla psicologia dell'intelligenza artificiale. L'OPL Lombardia ha organizzato eventi pubblici sul ruolo dei professionisti nell'era dell'IA.

Tutto bene. Ma c'è un problema: la maggior parte di queste conversazioni si svolge a un livello troppo astratto. Si parla di rischi, di opportunità, di etica. Raramente si scende a definire cosa deve sapere fare un professionista per muoversi in questo nuovo contesto.

È questo il punto cieco dell'alfabetizzazione digitale in psicologia.

Perché non basta "essere curiosi"

L'OECD ha analizzato la domanda di competenze digitali nelle professioni sanitarie: non si tratta di saper usare uno strumento, ma di integrare un pensiero critico applicato alla tecnologia dentro una pratica professionale già complessa.

La Commissione europea è esplicita sul concetto di AI literacy: non è un lusso per i più tech-savvy, è un requisito di base per chiunque operi in contesti dove l'IA viene introdotta. E la salute mentale — con la sua complessità relazionale, la sensibilità dei dati, le implicazioni etiche — è uno dei contesti dove la posta in gioco è più alta.

L'Ordine dell'Emilia-Romagna lo ha detto senza giri di parole: l'IA non può sostituirsi allo psicologo. Vero. Ma questo non risolve la domanda operativa: come fa uno psicologo a supervisionare, valutare, usare in modo competente uno strumento che non comprende a fondo?

Le 6 competenze che fanno la differenza

Non si tratta di diventare ingegneri del software. Si tratta di sviluppare una cassetta degli attrezzi concettuale che permetta di lavorare con l'IA — o di decidere consapevolmente di non usarla — senza essere né luddisti né ingenui.

1. Capire i limiti degli LLM

I modelli linguistici (GPT, Claude, Gemini e simili) generano testo plausibile, non testo vero. Non è un difetto da correggere: è una caratteristica strutturale. Sanno produrre output coerenti, ma non "capiscono" nel senso clinico del termine. Non hanno accesso alla storia della persona seguita, non colgono il contesto non verbale, non hanno memoria persistente tra sessioni diverse.

Uno psicologo che usa questi strumenti nella propria pratica deve averlo chiaro prima di tutto. Non perché l'IA sia inutile — può essere molto utile — ma perché il giudizio finale deve sempre restare nelle mani del professionista.

2. Riconoscere e nominare i bias

I sistemi IA sono addestrati su dati storici che riflettono bias culturali, sociali, demografici. Un sistema addestrato prevalentemente su letteratura anglofona e popolazioni occidentali può generare output inadeguati quando applicato a contesti diversi.

Il NIST AI Risk Management Framework identifica la gestione dei bias come uno degli assi fondamentali della governance dell'IA. Per uno psicologo, si traduce in una domanda concreta: "Questo output è stato generato su una base dati che rappresenta il mio cliente?"

3. Tutelare i dati clinici

Il dato clinico è tra i più sensibili che esistano. Prima di inserire qualsiasi informazione su un cliente in uno strumento IA, il professionista deve sapere: dove vanno quei dati? Vengono usati per addestrare il modello? Esistono garanzie di conformità al GDPR?

Questa competenza non è solo tecnica — è etica e legale. Usare uno strumento non conforme esponendo dati clinici non è una svista: è una violazione.

4. Valutare criticamente gli output

Un output IA non è un referto, né un suggerimento neutro. È un testo generato secondo pattern statistici che deve essere letto, filtrato, contestualizzato da un professionista. Il CNOP nella propria FAD "Tra umano e digitale" insiste proprio su questo: l'integrazione richiede capacità di valutazione, non solo di utilizzo.

5. Integrare senza delegare il giudizio clinico

Usare l'IA per velocizzare la presa di appunti, avere un secondo punto di vista su un caso, accedere rapidamente a letteratura — tutto questo è legittimo e può migliorare la pratica. Ma il momento in cui il giudizio clinico viene delegato allo strumento è il momento in cui si smette di fare lo psicologo.

La distinzione non è sempre ovvia. "Ho verificato con l'IA" non equivale a "ho riflettuto clinicamente". Saper tenere questa distinzione attiva — anche quando l'output sembra convincente — è una competenza a tutti gli effetti.

6. Aggiornarsi continuamente

Questa è la più scomoda delle sei, perché non ha un punto di arrivo. Il panorama dell'IA cambia ogni sei mesi in modo strutturale. Ciò che era vero del funzionamento di un modello un anno fa potrebbe non esserlo oggi.

Non significa inseguire ogni novità. Significa avere un sistema personale di aggiornamento: fonti affidabili, comunità professionali attive, percorsi formativi accreditati. Gli ordini regionali stanno costruendo questi spazi — usarli è già un passo.

Il rischio del vuoto intermedio

C'è uno scenario che preoccupa più del rifiuto totale e più dell'adozione ingenua: quello del professionista che crede di saper usare l'IA perché la usa da mesi, ma non ha mai sviluppato le competenze per valutarne i limiti.

È lo scenario del "funziona, quindi è affidabile". Che in psicologia — dove i danni possono essere invisibili per mesi — è il più insidioso.

La nuova alfabetizzazione digitale non serve a trasformare i clinici in tecnici. Serve a garantire che quando l'IA entra nello studio — in qualunque forma — ci sia un professionista competente a tenerla sotto controllo. Non uno strumento che controlla il professionista.

Emovia è progettata per psicologi che vogliono integrare l'IA nella propria pratica senza rinunciare al rigore clinico.

Tutti gli articoli

Altri articoli

Cosa ha detto (e non detto) il CNOP sull'intelligenza artificiale

16 apr 2026

EU AI Act e psicologi: cosa cambia dal 2026 per chi usa strumenti IA in studio

01 apr 2026

Telepsicologia e IA: come cambia lo studio dello psicologo

19 mar 2026