New

16 aprile 2026

Cosa ha detto (e non detto) il CNOP sull'intelligenza artificiale

L'intelligenza artificiale è già negli studi. Il Consiglio Nazionale dell'Ordine non ha ancora detto ai professionisti cosa fare con essa.

Dott.ssa Elisa Manca

Dott.ssa Elisa Manca

Psicologa, Co-founder Emovia

Cosa ha detto (e non detto) il CNOP sull'intelligenza artificiale

L'intelligenza artificiale è entrata negli studi di psicologia. Non come ipotesi futura, ma come realtà operativa: chatbot terapeutici, strumenti di assessment automatizzato, diari digitali, piattaforme di supporto emotivo. I professionisti italiani si trovano a dover scegliere — adottare, sconsigliare, ignorare — senza che l'Ordine abbia ancora detto una parola chiara.

Questa è la situazione al 16 aprile 2026.

Il silenzio istituzionale

Il Consiglio Nazionale dell'Ordine degli Psicologi non ha pubblicato linee guida specifiche sull'uso dell'intelligenza artificiale nella pratica clinica.

Non esiste un documento ufficiale che dica ai professionisti cosa è eticamente accettabile, cosa è deontologicamente rischioso, cosa è da evitare. Nessun riferimento aggiornato all'interno del Codice Deontologico. Nessuna circolare applicativa.

Per uno psicologo che oggi riceve la proposta commerciale di uno strumento IA — o che ha già un paziente che lo usa in autonomia — l'assenza di orientamento istituzionale non è un dettaglio. È il problema.

Il silenzio non è neutro. Significa che ogni professionista naviga da solo, interpretando princìpi generici (riservatezza, non maleficenza, rispetto dell'autonomia) in contesti per cui quei princìpi non erano stati pensati. Alcuni scelgono l'innovazione senza una cornice di rischio. Altri scelgono l'immobilismo per paura di sbagliare. Entrambe le posizioni sono il sintomo di un vuoto normativo che l'Ordine non ha ancora colmato.

La voce del Presidente: avvertimento senza documento

Se il CNOP come istituzione ha taciuto, il suo Presidente non è rimasto completamente fermo.

David Lazzari, in diverse occasioni pubbliche, ha espresso preoccupazione per la proliferazione di piattaforme che propongono supporto psicologico automatizzato, sottolineando i rischi legati all'autonomia di sistemi IA che operano senza supervisione clinica. La direzione del ragionamento è chiara: l'IA che sostituisce il clinico è un problema; l'IA che opera fuori da una relazione terapeutica verificabile è un problema.

Ma le dichiarazioni di un Presidente non hanno valore normativo. Non sono linee guida. Non sono circolari. Non sono riferibili in un procedimento disciplinare né invocabili come standard di condotta.

Ciò che emerge dalle parole di Lazzari è una posizione implicita dell'Ordine — critica verso l'autonomia non supervisionata dei sistemi IA — ma è una posizione che non si è ancora tradotta in norme operative. Il rischio è che rimanga una presa di posizione culturale mentre il mercato si muove in direzione opposta.

Il documento del 2017: cosa copre, cosa non copre

L'unico riferimento scritto disponibile sul tema "digitale e psicologia" risale al 2017: il documento CNOP intitolato "Digitalizzazione della professione e dell'intervento psicologico mediato dal web".

Era un testo pensato per un mondo diverso. Al centro c'erano la telepsicologia, i colloqui via videochiamata, la comunicazione digitale con i pazienti. Problemi reali per l'epoca, sostanzialmente irrilevanti per la discussione di oggi.

Il documento del 2017 fornisce indicazioni utili su:

  • Riservatezza e sicurezza dei dati nei contesti di comunicazione digitale

  • Consenso informato per gli interventi mediati dalla tecnologia

  • Standard minimi di competenza per chi opera online

Quello che non tocca — perché nel 2017 non era ancora un problema pratico — è tutto ciò che riguarda l'intelligenza artificiale: sistemi che generano testo, modelli che analizzano stati emotivi, strumenti che interagiscono autonomamente con l'utente. L'orizzonte del 2017 era il clinico che usa uno schermo. L'orizzonte del 2026 è un sistema che interagisce col paziente mentre il clinico non c'è.

Applicare il documento del 2017 all'IA del 2026 è come usare le norme sulla corrispondenza cartacea per regolare i social media. Le intenzioni sono le stesse; il contesto è irriconoscibile.

Cosa ci si aspetta nei prossimi mesi

Il CNOP non potrà mantenere questo silenzio ancora a lungo. C'è una scadenza normativa che incombe.

Il Regolamento (UE) 2024/1689 — il cosiddetto EU AI Act — è in vigore. L'articolo 4 impone agli operatori di sistemi IA e, più in generale, a chi usa sistemi IA in contesti ad alto impatto, un obbligo esplicito di alfabetizzazione IA (AI literacy). Per gli operatori sanitari, questo obbligo è entrato in vigore a febbraio 2025.

Cosa significa concretamente? Che uno psicologo che usa — o raccomanda — uno strumento basato su IA deve avere una comprensione sufficiente del suo funzionamento, dei suoi limiti e dei rischi connessi. Non è sufficiente cliccare "accetto" sui termini di servizio di una piattaforma.

Gli Ordini professionali sanitari, in questo quadro, hanno una responsabilità diretta: formare i propri iscritti, stabilire standard di competenza, definire cosa significa "uso responsabile" di uno strumento IA in ambito clinico. Non farlo non è una scelta neutrale: è inadempienza rispetto a un obbligo europeo già vigente.

La Federazione degli Ordini dei Medici Chirurghi e degli Odontoiatri (FNOMCeO) si sta muovendo in questa direzione, con gruppi di lavoro dedicati all'IA in medicina. Il CNOP è in ritardo.

Nei prossimi mesi è ragionevole aspettarsi — e chiedere — almeno tre cose:

  1. Un documento aggiornato che sostituisca o integri il testo del 2017, con riferimenti espliciti ai sistemi IA

  2. Criteri deontologici chiari sull'uso di strumenti IA in contesti clinici, con particolare attenzione alla supervisione umana e al consenso informato

  3. Percorsi di formazione obbligatoria sull'AI literacy, in linea con quanto richiesto dall'EU AI Act

Una bussola che manca

La psicologia italiana non è immune all'accelerazione tecnologica. I professionisti stanno già scegliendo — tra strumenti che dichiarano di supportare il lavoro clinico, piattaforme commerciali che promettono risultati senza fondamento clinico, e applicazioni consumer che i pazienti usano in autonomia.

Scegliere senza orientamento istituzionale non è una colpa. Ma è un rischio. E la responsabilità di ridurlo appartiene, in primo luogo, all'Ordine.

Il CNOP ha gli strumenti per farlo. Ha la legittimità istituzionale, il mandato professionale e, ora, anche una scadenza normativa europea che non lascia spazio a ulteriori rinvii.

Il silenzio ha fatto il suo tempo.

Emovia è progettata per psicologi che vogliono integrare l'IA nella propria pratica con consapevolezza e rigore.

Tutti gli articoli

Altri articoli

EU AI Act e psicologi: cosa cambia dal 2026 per chi usa strumenti IA in studio

01 apr 2026

Telepsicologia e IA: come cambia lo studio dello psicologo

19 mar 2026

Come usare l'IA nello studio senza violare deontologia e buona pratica

12 mar 2026