20 gennaio 2026
IA sì, ma chi risponde se sbaglia?
L'intelligenza artificiale può aiutarti a scrivere una nota clinica, sintetizzare un colloquio, abbozzare una relazione. Ma quando qualcosa va storto, il cliente non chiamerà l'algoritmo.
Dott.ssa Elisa Manca
Psicologa, Co-founder Emovia

L'IA è uno strumento, non un collega
Con la Legge 132/2025, il CNOP ha chiarito in modo esplicito che l'IA può essere usata nella pratica professionale solo come supporto strumentale. Non come consulente, non come co-professionista, non come validatore clinico. Il professionista rimane l'unico responsabile della prestazione — dalla raccolta dell'anamnesi alla formulazione diagnostica, dalla stesura della relazione alla gestione di una crisi.
Questo non è un dettaglio burocratico. È la premessa da tenere in testa ogni volta che apri un tool di IA con una cartella clinica aperta accanto.
Come ricorda il CNOP nel bollettino del 13 gennaio 2026, la deontologia professionale non si sospende in presenza di tecnologia avanzata. Anzi: più gli strumenti sono sofisticati, più è critica la capacità del professionista di mantenere il controllo del processo clinico.
Quattro scenari reali, quattro rischi concreti
L'indagine APA del 2025 mostra che il 56% degli psicologi ha già usato strumenti di IA almeno una volta nel proprio lavoro. Il problema è che spesso l'adozione avviene in modo sperimentale, senza una cornice chiara su dove finisce il supporto e dove inizia la delega impropria.
Quattro situazioni tipiche.
1. La nota clinica generata dall'IA
Finisce il colloquio, sei stanco, hai altri tre clienti. Carichi la trascrizione su un tool di IA e chiedi: "genera una nota clinica". Il sistema produce un testo fluido, ben strutturato. Lo copi nella cartella senza rileggere con attenzione.
Il rischio: il modello ha interpretato un'esitazione del cliente come "ambivalenza rispetto al trattamento" quando tu — presente in seduta — l'avevi letta come risposta a un momento di dolore acuto, non come resistenza. La nota è clinicamente fuorviante. In caso di verifica deontologica o di controversia, quella nota porta la tua firma, non quella dell'algoritmo.
Regola pratica: ogni nota generata con supporto IA va riletta, corretta e firmata con piena consapevolezza del contenuto. Non è una firma pro forma. È assunzione di responsabilità.
2. La bozza di relazione
Stai scrivendo una relazione per il tribunale o per un collega che ha in carico il cliente. Usi l'IA per strutturare il documento. Il modello, basandosi sui dati che hai fornito, costruisce una narrativa coerente — ma inserisce un'inferenza che tu non avresti mai scritto, o omette una sfumatura che cambia il senso clinico del documento.
Il rischio è doppio: la relazione esce con il tuo nome, e potrebbe avere conseguenze concrete sulla vita del cliente — decisioni giuridiche, scelte terapeutiche di terzi, accesso a servizi.
3. Il triage automatizzato
Stai valutando se prendere in carico un nuovo cliente o rimandarlo a un collega specializzato. Usi un sistema che analizza il questionario iniziale e suggerisce un profilo di rischio o un indirizzo di trattamento.
Questo è uno dei casi in cui il framework NIST AI RMF parla esplicitamente di high-stakes decision making: decisioni con impatto diretto sulla salute di una persona. In questi contesti, la supervisione umana non è una raccomandazione — è un requisito.
Il triage resta una valutazione clinica. L'IA può aiutarti a raccogliere informazioni strutturate, non a fare la valutazione al posto tuo.
4. La sintesi del colloquio
Usi uno strumento che legge la trascrizione e produce una sintesi con i temi principali, le emozioni rilevate, i fili ricorrenti.
Il rischio è sottile: non è necessariamente un errore clinico grave, ma è una compressione del significato. La comunicazione paraverbale, le pause, il modo in cui la persona ha detto una cosa piuttosto che un'altra — si perdono. Se usi la sintesi come base per le decisioni successive, stai ragionando su una realtà filtrata dall'algoritmo, non su quella che hai vissuto in seduta.
"L'IA ha sbagliato" non è una difesa
Immagina lo scenario peggiore: un cliente subisce un danno in qualche forma collegabile alla tua pratica. C'è un'indagine deontologica o un procedimento civile. Tu dici: "Ma quella nota l'ha scritta l'IA, io l'ho solo approvata velocemente."
Non funziona. Non funzionerà mai.
L'AI Act europeo definisce i sistemi usati in contesti ad alto rischio — tra cui la salute — come sistemi che richiedono human oversight continuo, documentazione adeguata e meccanismi di gestione degli incidenti. Ma questo quadro regolatorio disciplina i fornitori dei sistemi, non sposta la responsabilità clinica dal professionista.
Dal punto di vista deontologico e legale, l'IA è un tuo strumento di lavoro, come un test psicodiagnostico o un questionario standardizzato. Se somministri uno strumento non validato per il contesto, o se interpreti male i risultati di uno valido, la responsabilità è tua. Lo stesso vale per l'IA.
Il webinar dell'Ordine del Friuli Venezia Giulia del 16 gennaio 2026 ha affrontato esattamente questo nodo: la responsabilità professionale non si delega alla tecnologia. Si gestisce attraverso la tecnologia, con piena consapevolezza dei limiti degli strumenti che si usano.
Come proteggersi nella pratica
Non si tratta di non usare l'IA. Si tratta di usarla dentro una cornice di responsabilità che hai già come professionista.
Verifica sistematica. Qualsiasi output generato dall'IA che entri in un documento clinico va letto, valutato e corretto prima di essere firmato. Leggere in diagonale non basta.
Documentazione del processo. Se usi l'IA in una fase del tuo lavoro, annota nella cartella come l'hai usata e cosa hai verificato prima di integrare l'output nel tuo ragionamento clinico. Non perché te lo chieda la legge oggi — ma perché domani potrebbe essere rilevante.
Supervisione umana sempre. Per le decisioni cliniche ad alto impatto — valutazione del rischio, formulazione diagnostica, orientamento terapeutico — il giudizio finale deve essere il tuo, basato sulla valutazione diretta del cliente. L'IA può darti un secondo input, non può sostituire il tuo.
Il CNOP ha istituito gruppi di lavoro proprio per costruire linee guida operative su questi temi. Seguirne l'evoluzione non è opzionale: è parte dell'aggiornamento professionale in un contesto che cambia rapidamente.
La responsabilità come competenza
Essere responsabile dell'uso dell'IA non significa essere ostile alla tecnologia. Significa integrarla con la stessa consapevolezza con cui integri qualsiasi altro strumento nella tua pratica.
Uno psicologo che usa l'IA in modo competente non è quello che si fida ciecamente dell'output perché "il modello è avanzato". È quello che sa quando usarla, come verificarne i risultati, e dove tracciare il confine tra supporto e delega impropria.
Quella competenza non la sviluppa l'algoritmo. La sviluppi tu.
Vuoi integrare l'IA nella tua pratica in modo etico?
Emovia è la piattaforma pensata per psicologi che vogliono innovare senza compromessi sulla qualità clinica.