12 marzo 2026

Come usare l'IA nello studio senza violare deontologia e buona pratica

Non serve essere esperti di tecnologia. Serve essere chiari su dove finisce lo strumento e dove inizia la tua responsabilità professionale.

Dott.ssa Elisa Manca

Dott.ssa Elisa Manca

Psicologa, Co-founder Emovia

Come usare l'IA nello studio senza violare deontologia e buona pratica

C'è una domanda che sento spesso, formulata in modi diversi: "Posso usare ChatGPT per il mio studio?" oppure "Dove si trova il confine tra uso legittimo e violazione deontologica?".

La risposta onesta è: dipende da come lo usi. E questa risposta, apparentemente evasiva, è in realtà la più utile che si possa dare — perché sposta il focus dal tool alla pratica.

Quello che segue sono dieci regole operative. Non principi astratti: indicazioni concrete che puoi applicare da domani.

Regola 1: Usa l'IA solo su dati minimizzati o anonimizzati

Questa è la regola zero, quella da cui dipende tutto il resto.

Quando usi un LLM esterno — qualunque servizio cloud — stai inviando dati a un server che non controlli. Se quei dati contengono informazioni identificative del cliente, stai potenzialmente violando il GDPR e il tuo obbligo di riservatezza professionale.

Cosa fare in pratica: prima di incollare qualsiasi testo in uno strumento di IA, rimuovi nome, cognome, data di nascita, professione, luogo di residenza, e qualunque altro elemento che possa rendere identificabile la persona. Usa descrizioni generiche: "un uomo di 40 anni con storia di..." invece di dati reali.

Se lo strumento richiede informazioni specifiche per funzionare bene, il problema non è la tua tecnica di anonimizzazione — è che lo strumento non è adatto a quell'uso clinico.

Regola 2: Verifica SEMPRE l'output prima di usarlo

I modelli di linguaggio generano testo plausibile. Plausibile non significa corretto, aggiornato, clinicamente appropriato, o contestualmente adeguato alla persona specifica che stai seguendo.

Un LLM può produrre affermazioni tecnicamente errate con la stessa scioltezza con cui produce affermazioni corrette. Non c'è un segnale che ti avvisa della differenza.

Cosa fare in pratica: tratta ogni output di IA come una bozza prodotta da un assistente che non conosce la persona e che potrebbe aver sbagliato. Rivedi, correggi, integra. Non firmare nulla che non hai letto e validato riga per riga.

Regola 3: Separa nettamente brainstorming e attività cliniche

L'IA è utile per il brainstorming: generare idee, esplorare alternative, trovare connessioni che non avevi considerato. È un interlocutore che non si stanca e non giudica.

Ma il brainstorming è un'attività cognitiva tua, che usa l'IA come stimolo. L'attività clinica — formulazione, valutazione, diagnosi, pianificazione del trattamento — è un'attività professionale che richiede il tuo ragionamento, non quello di un algoritmo.

Cosa fare in pratica: definisci mentalmente (e se serve documenta) quando stai "pensando con" l'IA e quando stai producendo output clinici. La linea non è sempre netta, ma l'intenzione conta.

Regola 4: Non automatizzare il giudizio clinico

Il giudizio clinico è la tua competenza centrale. È quello per cui hai studiato, per cui ti sei formato, per cui il cliente ti paga. Automatizzarlo non è efficienza: è abdicare alla tua professione.

Questo vale per decisioni piccole quanto per quelle grandi. Non chiedere a un LLM "secondo te questa persona dovrebbe aumentare la frequenza delle sedute?" sperando che ti convinca — o ti assolva dalla responsabilità della decisione.

L'APA ha dedicato attenzione specifica a questo tema nell'ambito delle linee guida sull'IA nella cura della salute mentale: la supervisione umana attiva non è un requisito burocratico, è la condizione che rende etico l'uso di questi strumenti.

Regola 5: Definisci una policy interna per il tuo studio

Anche se lavori da solo, hai bisogno di una policy. Significa decidere in anticipo, a mente fredda, cosa usi, per cosa lo usi, e cosa non fai mai.

Una policy scritta — anche di mezza pagina — ha tre vantaggi: ti costringe a pensarci davvero, ti protegge in caso di contestazione, e ti permette di aggiornare le tue pratiche in modo consapevole man mano che gli strumenti evolvono.

Il NIST AI Risk Management Framework suggerisce di documentare le scelte d'uso come parte della governance del sistema. Adattato a uno studio individuale, significa avere chiaro: strumento X → uso Y → limitazioni Z.

Regola 6: Informa il cliente

Questa è la regola che molti posticipano, sperando che non diventi mai necessaria. Non funziona così.

Se usi strumenti di IA che trattano — anche indirettamente — informazioni relative al cliente, il cliente ha il diritto di saperlo. Non necessariamente con un briefing tecnico, ma con un'informativa chiara inclusa nel consenso informato.

Il CNOP nel suo aggiornamento di gennaio 2026 richiama i professionisti alla trasparenza nell'uso degli strumenti digitali come parte degli obblighi deontologici esistenti, non come novità speciale.

Regola 7: Documenta quando e come usi l'IA

La documentazione clinica è la tua memoria professionale e la tua protezione legale. Se in un caso clinico hai usato uno strumento di IA — anche solo per organizzare appunti o fare una ricerca bibliografica — annotarlo nel fascicolo è buona pratica.

Non si tratta di giustificarsi: si tratta di tenere un registro trasparente del tuo processo clinico. Se domani ti venisse contestato qualcosa, sapere esattamente cosa hai usato e come ti protegge — non ti aggrava.

Il Gruppo di Lavoro del Veneto e i relativi materiali formativi stanno sviluppando indicazioni operative in questa direzione per i professionisti iscritti.

Regola 8: Scegli strumenti con governance chiara dei dati

Non tutti gli strumenti di IA sono uguali. Alcuni dichiarano esplicitamente di non usare i tuoi input per addestrare i modelli. Alcuni offrono opzioni enterprise con garanzie specifiche sul trattamento dei dati. Alcuni non dicono nulla.

Prima di adottare uno strumento per uso professionale, leggi la privacy policy e i termini di servizio. Verifica se il provider è soggetto al GDPR. Verifica dove vengono conservati i dati. Se non trovi queste informazioni, o se sono scritte in modo volutamente oscuro, è un segnale.

Strumenti come Emovia, ad esempio, sottopongono ogni output generato dall'IA a un sistema di verifica automatica prima che raggiunga il cliente: se la risposta non supera la soglia di qualità, viene eliminata. I dati clinici sono cifrati a riposo e il cliente accede alla piattaforma solo tramite invito del professionista — non è un'app aperta a chiunque. Questo tipo di governance documentata e verificabile è esattamente il segnale che stai cercando quando valuti uno strumento per uso professionale.

L'ENPAP ha dedicato un ciclo di webinar nel 2026 al tema telepsicologia e IA, includendo proprio il tema della valutazione degli strumenti da un punto di vista professionale e previdenziale.

Regola 9: Aggiornati sulle normative (AI Act e GDPR)

L'AI Act è in vigore. Il GDPR è in vigore da anni. Non sono tecnicismi per avvocati: impattano direttamente su cosa puoi fare con i dati dei clienti e su quali strumenti puoi usare.

Le FAQ della Commissione europea sull'AI literacy sono scritte in modo accessibile e rappresentano un punto di partenza utile. L'aggiornamento normativo non è un'opzione: la Lombardia con i suoi eventi formativi e l'Emilia-Romagna con il programma ECM stanno offrendo percorsi specifici per i professionisti che vogliono fare questo aggiornamento in modo strutturato.

Regola 10: Non confondere efficienza con qualità clinica

Questa è la regola più sottile, e forse la più importante.

L'IA può renderti più veloce. Può ridurre il tempo che passi su attività amministrative, organizzative, redazionali. Può liberare spazio mentale per le attività che richiedono davvero la tua presenza clinica.

Ma velocità non è sinonimo di qualità. Una relazione scritta in metà tempo non è automaticamente migliore. Una seduta preceduta da appunti organizzati dall'IA non è automaticamente più efficace.

L'OMS Europe nel 2025 ricorda che l'integrazione dell'IA nei sistemi sanitari richiede un approccio che metta la qualità dell'assistenza al centro — non l'ottimizzazione dei processi come fine in sé.

Il rischio reale non è che l'IA ti sostituisca. È che ti convinca che fare prima significa fare meglio.

Queste dieci regole non sono un codice normativo: sono un framework operativo. Puoi applicarle domani, senza aspettare linee guida ufficiali o aggiornamenti normativi. Non richiedono expertise tecnologica — richiedono la stessa consapevolezza critica che già usi nella pratica clinica, applicata a un contesto nuovo.

Vuoi integrare l'IA nella tua pratica in modo etico?

Emovia è la piattaforma pensata per psicologi che vogliono innovare senza compromessi sulla qualità clinica.

Tutti gli articoli

Altri articoli

Cosa ha detto (e non detto) il CNOP sull'intelligenza artificiale

16 apr 2026

EU AI Act e psicologi: cosa cambia dal 2026 per chi usa strumenti IA in studio

01 apr 2026

Telepsicologia e IA: come cambia lo studio dello psicologo

19 mar 2026