01 aprile 2026
EU AI Act e psicologi: cosa cambia dal 2026 per chi usa strumenti IA in studio
Dal 2 agosto 2026 scattano gli obblighi per i sistemi IA ad alto rischio in sanità. Ecco cosa significa, concretamente, per chi lavora in studio privato.
Dott.ssa Elisa Manca
Psicologa, Co-founder Emovia

Il 2 agosto 2026 è una data che molti professionisti della salute mentale non hanno ancora segnato in agenda. Probabilmente perché la normativa sull'intelligenza artificiale sembra roba da informatici, da aziende tech, da grandi ospedali.
Non è così.
Il Regolamento (UE) 2024/1689 — conosciuto come EU AI Act — riguarda chiunque utilizzi sistemi di intelligenza artificiale nell'esercizio della propria attività professionale. Compresi gli psicologi. Compresi quelli con uno studio privato.
Ecco cosa sta succedendo e cosa significa per il tuo lavoro.
Il calendario che devi conoscere
L'AI Act è entrato in vigore il 1° agosto 2024, ma la sua applicazione è graduale. Le date chiave sono quattro:
2 febbraio 2025 — già in vigore Sono scattati i divieti per i sistemi di IA con "rischio inaccettabile" (manipolazione comportamentale, profilazione sociale) e, soprattutto, l'obbligo di alfabetizzazione IA per il personale. In altre parole: chi usa strumenti IA in ambito professionale deve avere una comprensione minima di come funzionano e dei loro limiti. Non è un'aspirazione — è un obbligo normativo già attivo.
2 agosto 2025 — già in vigore Sono entrati in vigore gli obblighi specifici per i modelli di IA generativa di uso generale (GPAI). Chatbot generalisti, strumenti di analisi del testo, sistemi basati su LLM: se li usi in studio, il fornitore deve garantire documentazione tecnica, trasparenza sui dati di training e conformità alle norme di copyright.
2 agosto 2026 — tra quattro mesi Questa è la data più rilevante per la psicologia clinica. Da quel momento si applicano gli obblighi completi per i sistemi di IA classificati come "ad alto rischio" — e la sanità è esplicitamente nell'Allegato III del Regolamento.
2 agosto 2027 Piena applicazione delle disposizioni specifiche per i dispositivi medici basati su IA.
Perché la psicologia rientra nei "sistemi ad alto rischio"
L'Allegato III dell'AI Act elenca le categorie di sistemi automaticamente classificate come ad alto rischio. Tra queste ci sono i sistemi impiegati in ambito sanitario, con particolare riferimento a:
supporto decisionale clinico
diagnostica assistita
monitoraggio dei pazienti
software che influiscono su trattamenti terapeutici
"Ma io non uso niente di tutto questo, uso solo qualche app per prendere note."
Forse. Ma la distinzione tra uno strumento di supporto clinico e un'applicazione generica non è sempre netta — e il fatto che un sistema non si chiami "diagnostico" non lo esclude automaticamente dall'Allegato III. La classificazione dipende dalla funzione reale, non dall'etichetta commerciale.
La distinzione che cambia tutto: GPAI vs strumento clinico dedicato
Qui sta il punto che più interessa uno psicologo nella pratica.
Un modello GPAI — come ChatGPT, Gemini, o qualsiasi LLM generico — è già regolamentato dall'agosto 2025. Il suo utilizzo in ambito clinico non è vietato, ma ricade in una zona grigia: il professionista che lo usa assume su di sé la responsabilità dell'uso, senza che il sistema sia stato progettato, validato o limitato per il contesto clinico.
Un strumento clinico dedicato, invece, nasce con vincoli precisi: cosa può fare, cosa non può fare, dove si ferma. Non produce output diagnostici. Non interpreta. Non sostituisce il giudizio clinico. È progettato per supportare il professionista, non per aggirarlo. Questi strumenti, quando rispettano i requisiti dell'AI Act, offrono al professionista una garanzia che un GPAI generico non può dare.
La differenza non è tecnica — è di responsabilità. E dal 2 agosto 2026 diventa anche di conformità normativa.
Cosa deve fare concretamente uno psicologo oggi
Non serve aspettare agosto. Alcune azioni sono già dovute, altre è sensato anticipare:
Già ora:
Verifica l'alfabetizzazione IA: l'obbligo è in vigore da febbraio 2025. Hai una comprensione di base di come funzionano gli strumenti IA che usi? Sai cosa fanno con i dati dei tuoi pazienti?
Mappa gli strumenti che usi: qualsiasi software con funzioni IA — per prendere appunti, redigere relazioni, comunicare con i pazienti — va identificato e verificato.
In vista di agosto 2026:
Chiedi la documentazione al fornitore: ogni sistema ad alto rischio deve avere documentazione tecnica, istruzioni d'uso, registrazione dei rischi. Se il tuo fornitore non può fornirtela, è un segnale.
Verifica la supervisione umana: l'Art. 26 richiede che il professionista possa interrompere o correggere il sistema. Se uno strumento produce output che non puoi modificare o ignorare, ha un problema strutturale.
Controlla il DPA: il Data Processing Agreement con il fornitore deve allinearsi sia al GDPR che alle nuove disposizioni AI Act. Se non esiste, o è generico, è insufficiente.
Il rischio di non fare niente
Le sanzioni previste dall'AI Act per la mancata conformità arrivano fino a 35 milioni di euro o al 7% del fatturato mondiale per i fornitori. Per i professionisti che usano sistemi non conformi, il rischio è più sottile ma reale: responsabilità clinica e deontologica sull'uso di uno strumento che non rispettava i requisiti normativi.
Non è uno scenario catastrofico, ma è uno scenario che vale la pena evitare — soprattutto perché evitarlo non richiede sforzi enormi, richiede consapevolezza.
Una nota finale
L'AI Act non è una minaccia all'uso dell'intelligenza artificiale in psicologia. È esattamente il contrario: è il tentativo di creare un quadro in cui quell'uso possa avvenire in modo sicuro, trasparente e difendibile. Come spiega il Parlamento Europeo nella sua scheda sull'AI Act, l'obiettivo è promuovere un'IA affidabile, non bloccarne l'adozione.
Strumenti pensati specificamente per il contesto clinico — che non producono diagnosi, che mantengono il controllo nelle mani del professionista, che documentano chiaramente cosa fanno e cosa non fanno — sono precisamente quello che il Regolamento vuole favorire. Emovia, ad esempio, è progettata entro questo perimetro: nessun output diagnostico, controllo nelle mani del professionista, conformità documentata. La conformità normativa, in questi casi, non è un ostacolo: è una garanzia.