08 gennaio 2026

IA e burnout del professionista: sollievo reale o carico invisibile?

L'intelligenza artificiale viene presentata come uno strumento per fare di più in meno tempo. Ma nella pratica clinica, "fare di più in meno tempo" può essere esattamente il problema.

Dott.ssa Elisa Manca

Dott.ssa Elisa Manca

Psicologa, Co-founder Emovia

IA e burnout del professionista: sollievo reale o carico invisibile?

Quando si parla di IA e professioni sanitarie, la narrazione dominante è quella dell'efficienza. Meno tempo per la documentazione. Meno ore passate a cercare letteratura. Meno fatica amministrativa. Più spazio per il lavoro che conta davvero.

È una promessa attraente, e in alcuni contesti è anche reale. Ma c'è un lato di questa storia che viene raccontato molto meno: l'IA può aumentare il carico cognitivo, creare nuove forme di pressione, e — se introdotta senza una riflessione su come cambia il lavoro — contribuire attivamente al burnout invece di ridurlo.

I dati che non si possono ignorare

A dicembre 2025, l'APA ha pubblicato i risultati del proprio Practitioner Pulse Survey: il 56% degli psicologi ha usato strumenti IA nella propria pratica. Un dato significativo. Ma la stessa ricerca mostra che parallelamente all'adozione crescono le preoccupazioni — sulla qualità degli output, sulla privacy dei dati, sulla dipendenza da strumenti non validati clinicamente.

Il comunicato stampa dell'APA di dicembre 2025 lo dice esplicitamente: l'uso è in aumento, ma aumentano anche i timori. Non è un paradosso — è una conseguenza logica dell'adozione accelerata di strumenti senza una formazione adeguata su come usarli e, soprattutto, su come non lasciarsi usare da loro.

Il paradosso del controllo aumentato

C'è un meccanismo specifico che merita attenzione: quando introduci un sistema automatizzato in un processo clinico, non elimini il lavoro di verifica — lo sposti. E spesso lo moltiplichi.

Un esempio concreto. Uno psicologo usa un tool IA per produrre bozze di relazioni cliniche. In teoria risparmia tempo. In pratica: legge la bozza, verifica ogni affermazione, corregge gli errori fattuali, adatta il linguaggio al contesto specifico, controlla che non ci siano allucinazioni, valuta se il tono è appropriato. Quanto tempo ha davvero risparmiato? E quanto carico cognitivo aggiuntivo ha assunto verificando un testo che sembra professionale ma potrebbe contenere errori non ovvi?

Questo è il fenomeno che alcuni ricercatori chiamano "automation bias al contrario": verificare in modo critico qualcosa che si presenta in forma fluida e apparentemente coerente richiede uno sforzo mentale più alto di quanto si pensi.

L'ansia da errore come variabile nascosta

Il burnout non è solo stanchezza. È anche la sensazione cronica di non essere mai abbastanza — di non controllare abbastanza, di non verificare abbastanza, di non fare abbastanza. L'introduzione di strumenti IA nella pratica clinica può amplificare questa dimensione in modo sottile.

Se usi un tool IA e il risultato è corretto, risparmi tempo. Se il risultato contiene un errore che non hai colto, la responsabilità clinica è tua. Questa asimmetria — beneficio condiviso con lo strumento, rischio interamente a carico del professionista — può generare un'ansia di fondo che non viene spesso nominata.

Il CNOP ha avviato una survey specifica su questi temi a dicembre 2025, riconoscendo che il tema dell'IA nella pratica professionale non riguarda solo la competenza tecnica ma anche l'impatto sul benessere del professionista stesso.

Fare di più: quando l'efficienza diventa pressione

L'OECD nel suo Employment Outlook 2025 analizza come la diffusione dell'IA stia trasformando la domanda di competenze e la struttura del lavoro nelle professioni qualificate. La conclusione è che l'automazione non elimina il lavoro — lo ridistribuisce e, spesso, alza le aspettative su ciò che il professionista dovrebbe essere in grado di produrre.

Tradotto in psicologia: se l'IA mi permette di fare in un'ora ciò che prima richiedeva tre, la domanda implicita che emerge — dal sistema, dai colleghi, talvolta dai clienti stessi — è: "E le altre due ore?" Il rischio è che l'efficienza guadagnata venga immediatamente riassorbita da un aumento del carico atteso.

L'OECD ha documentato questa dinamica anche nelle professioni sanitarie: la digitalizzazione cambia il profilo delle competenze richieste e può aumentare la pressione su chi non riesce ad adattarsi rapidamente.

Il sistema, non solo il singolo

C'è un livello del problema che va oltre la pratica individuale. Il WHO Europe nel 2025 ha sottolineato come l'IA stia ridisegnando i sistemi sanitari — accelerando processi, aumentando la capacità diagnostica, espandendo l'accesso. Tutto positivo, in linea di principio. Ma i sistemi sanitari che si dotano di IA senza investire nel benessere dei professionisti che devono gestirla rischiano di produrre un ulteriore stress organizzativo.

Un clinico che lavora in un contesto dove l'IA viene adottata in modo accelerato, senza formazione adeguata, senza supporto istituzionale, e con l'aspettativa implicita di aumentare la produttività, è un clinico a rischio burnout — indipendentemente da quanto lo strumento sia tecnicamente avanzato.

Cosa significa allora usare l'IA in modo sostenibile?

Non si tratta di rifiutare gli strumenti. Si tratta di adottarli con consapevolezza di cosa fanno al lavoro — non solo nel lavoro.

Alcune domande concrete che vale la pena porsi prima di integrare un tool IA nella propria pratica:

    La sostenibilità come criterio clinico

    La ricerca sul burnout professionale ci ha insegnato una cosa: i professionisti che reggono nel tempo non sono quelli che lavorano di più — sono quelli che lavorano in modo sostenibile. Che hanno confini chiari, che sanno quando fermarsi, che non lasciano che le aspettative esterne definiscano interamente il loro ritmo.

    L'IA, usata bene, può contribuire a questa sostenibilità. Un esempio concreto: strumenti che raccolgono materiale clinico tra le sedute e consegnano al professionista un riepilogo strutturato prima dell'appuntamento — come fa Emovia — non aggiungono un passaggio di verifica, tolgono quello più estenuante: ricostruire da zero cosa è successo durante la settimana. Il professionista arriva già con un quadro, non parte da zero. Usata male — come strumento di intensificazione del lavoro o come fonte di ansia da controllo — la mina dalle fondamenta.

    La domanda non è "devo usare l'IA?" È: "Se la uso, in che modo questo cambia la mia pratica, il mio carico, il mio benessere? E sono disposto a fare quella valutazione onestamente?"

    È la domanda giusta. E vale la pena ponersela prima, non dopo.

    Emovia è progettata per psicologi che vogliono integrare l'IA nella propria pratica senza rinunciare al rigore clinico.

    Tutti gli articoli

    Altri articoli

    Cosa ha detto (e non detto) il CNOP sull'intelligenza artificiale

    16 apr 2026

    EU AI Act e psicologi: cosa cambia dal 2026 per chi usa strumenti IA in studio

    01 apr 2026

    Telepsicologia e IA: come cambia lo studio dello psicologo

    19 mar 2026