Responsabilità medico e intelligenza artificiale nelle perizie: medicina difensiva algoritmica nel 2026

Responsabilità medico intelligenza artificiale raffigurata con medico che utilizza un'AI avanzata

Guida all'articolo

    La responsabilità medico intelligenza artificiale è oggi al centro di un paradosso senza precedenti nel diritto sanitario italiano. Il Medico Legale che utilizza un sistema di intelligenza artificiale per redigere perizie si trova di fronte a un doppio vincolo: se segue il suggerimento dell'AI e questo si rivela errato, rischia di essere accusato di affidamento acritico a un algoritmo. Se lo ignora e l'esito della perizia è sfavorevole, quello stesso output — documentato o meno — può trasformarsi in una prova d'accusa: il sistema aveva indicato la direzione corretta, e il professionista ha scelto di non seguirla. È questo meccanismo che sta generando una nuova forma di medicina difensiva algoritmica: il rifiuto preventivo di strumenti AI potenzialmente utili, non per ragioni scientifiche, ma per timore delle conseguenze giuridiche.

    Il fenomeno non è teorico. La medicina difensiva tradizionale costa al sistema sanitario italiano 10-11 miliardi di euro l'anno — circa il 10% della spesa sanitaria complessiva — e coinvolge il 77,9% dei medici, che ammettono di aver adottato almeno un comportamento difensivo nell'ultimo mese. Quando a questa dinamica consolidata si aggiunge la variabile dell'intelligenza artificiale, il rischio è che il professionista rinunci proprio agli strumenti che potrebbero migliorare la qualità del suo lavoro.

    Il doppio vincolo: perché l'AI mette il Medico Legale in una posizione impossibile

    Il concetto di "doppio vincolo" — mutuato dalla teoria della comunicazione di Bateson — descrive una situazione in cui il soggetto non può vincere indipendentemente dalla scelta che compie. Applicato all'uso dell'AI nelle perizie medico-legali, il meccanismo è preciso.

    Scenario 1 — Perizia assicurativa RC Auto. Il Medico Legale utilizza un sistema AI per analizzare un fascicolo di 120 pagine relativo a un trauma distorsivo cervicale. L'AI suggerisce una quantificazione del danno biologico permanente del 4%, mentre il professionista, sulla base della propria esperienza clinica, ritiene più corretto il 3%. Il Medico Legale segue il proprio giudizio e quantifica il danno al 3%. In sede di contenzioso, la controparte potrebbe acquisire la documentazione attestante che il sistema AI — utilizzato dallo stesso perito — aveva indicato una percentuale superiore, e contestare la valutazione come sottostima non motivata.

    Scenario 2 — CTU in responsabilità sanitaria. Il Medico Legale, nominato CTU, utilizza un'AI per ricostruire la timeline clinica di un caso oncologico. L'AI identifica un possibile ritardo diagnostico di 14 mesi, segnalando una discontinuità nella documentazione tra due referti strumentali. Il professionista, valutando il quadro clinico complessivo, giudica il ritardo non causalmente rilevante ai fini della prognosi e lo omette dalla relazione. In sede di discussione peritale, il CTP del paziente potrebbe contestare l'omissione, sostenendo che il CTU ha ignorato un dato rilevante emerso dalla propria analisi assistita.

    In entrambi i casi, il nodo giuridico è lo stesso: l'output dell'AI diventa un termine di confronto obbligato con la valutazione del professionista. Seguirlo acriticamente espone al rischio di automation bias — espressamente riconosciuto dall'art. 14(4)(b) del Regolamento UE 2024/1689 (AI Act) come "la possibile tendenza ad affidarsi automaticamente o eccessivamente all'output prodotto da un sistema AI ad alto rischio". Discostarsene senza un'argomentazione documentata espone alla contestazione di aver trascurato un elemento di prova.

    Medicina difensiva algoritmica: il nuovo rischio per la professione

    La medicina difensiva non è un concetto nuovo. I dati del Centro Studi Federico Stella dell'Università Cattolica documentano che il 78,2% dei medici ritiene di correre un rischio di procedimenti legali superiore rispetto al passato, e il 61,3% ammette di aver prescritto più esami diagnostici del necessario per tutelarsi. L'indagine AGENAS conferma: il 58% dei medici ospedalieri dichiara di praticare medicina difensiva, e il 93% prevede un aumento del fenomeno.

    La medicina difensiva algoritmica rappresenta una variante specifica: il professionista rinuncia all'uso di sistemi AI — seppure utili o potenzialmente indispensabili per la qualità della prestazione — per eliminare alla radice il rischio giuridico connesso alla documentazione dell'output algoritmico. Non è una scelta scientifica: è una strategia di protezione legale che sacrifica l'innovazione sull'altare della prudenza processuale.

    Questa dinamica è particolarmente insidiosa nel contesto medico-legale per tre ragioni:

    • L'assenza di linee guida specifiche. Non esistono linee guida pubblicate ai sensi dell'art. 5 della L. 24/2017 (Gelli-Bianco) sull'uso di AI nella pratica medico-legale. Senza linee guida, la causa di non punibilità prevista dall'art. 590-sexies c.p. — introdotto proprio dalla Gelli-Bianco — non è invocabile.
    • Il vuoto sulla documentazione dell'output AI. Nessuna norma italiana disciplina se e come l'output di un sistema AI debba essere documentato nella perizia o nella cartella clinica. Il professionista opera in un'area grigia dove qualsiasi scelta — documentare o non documentare — può essere contestata.
    • La responsabilità resta integralmente personale. L'art. 7 della L. 24/2017 distingue tra responsabilità contrattuale della struttura e responsabilità extracontrattuale del singolo professionista, ma non contempla la variabile AI. La perizia è un atto personale: chi la firma ne risponde civilmente e penalmente.

    Il risultato è un circolo vizioso: l'assenza di regolamentazione alimenta l'incertezza, l'incertezza genera medicina difensiva algoritmica, la medicina difensiva rallenta l'adozione di strumenti che potrebbero migliorare la qualità peritale.

    Il quadro normativo: AI Act, Legge 132/2025, Gelli-Bianco e art. 590-sexies

    Il tema della responsabilità medico intelligenza artificiale si sviluppa all'intersezione di quattro corpi normativi. Nessuno di essi, singolarmente, offre una risposta definitiva al doppio vincolo descritto. Ma insieme delineano i confini entro cui il Medico Legale può muoversi.

    Art. 590-sexies c.p. e la sentenza "Mariotti" delle Sezioni Unite

    L'art. 590-sexies c.p. prevede la non punibilità del medico quando l'evento avverso derivi da imperizia, a condizione che siano state rispettate le linee guida adeguate al caso concreto. Le Sezioni Unite della Cassazione (sent. n. 8770/2018, c.d. "Mariotti") hanno precisato che questa causa di non punibilità opera esclusivamente in caso di imperizia lieve nella fase esecutiva — non in caso di negligenza o imprudenza — e solo quando le linee guida siano state correttamente individuate.

    Il problema per il contesto AI è duplice. Primo: non esistono linee guida sull'uso di AI nelle perizie medico-legali. Secondo: la Cassazione (Sez. IV, n. 17678/2024) ha ribadito che il rispetto delle linee guida non esclude automaticamente la responsabilità, e che in presenza di alternative divergenti il medico deve scegliere "la soluzione meno pericolosa per la salute del paziente". Applicato all'AI: se il sistema suggerisce un percorso e le linee guida cliniche ne indicano un altro, il professionista deve esercitare un giudizio critico autonomo.

    L. 24/2017 (Gelli-Bianco), art. 7: la responsabilità del professionista

    La Gelli-Bianco distingue tra responsabilità contrattuale della struttura sanitaria (art. 1218 c.c., prescrizione decennale) e responsabilità extracontrattuale del singolo professionista (art. 2043 c.c., prescrizione quinquennale). Il Medico Legale che opera come libero professionista — CTP, perito di compagnia, consulente privato — risponde ai sensi dell'art. 2043 c.c. La legge non contempla ancora la responsabilità concorrente tra il professionista che utilizza un sistema AI e il produttore del software.

    Legge 132/2025: la norma italiana sull'AI in sanità

    La Legge 23 settembre 2025, n. 132, in vigore dal 10 ottobre 2025, dedica l'art. 7 all'uso dell'intelligenza artificiale in ambito sanitario. Due commi sono particolarmente rilevanti:

    • Comma 3: "L'interessato ha diritto di essere informato sull'impiego di tecnologie di intelligenza artificiale" — un obbligo di trasparenza verso il paziente (o, nel contesto peritale, verso le parti del procedimento).
    • Comma 5: "I sistemi di intelligenza artificiale in ambito sanitario costituiscono un supporto nei processi di prevenzione, diagnosi, cura e scelta terapeutica, lasciando impregiudicata la decisione, che è sempre rimessa agli esercenti la professione medica."

    Questa formulazione sancisce il principio della supervisione umana obbligatoria, ma non risolve il nodo della documentazione dell'output AI. La legge stabilisce che la decisione spetta al medico, ma non dice se il medico debba rendere conto di come ha utilizzato — o scelto di non utilizzare — il suggerimento algoritmico.

    AI Act (Reg. UE 2024/1689), art. 14: supervisione umana e automation bias

    Per il Medico Legale, l'AI Act è la norma europea più rilevante sul piano della responsabilità medico legale nell'uso di sistemi algoritmici. Il Regolamento impone che i sistemi ad alto rischio siano progettati per una supervisione umana effettiva. L'art. 14 prevede che le persone incaricate della supervisione possano comprendere capacità e limiti del sistema, restare consapevoli del rischio di automation bias, interpretare correttamente l'output, e — aspetto cruciale — decidere di non usare il sistema o di ignorare, sovrascrivere o invertire l'output in qualsiasi situazione.

    Questo articolo riconosce esplicitamente il diritto del professionista di discostarsi dall'output AI. Tuttavia, non disciplina le conseguenze processuali di tale scelta: se il medico documenta l'output e poi se ne discosta, quell'output è acquisibile come prova? La risposta, ad oggi, non esiste in alcuna norma né in alcuna sentenza di Cassazione.

    La separazione di percorsi: AI autonoma e AI di supporto professionale

    Una proposta dottrinaria che merita attenzione distingue due categorie di sistemi AI in sanità, con implicazioni profondamente diverse sul piano della responsabilità.

    AI autonoma (rivolta al paziente): sistemi destinati a interagire direttamente con il paziente per la gestione autonoma del percorso di cura — ad esempio, dispositivi per diabetici che regolano automaticamente la somministrazione di insulina, o sistemi di triage automatizzato. In questo caso, la responsabilità del produttore è diretta e la supervisione umana può essere limitata.

    AI di supporto professionale: strumenti che assistono il medico nell'analisi dei dati e nella formulazione di suggerimenti, senza sostituirsi al suo giudizio. Il medico resta il decisore finale, l'AI è uno strumento nella sua cassetta degli attrezzi.

    La distinzione è cruciale per il Medico Legale. Una piattaforma come Docsy, progettata come AI di supporto, non genera perizie autonome: fornisce analisi strutturate della documentazione, suggerimenti di quantificazione del danno, ricostruzioni cronologiche — che il professionista integra, modifica, valida o scarta. L'output non è un prodotto finito, ma un materiale di lavoro intermedio.

    Questa architettura ha una conseguenza giuridica rilevante: se l'AI di supporto è uno strumento di lavoro del professionista — al pari di un testo di riferimento, di un barème cartaceo o di un consulto con un collega — il suo output non dovrebbe avere una dignità processuale autonoma. Il professionista non è tenuto a documentare ogni passaggio del proprio ragionamento preparatorio, ma solo le conclusioni motivate dell'metodologia di redazione della CTU medico-legale.

    Come tutelarsi: best practice per documentare l'uso di AI nelle perizie

    In attesa che il legislatore colmi il vuoto normativo sulla documentazione dell'output AI, il Medico Legale che utilizza intelligenza artificiale nelle perizie mediche può adottare un approccio pragmatico basato su cinque principi operativi per gestire la propria responsabilità.

    • Scegliere strumenti AI di supporto, non sostitutivi. Il professionista deve utilizzare sistemi progettati per assistere il ragionamento, non per generare elaborati finali. Questo preserva il ruolo decisionale del medico e riduce il rischio che l'output AI acquisisca una rilevanza processuale autonoma. Strumenti verticali come Docsy sono progettati con questa logica: il Medico Legale è sempre il decisore ultimo.
    • Documentare il metodo, non l'output grezzo. La perizia deve evidenziare la metodologia adottata — inclusa l'eventuale assistenza di strumenti AI per l'analisi documentale — senza allegare l'output algoritmico integrale. Una formulazione efficace: "L'analisi della documentazione è stata condotta anche con il supporto di strumenti di intelligenza artificiale specializzati, i cui risultati sono stati sottoposti a verifica critica e integrati nel giudizio medico-legale del sottoscritto."
    • Mantenere la supervisione critica su ogni conclusione. Ogni affermazione contenuta nella perizia deve essere verificata dal professionista contro la documentazione originale. Questo è il principio dell'human-in-the-loop applicato alla pratica peritale: l'AI accelera l'analisi, ma il giudizio resta umano.
    • Verificare la conformità normativa dello strumento. Il Medico Legale deve accertarsi che il sistema AI utilizzato sia conforme al GDPR, non utilizzi i dati per addestramento, e operi su server europei. Il trattamento di dati sanitari — categoria particolare ai sensi dell'art. 9 GDPR — su piattaforme non conformi espone il professionista a responsabilità diretta. Docsy, ad esempio, opera con una Zero Data Retention Policy: i documenti vengono elaborati e immediatamente eliminati.
    • Aggiornarsi sulle evoluzioni normative. Il quadro regolatorio è in rapida evoluzione: l'AI Act europeo completa la sua applicazione entro il 2027, la Direttiva UE 2024/2853 sulla responsabilità del prodotto AI è in fase di recepimento, e la SIMLA ha avviato un'indagine nazionale sull'uso reale di AI nella medicina legale i cui risultati influenzeranno le future linee guida di settore.

    Cosa dicono gli enti di categoria: SIMLA e FNOMCeO

    Il tema dell'AI in medicina legale e le sue implicazioni in termini di responsabilità è al centro del dibattito degli enti professionali, pur senza risposte definitive sul piano operativo.

    La SIMLA (Società Italiana di Medicina Legale e delle Assicurazioni) ha promosso un'indagine nazionale attraverso la propria Commissione di Medicina Legale e Nuove Tecnologie per rilevare l'uso reale — non solo dichiarativo — degli strumenti AI nei flussi peritali. I risultati, non ancora pubblicati, forniranno il primo quadro empirico del fenomeno.

    La FNOMCeO ha assunto una posizione netta: "L'intelligenza artificiale sia supporto per il medico e non sostituto", come dichiarato dal Presidente Anelli in audizione parlamentare. La direzione è unanime, ma tradurre questo principio in regole operative — in particolare per la documentazione dell'output AI — è il compito che il legislatore e gli ordini professionali hanno ancora davanti.

    Come Docsy risponde al paradosso: supervisione umana by design

    Il doppio vincolo descritto non è un problema astratto per chi sviluppa strumenti AI destinati ai professionisti della medicina legale. È un vincolo progettuale. Docsy lo affronta con scelte architetturali precise, allineate ai principi dell'AI Act e della L. 132/2025.

    Il professionista firma, non l'algoritmo. Docsy genera bozze strutturate — analisi documentali, ricostruzioni cronologiche, suggerimenti di quantificazione — che il Medico Legale rivede, integra, modifica e valida. L'elaborato finale è un atto intellettuale del professionista, non un output algoritmico. Questo approccio è coerente con l'art. 7, comma 5 della L. 132/2025: la decisione è sempre rimessa all'esercente la professione medica.

    Zero Data Retention. I documenti caricati sulla piattaforma vengono elaborati e immediatamente eliminati. Non sono utilizzati per l'addestramento dei modelli. Le bozze delle perizie sono crittografate e accessibili esclusivamente al professionista titolare. Questa architettura elimina il rischio che l'output grezzo dell'AI possa essere acquisito da terzi o diventare materiale processuale.

    AI verticale, non generalista. A differenza delle AI generaliste come ChatGPT, Docsy è costruito specificamente per il contesto medico-legale italiano: applica i criteri di valutazione del danno secondo le Linee Guida SIMLA e i barème nazionali, distingue tra i diversi standard causali (criterio del "più probabile che non" vs "causa diretta ed esclusiva"), e contestualizza ogni analisi nel quadro normativo appropriato — dalla Legge Gelli-Bianco al Codice delle Assicurazioni Private.

    Conformità GDPR nativa. Server europei dedicati, nessun trasferimento di dati verso paesi terzi, crittografia end-to-end. Il Medico Legale che utilizza Docsy non si espone ai rischi GDPR connesti all'uso di piattaforme generaliste per il trattamento di dati sanitari. Per un approfondimento sul tema, si rimanda alla guida dedicata alla privacy dei dati sanitari.

    In sintesi, Docsy è progettato per posizionarsi nella categoria dell'AI di supporto professionale: uno strumento che potenzia il ragionamento del Medico Legale senza sostituirlo, che non genera elaborati finali autonomi, e che tutela il professionista sia sul piano normativo sia su quello processuale.

    Il Medico Legale del futuro governa l'AI, non la subisce

    Il paradosso della medicina difensiva algoritmica non si risolve evitando l'AI. Si risolve governandola. Il professionista che sceglie di non adottare strumenti di intelligenza artificiale per timore delle conseguenze giuridiche non elimina il rischio: lo sposta. In un contesto in cui — come documentato dallo studio JAMA di Ayers et al. (2023) — i valutatori indipendenti preferiscono le risposte generate dall'AI nel 78,6% dei casi, il Medico Legale che rinuncia all'innovazione rischia di produrre elaborati meno completi e meno strutturati di quelli dei colleghi che la adottano consapevolmente.

    La via d'uscita dal doppio vincolo è la trasparenza metodologica: dichiarare l'uso dell'AI come strumento di supporto, documentare il metodo senza esporre l'output grezzo, mantenere il pieno controllo critico su ogni conclusione della perizia. Non è un compromesso: è la prassi professionale di eccellenza nel contesto normativo attuale.

    L'adozione di strumenti specialistici come Docsy — progettati per la supervisione umana, la conformità normativa e la tutela del dato sanitario — consente al Medico Legale di cogliere i vantaggi dell'AI senza subire i rischi del doppio vincolo. Il futuro della medicina legale non è un contesto in cui l'AI decide al posto del professionista. È un contesto in cui il professionista decide meglio, più velocemente e con più dati a disposizione, grazie all'AI.

    Per scoprire come Docsy può trasformare il flusso di lavoro del Suo studio peritale, richieda una demo gratuita.

    Continua la lettura