
La responsabilità medico intelligenza artificiale è oggi al centro di un paradosso senza precedenti nel diritto sanitario italiano. Il Medico Legale che utilizza un sistema di intelligenza artificiale per redigere perizie si trova di fronte a un doppio vincolo: se segue il suggerimento dell'AI e questo si rivela errato, rischia di essere accusato di affidamento acritico a un algoritmo. Se lo ignora e l'esito della perizia è sfavorevole, quello stesso output — documentato o meno — può trasformarsi in una prova d'accusa: il sistema aveva indicato la direzione corretta, e il professionista ha scelto di non seguirla. È questo meccanismo che sta generando una nuova forma di medicina difensiva algoritmica: il rifiuto preventivo di strumenti AI potenzialmente utili, non per ragioni scientifiche, ma per timore delle conseguenze giuridiche.
Il fenomeno non è teorico. La medicina difensiva tradizionale costa al sistema sanitario italiano 10-11 miliardi di euro l'anno — circa il 10% della spesa sanitaria complessiva — e coinvolge il 77,9% dei medici, che ammettono di aver adottato almeno un comportamento difensivo nell'ultimo mese. Quando a questa dinamica consolidata si aggiunge la variabile dell'intelligenza artificiale, il rischio è che il professionista rinunci proprio agli strumenti che potrebbero migliorare la qualità del suo lavoro.
Il concetto di "doppio vincolo" — mutuato dalla teoria della comunicazione di Bateson — descrive una situazione in cui il soggetto non può vincere indipendentemente dalla scelta che compie. Applicato all'uso dell'AI nelle perizie medico-legali, il meccanismo è preciso.
Scenario 1 — Perizia assicurativa RC Auto. Il Medico Legale utilizza un sistema AI per analizzare un fascicolo di 120 pagine relativo a un trauma distorsivo cervicale. L'AI suggerisce una quantificazione del danno biologico permanente del 4%, mentre il professionista, sulla base della propria esperienza clinica, ritiene più corretto il 3%. Il Medico Legale segue il proprio giudizio e quantifica il danno al 3%. In sede di contenzioso, la controparte potrebbe acquisire la documentazione attestante che il sistema AI — utilizzato dallo stesso perito — aveva indicato una percentuale superiore, e contestare la valutazione come sottostima non motivata.
Scenario 2 — CTU in responsabilità sanitaria. Il Medico Legale, nominato CTU, utilizza un'AI per ricostruire la timeline clinica di un caso oncologico. L'AI identifica un possibile ritardo diagnostico di 14 mesi, segnalando una discontinuità nella documentazione tra due referti strumentali. Il professionista, valutando il quadro clinico complessivo, giudica il ritardo non causalmente rilevante ai fini della prognosi e lo omette dalla relazione. In sede di discussione peritale, il CTP del paziente potrebbe contestare l'omissione, sostenendo che il CTU ha ignorato un dato rilevante emerso dalla propria analisi assistita.
In entrambi i casi, il nodo giuridico è lo stesso: l'output dell'AI diventa un termine di confronto obbligato con la valutazione del professionista. Seguirlo acriticamente espone al rischio di automation bias — espressamente riconosciuto dall'art. 14(4)(b) del Regolamento UE 2024/1689 (AI Act) come "la possibile tendenza ad affidarsi automaticamente o eccessivamente all'output prodotto da un sistema AI ad alto rischio". Discostarsene senza un'argomentazione documentata espone alla contestazione di aver trascurato un elemento di prova.
La medicina difensiva non è un concetto nuovo. I dati del Centro Studi Federico Stella dell'Università Cattolica documentano che il 78,2% dei medici ritiene di correre un rischio di procedimenti legali superiore rispetto al passato, e il 61,3% ammette di aver prescritto più esami diagnostici del necessario per tutelarsi. L'indagine AGENAS conferma: il 58% dei medici ospedalieri dichiara di praticare medicina difensiva, e il 93% prevede un aumento del fenomeno.
La medicina difensiva algoritmica rappresenta una variante specifica: il professionista rinuncia all'uso di sistemi AI — seppure utili o potenzialmente indispensabili per la qualità della prestazione — per eliminare alla radice il rischio giuridico connesso alla documentazione dell'output algoritmico. Non è una scelta scientifica: è una strategia di protezione legale che sacrifica l'innovazione sull'altare della prudenza processuale.
Questa dinamica è particolarmente insidiosa nel contesto medico-legale per tre ragioni:
Il risultato è un circolo vizioso: l'assenza di regolamentazione alimenta l'incertezza, l'incertezza genera medicina difensiva algoritmica, la medicina difensiva rallenta l'adozione di strumenti che potrebbero migliorare la qualità peritale.
Il tema della responsabilità medico intelligenza artificiale si sviluppa all'intersezione di quattro corpi normativi. Nessuno di essi, singolarmente, offre una risposta definitiva al doppio vincolo descritto. Ma insieme delineano i confini entro cui il Medico Legale può muoversi.
L'art. 590-sexies c.p. prevede la non punibilità del medico quando l'evento avverso derivi da imperizia, a condizione che siano state rispettate le linee guida adeguate al caso concreto. Le Sezioni Unite della Cassazione (sent. n. 8770/2018, c.d. "Mariotti") hanno precisato che questa causa di non punibilità opera esclusivamente in caso di imperizia lieve nella fase esecutiva — non in caso di negligenza o imprudenza — e solo quando le linee guida siano state correttamente individuate.
Il problema per il contesto AI è duplice. Primo: non esistono linee guida sull'uso di AI nelle perizie medico-legali. Secondo: la Cassazione (Sez. IV, n. 17678/2024) ha ribadito che il rispetto delle linee guida non esclude automaticamente la responsabilità, e che in presenza di alternative divergenti il medico deve scegliere "la soluzione meno pericolosa per la salute del paziente". Applicato all'AI: se il sistema suggerisce un percorso e le linee guida cliniche ne indicano un altro, il professionista deve esercitare un giudizio critico autonomo.
La Gelli-Bianco distingue tra responsabilità contrattuale della struttura sanitaria (art. 1218 c.c., prescrizione decennale) e responsabilità extracontrattuale del singolo professionista (art. 2043 c.c., prescrizione quinquennale). Il Medico Legale che opera come libero professionista — CTP, perito di compagnia, consulente privato — risponde ai sensi dell'art. 2043 c.c. La legge non contempla ancora la responsabilità concorrente tra il professionista che utilizza un sistema AI e il produttore del software.
La Legge 23 settembre 2025, n. 132, in vigore dal 10 ottobre 2025, dedica l'art. 7 all'uso dell'intelligenza artificiale in ambito sanitario. Due commi sono particolarmente rilevanti:
Questa formulazione sancisce il principio della supervisione umana obbligatoria, ma non risolve il nodo della documentazione dell'output AI. La legge stabilisce che la decisione spetta al medico, ma non dice se il medico debba rendere conto di come ha utilizzato — o scelto di non utilizzare — il suggerimento algoritmico.
Per il Medico Legale, l'AI Act è la norma europea più rilevante sul piano della responsabilità medico legale nell'uso di sistemi algoritmici. Il Regolamento impone che i sistemi ad alto rischio siano progettati per una supervisione umana effettiva. L'art. 14 prevede che le persone incaricate della supervisione possano comprendere capacità e limiti del sistema, restare consapevoli del rischio di automation bias, interpretare correttamente l'output, e — aspetto cruciale — decidere di non usare il sistema o di ignorare, sovrascrivere o invertire l'output in qualsiasi situazione.
Questo articolo riconosce esplicitamente il diritto del professionista di discostarsi dall'output AI. Tuttavia, non disciplina le conseguenze processuali di tale scelta: se il medico documenta l'output e poi se ne discosta, quell'output è acquisibile come prova? La risposta, ad oggi, non esiste in alcuna norma né in alcuna sentenza di Cassazione.
Una proposta dottrinaria che merita attenzione distingue due categorie di sistemi AI in sanità, con implicazioni profondamente diverse sul piano della responsabilità.
AI autonoma (rivolta al paziente): sistemi destinati a interagire direttamente con il paziente per la gestione autonoma del percorso di cura — ad esempio, dispositivi per diabetici che regolano automaticamente la somministrazione di insulina, o sistemi di triage automatizzato. In questo caso, la responsabilità del produttore è diretta e la supervisione umana può essere limitata.
AI di supporto professionale: strumenti che assistono il medico nell'analisi dei dati e nella formulazione di suggerimenti, senza sostituirsi al suo giudizio. Il medico resta il decisore finale, l'AI è uno strumento nella sua cassetta degli attrezzi.
La distinzione è cruciale per il Medico Legale. Una piattaforma come Docsy, progettata come AI di supporto, non genera perizie autonome: fornisce analisi strutturate della documentazione, suggerimenti di quantificazione del danno, ricostruzioni cronologiche — che il professionista integra, modifica, valida o scarta. L'output non è un prodotto finito, ma un materiale di lavoro intermedio.
Questa architettura ha una conseguenza giuridica rilevante: se l'AI di supporto è uno strumento di lavoro del professionista — al pari di un testo di riferimento, di un barème cartaceo o di un consulto con un collega — il suo output non dovrebbe avere una dignità processuale autonoma. Il professionista non è tenuto a documentare ogni passaggio del proprio ragionamento preparatorio, ma solo le conclusioni motivate dell'metodologia di redazione della CTU medico-legale.
In attesa che il legislatore colmi il vuoto normativo sulla documentazione dell'output AI, il Medico Legale che utilizza intelligenza artificiale nelle perizie mediche può adottare un approccio pragmatico basato su cinque principi operativi per gestire la propria responsabilità.
Il tema dell'AI in medicina legale e le sue implicazioni in termini di responsabilità è al centro del dibattito degli enti professionali, pur senza risposte definitive sul piano operativo.
La SIMLA (Società Italiana di Medicina Legale e delle Assicurazioni) ha promosso un'indagine nazionale attraverso la propria Commissione di Medicina Legale e Nuove Tecnologie per rilevare l'uso reale — non solo dichiarativo — degli strumenti AI nei flussi peritali. I risultati, non ancora pubblicati, forniranno il primo quadro empirico del fenomeno.
La FNOMCeO ha assunto una posizione netta: "L'intelligenza artificiale sia supporto per il medico e non sostituto", come dichiarato dal Presidente Anelli in audizione parlamentare. La direzione è unanime, ma tradurre questo principio in regole operative — in particolare per la documentazione dell'output AI — è il compito che il legislatore e gli ordini professionali hanno ancora davanti.
Il doppio vincolo descritto non è un problema astratto per chi sviluppa strumenti AI destinati ai professionisti della medicina legale. È un vincolo progettuale. Docsy lo affronta con scelte architetturali precise, allineate ai principi dell'AI Act e della L. 132/2025.
Il professionista firma, non l'algoritmo. Docsy genera bozze strutturate — analisi documentali, ricostruzioni cronologiche, suggerimenti di quantificazione — che il Medico Legale rivede, integra, modifica e valida. L'elaborato finale è un atto intellettuale del professionista, non un output algoritmico. Questo approccio è coerente con l'art. 7, comma 5 della L. 132/2025: la decisione è sempre rimessa all'esercente la professione medica.
Zero Data Retention. I documenti caricati sulla piattaforma vengono elaborati e immediatamente eliminati. Non sono utilizzati per l'addestramento dei modelli. Le bozze delle perizie sono crittografate e accessibili esclusivamente al professionista titolare. Questa architettura elimina il rischio che l'output grezzo dell'AI possa essere acquisito da terzi o diventare materiale processuale.
AI verticale, non generalista. A differenza delle AI generaliste come ChatGPT, Docsy è costruito specificamente per il contesto medico-legale italiano: applica i criteri di valutazione del danno secondo le Linee Guida SIMLA e i barème nazionali, distingue tra i diversi standard causali (criterio del "più probabile che non" vs "causa diretta ed esclusiva"), e contestualizza ogni analisi nel quadro normativo appropriato — dalla Legge Gelli-Bianco al Codice delle Assicurazioni Private.
Conformità GDPR nativa. Server europei dedicati, nessun trasferimento di dati verso paesi terzi, crittografia end-to-end. Il Medico Legale che utilizza Docsy non si espone ai rischi GDPR connesti all'uso di piattaforme generaliste per il trattamento di dati sanitari. Per un approfondimento sul tema, si rimanda alla guida dedicata alla privacy dei dati sanitari.
In sintesi, Docsy è progettato per posizionarsi nella categoria dell'AI di supporto professionale: uno strumento che potenzia il ragionamento del Medico Legale senza sostituirlo, che non genera elaborati finali autonomi, e che tutela il professionista sia sul piano normativo sia su quello processuale.
Il paradosso della medicina difensiva algoritmica non si risolve evitando l'AI. Si risolve governandola. Il professionista che sceglie di non adottare strumenti di intelligenza artificiale per timore delle conseguenze giuridiche non elimina il rischio: lo sposta. In un contesto in cui — come documentato dallo studio JAMA di Ayers et al. (2023) — i valutatori indipendenti preferiscono le risposte generate dall'AI nel 78,6% dei casi, il Medico Legale che rinuncia all'innovazione rischia di produrre elaborati meno completi e meno strutturati di quelli dei colleghi che la adottano consapevolmente.
La via d'uscita dal doppio vincolo è la trasparenza metodologica: dichiarare l'uso dell'AI come strumento di supporto, documentare il metodo senza esporre l'output grezzo, mantenere il pieno controllo critico su ogni conclusione della perizia. Non è un compromesso: è la prassi professionale di eccellenza nel contesto normativo attuale.
L'adozione di strumenti specialistici come Docsy — progettati per la supervisione umana, la conformità normativa e la tutela del dato sanitario — consente al Medico Legale di cogliere i vantaggi dell'AI senza subire i rischi del doppio vincolo. Il futuro della medicina legale non è un contesto in cui l'AI decide al posto del professionista. È un contesto in cui il professionista decide meglio, più velocemente e con più dati a disposizione, grazie all'AI.
Per scoprire come Docsy può trasformare il flusso di lavoro del Suo studio peritale, richieda una demo gratuita.