Intelligenza Artificiale in Sanità: chi risponde se la diagnosi è errata? Guida giuridica al 2026
- studiolegalecarnev
- 23 ore fa
- Tempo di lettura: 4 min

L’intelligenza artificiale non è più una prospettiva futura per il sistema sanitario, ma una realtà già pienamente operativa.
Oggi viene utilizzata per analizzare immagini diagnostiche, supportare decisioni cliniche e individuare patologie in fase precoce. Si tratta di strumenti sempre più sofisticati, che stanno cambiando profondamente il modo di fare medicina.
Tuttavia, accanto ai benefici, emerge inevitabilmente una domanda: chi è responsabile quando qualcosa va storto?
Il principio guida: la centralità della decisione medica
Uno degli equivoci più diffusi è ritenere che, in presenza di sistemi automatizzati, la responsabilità venga meno o ricada sulla tecnologia.
Dal punto di vista giuridico, non è così.
L’ordinamento italiano ha chiaramente ribadito il principio della centralità umana, soprattutto in ambito sanitario. L’intelligenza artificiale, per quanto avanzata, non sostituisce il medico, ma lo affianca.
La Legge 23 settembre 2025 n. 132 è esplicita: i sistemi di intelligenza artificiale costituiscono un supporto nei processi di diagnosi e cura, ma la decisione finale resta sempre in capo al professionista sanitario.
Questo significa che l’IA è, a tutti gli effetti, uno strumento. E come ogni strumento, deve essere utilizzata in modo corretto, consapevole e responsabile.
La responsabilità: un sistema a “triplo binario”
Se l’intelligenza artificiale non è un soggetto giuridico autonomo, la responsabilità si sposta su chi la utilizza o la mette a disposizione.
Il sistema che si è delineato è complesso e coinvolge potenzialmente tre soggetti.
1. La struttura sanitaria
La struttura sanitaria risponde a titolo di responsabilità contrattuale, ai sensi degli articoli 1218 e 1228 del codice civile, secondo quanto già previsto dalla Legge Gelli-Bianco.
Questo comporta che la struttura risponde non solo per l’operato dei medici, ma anche per le proprie carenze organizzative.
In relazione all’intelligenza artificiale, la responsabilità può emergere, ad esempio, quando:
viene adottato un sistema difettoso o non adeguatamente testato
non viene garantita la manutenzione o l’aggiornamento del software
il personale non riceve una formazione adeguata sull’utilizzo dello strumento
In questi casi, l’errore non è tanto nella diagnosi in sé, ma nell’organizzazione del servizio sanitario.
2. Il medico
Il medico, salvo casi particolari, risponde a titolo di responsabilità extracontrattuale, ai sensi dell’articolo 2043 del codice civile.
La sua responsabilità può derivare da:
imperizia, nell’utilizzo o nell’interpretazione del sistema
negligenza o imprudenza, per essersi affidato in modo acritico all’output dell’algoritmo
mancata valutazione delle specificità del paziente
Il punto centrale è questo: il medico non può limitarsi a “seguire la macchina”, ma deve sempre esercitare il proprio giudizio clinico.
3. Il produttore del software
Un terzo soggetto, spesso trascurato, è il produttore del sistema di intelligenza artificiale.
Se l’errore deriva da un difetto intrinseco del software – ad esempio un errore di programmazione o un sistema addestrato su dati non corretti – può configurarsi una responsabilità per prodotto difettoso.
In questi casi, il paziente agirà normalmente contro la struttura sanitaria, che potrà poi rivalersi sul produttore dimostrando la difettosità del sistema.
La vera difficoltà: dimostrare il nesso causale
Il problema principale, in questi casi, non è individuare il responsabile, ma dimostrare il nesso causale.
Gli algoritmi di intelligenza artificiale, soprattutto quelli più complessi, funzionano spesso come vere e proprie “scatole nere”. Non sempre è immediatamente comprensibile il percorso logico che ha portato a una determinata diagnosi.
Questo rende più complessa la prova, ma non elimina le tutele del paziente.
Gli strumenti di tutela del paziente
Il sistema giuridico prevede comunque strumenti efficaci.
In primo luogo, il paziente ha diritto a essere informato sull’utilizzo dell’intelligenza artificiale nel proprio percorso sanitario, come previsto dalla normativa del 2025.
Inoltre, grazie anche al Regolamento Generale sulla Protezione dei Dati, è possibile richiedere informazioni sulla logica del sistema utilizzato.
Un eventuale rifiuto o una risposta incompleta può essere valutato dal giudice a sfavore della struttura.
Sul piano probatorio, nei confronti della struttura sanitaria, vale il principio della responsabilità contrattuale: una volta dimostrato il danno, spetta alla struttura provare di aver operato correttamente.
Se non riesce a dimostrare il corretto utilizzo dell’intelligenza artificiale, l’incertezza ricade su di essa.
Il nesso causale, come in ogni giudizio civile, viene accertato secondo il criterio del “più probabile che non”.
Il consenso informato nell’era dell’intelligenza artificiale
Un aspetto particolarmente rilevante riguarda il consenso informato.
Il diritto del paziente all’autodeterminazione impone che ogni trattamento sanitario sia preceduto da un’informazione completa.
Con l’introduzione dell’intelligenza artificiale, questo obbligo si amplia.
Il paziente deve essere informato del fatto che verrà utilizzato un sistema di IA nel proprio percorso diagnostico o terapeutico.
La mancata informazione costituisce una violazione autonoma del diritto all’autodeterminazione, risarcibile anche indipendentemente dall’esito della prestazione sanitaria.
FAQ
L’intelligenza artificiale può essere responsabile?
No. È considerata uno strumento. La responsabilità ricade su medico, struttura o produttore.
Chi paga il danno?
Generalmente la struttura sanitaria e/o il medico, con eventuale rivalsa verso il produttore.
Si può fare causa?
Sì, se esiste un danno e un nesso causale dimostrabile.
È un ambito non regolamentato?
No. Esiste una normativa specifica che si integra con le regole sulla responsabilità sanitaria e sulla protezione dei dati.
L’intelligenza artificiale rappresenta una svolta per la medicina, ma non elimina la responsabilità.
Al contrario, la rende più articolata.
Il principio resta immutato:👉 se esiste un danno e se quel danno è riconducibile a una condotta sanitaria, il diritto al risarcimento permane
Ciò che cambia è il modo in cui il caso deve essere analizzato e dimostrato.
Ed è proprio in questa complessità che diventa fondamentale un approccio tecnico, consapevole e strutturato.




Commenti