top of page

Intelligenza Artificiale in Sanità: chi risponde se la diagnosi è errata? Guida giuridica al 2026

  • studiolegalecarnev
  • 23 ore fa
  • Tempo di lettura: 4 min
diagnosi errata

L’intelligenza artificiale non è più una prospettiva futura per il sistema sanitario, ma una realtà già pienamente operativa.

Oggi viene utilizzata per analizzare immagini diagnostiche, supportare decisioni cliniche e individuare patologie in fase precoce. Si tratta di strumenti sempre più sofisticati, che stanno cambiando profondamente il modo di fare medicina.

Tuttavia, accanto ai benefici, emerge inevitabilmente una domanda: chi è responsabile quando qualcosa va storto?


Il principio guida: la centralità della decisione medica

Uno degli equivoci più diffusi è ritenere che, in presenza di sistemi automatizzati, la responsabilità venga meno o ricada sulla tecnologia.

Dal punto di vista giuridico, non è così.

L’ordinamento italiano ha chiaramente ribadito il principio della centralità umana, soprattutto in ambito sanitario. L’intelligenza artificiale, per quanto avanzata, non sostituisce il medico, ma lo affianca.


La Legge 23 settembre 2025 n. 132 è esplicita: i sistemi di intelligenza artificiale costituiscono un supporto nei processi di diagnosi e cura, ma la decisione finale resta sempre in capo al professionista sanitario.

Questo significa che l’IA è, a tutti gli effetti, uno strumento. E come ogni strumento, deve essere utilizzata in modo corretto, consapevole e responsabile.


La responsabilità: un sistema a “triplo binario”

Se l’intelligenza artificiale non è un soggetto giuridico autonomo, la responsabilità si sposta su chi la utilizza o la mette a disposizione.


Il sistema che si è delineato è complesso e coinvolge potenzialmente tre soggetti.

1. La struttura sanitaria

La struttura sanitaria risponde a titolo di responsabilità contrattuale, ai sensi degli articoli 1218 e 1228 del codice civile, secondo quanto già previsto dalla Legge Gelli-Bianco.

Questo comporta che la struttura risponde non solo per l’operato dei medici, ma anche per le proprie carenze organizzative.

In relazione all’intelligenza artificiale, la responsabilità può emergere, ad esempio, quando:

  • viene adottato un sistema difettoso o non adeguatamente testato

  • non viene garantita la manutenzione o l’aggiornamento del software

  • il personale non riceve una formazione adeguata sull’utilizzo dello strumento

In questi casi, l’errore non è tanto nella diagnosi in sé, ma nell’organizzazione del servizio sanitario.


2. Il medico

Il medico, salvo casi particolari, risponde a titolo di responsabilità extracontrattuale, ai sensi dell’articolo 2043 del codice civile.

La sua responsabilità può derivare da:

  • imperizia, nell’utilizzo o nell’interpretazione del sistema

  • negligenza o imprudenza, per essersi affidato in modo acritico all’output dell’algoritmo

  • mancata valutazione delle specificità del paziente

Il punto centrale è questo: il medico non può limitarsi a “seguire la macchina”, ma deve sempre esercitare il proprio giudizio clinico.


3. Il produttore del software

Un terzo soggetto, spesso trascurato, è il produttore del sistema di intelligenza artificiale.

Se l’errore deriva da un difetto intrinseco del software – ad esempio un errore di programmazione o un sistema addestrato su dati non corretti – può configurarsi una responsabilità per prodotto difettoso.

In questi casi, il paziente agirà normalmente contro la struttura sanitaria, che potrà poi rivalersi sul produttore dimostrando la difettosità del sistema.


La vera difficoltà: dimostrare il nesso causale

Il problema principale, in questi casi, non è individuare il responsabile, ma dimostrare il nesso causale.

Gli algoritmi di intelligenza artificiale, soprattutto quelli più complessi, funzionano spesso come vere e proprie “scatole nere”. Non sempre è immediatamente comprensibile il percorso logico che ha portato a una determinata diagnosi.

Questo rende più complessa la prova, ma non elimina le tutele del paziente.


Gli strumenti di tutela del paziente

Il sistema giuridico prevede comunque strumenti efficaci.

In primo luogo, il paziente ha diritto a essere informato sull’utilizzo dell’intelligenza artificiale nel proprio percorso sanitario, come previsto dalla normativa del 2025.

Inoltre, grazie anche al Regolamento Generale sulla Protezione dei Dati, è possibile richiedere informazioni sulla logica del sistema utilizzato.

Un eventuale rifiuto o una risposta incompleta può essere valutato dal giudice a sfavore della struttura.

Sul piano probatorio, nei confronti della struttura sanitaria, vale il principio della responsabilità contrattuale: una volta dimostrato il danno, spetta alla struttura provare di aver operato correttamente.

Se non riesce a dimostrare il corretto utilizzo dell’intelligenza artificiale, l’incertezza ricade su di essa.

Il nesso causale, come in ogni giudizio civile, viene accertato secondo il criterio del “più probabile che non”.


Il consenso informato nell’era dell’intelligenza artificiale

Un aspetto particolarmente rilevante riguarda il consenso informato.

Il diritto del paziente all’autodeterminazione impone che ogni trattamento sanitario sia preceduto da un’informazione completa.

Con l’introduzione dell’intelligenza artificiale, questo obbligo si amplia.

Il paziente deve essere informato del fatto che verrà utilizzato un sistema di IA nel proprio percorso diagnostico o terapeutico.

La mancata informazione costituisce una violazione autonoma del diritto all’autodeterminazione, risarcibile anche indipendentemente dall’esito della prestazione sanitaria.


FAQ

L’intelligenza artificiale può essere responsabile?

No. È considerata uno strumento. La responsabilità ricade su medico, struttura o produttore.

Chi paga il danno?

Generalmente la struttura sanitaria e/o il medico, con eventuale rivalsa verso il produttore.

Si può fare causa?

Sì, se esiste un danno e un nesso causale dimostrabile.

È un ambito non regolamentato?

No. Esiste una normativa specifica che si integra con le regole sulla responsabilità sanitaria e sulla protezione dei dati.


L’intelligenza artificiale rappresenta una svolta per la medicina, ma non elimina la responsabilità.

Al contrario, la rende più articolata.

Il principio resta immutato:👉 se esiste un danno e se quel danno è riconducibile a una condotta sanitaria, il diritto al risarcimento permane

Ciò che cambia è il modo in cui il caso deve essere analizzato e dimostrato.

Ed è proprio in questa complessità che diventa fondamentale un approccio tecnico, consapevole e strutturato.



Commenti


Studio Legale Carnevali & Grimaldi

Via Vittoria Colonna, 32, 00193 Roma, Italia

Via Tuscolana 1256, 00174 Roma, Italia

 info@studiolegalecarnevaligrimaldi.com

Avv.  Simone Grimaldi  392 807 7552

Avv. Enzo Carnevali  392 667 3535

Copyright ©2025 di Avvocato Enzo Carnevali |P.IVA 15500571003| Via Vittoria Colonna, 32, 00193 Roma, Italia

bottom of page