L’intelligenza artificiale è ormai entrata stabilmente nei processi sanitari: dai sistemi di supporto alla diagnosi precoce ai modelli predittivi per la personalizzazione delle cure. Il suo potenziale è evidente: ridurre tempi, errori e costi, offrendo a medici e pazienti strumenti più rapidi ed efficaci. Ma laddove la posta in gioco è la salute delle persone, emerge una domanda cruciale: chi è responsabile delle decisioni prese con il supporto dell’AI?
Il tema dell’accountability – termine che intreccia responsabilità, trasparenza e capacità di rendere conto – diventa allora un nodo politico, giuridico ed etico insieme. Non basta proclamare principi di “AI affidabile” o garantire la protezione dei dati. Serve una cornice operativa che traduca i grandi enunciati in pratiche concrete, capaci di distribuire equamente oneri e garanzie. Un recente studio della Delft University of Technology propone di colmare questo divario con un framework specifico per i sistemi sanitari, che tenta di spostare la responsabilità da un approccio individuale a uno condiviso e cooperativo.
Sul piano normativo non mancano le cornici di riferimento. In Europa il GDPR tutela la privacy dei dati; il Data Act e il Data Governance Act regolano scambi e accesso alle informazioni; soprattutto l’AI Act (2024) classifica i sistemi sanitari come “ad alto rischio”, imponendo requisiti stringenti di trasparenza, robustezza e supervisione umana.
Si tratta però di norme prevalentemente top-down, che dicono che cosa bisogna garantire (sicurezza, auditabilità, redress), ma non come farlo in concreto. Il rischio è di lasciare agli attori sul campo – ospedali, aziende tecnologiche, centri di ricerca – l’onere di tradurre principi in procedure operative, con inevitabili ambiguità e conflitti interpretativi.
Nel sistema sanitario tradizionale l’accountability era relativamente chiara: il medico rispondeva delle scelte cliniche, vigilato da ordini professionali e ministeri della salute. Con l’ingresso dell’AI lo scenario si complica. La catena delle decisioni include nuovi soggetti: sviluppatori di modelli, fornitori di dati, ospedali che li implementano.
La conseguenza è duplice. Da un lato, la moltitudine di enti coinvolti crea il rischio del “tutti responsabili e nessuno responsabile”: mancano meccanismi di coordinamento, le informazioni si perdono nei passaggi, la trasparenza si riduce. Dall’altro, la pressione finale resta sui medici, che devono assumere decisioni condizionate da output algoritmici opachi. Un paradosso che alimenta la tentazione dello scaricabarile e mina la fiducia dei pazienti.
Diversi approcci cercano di affrontare il problema sul piano tecnico. La data provenance e i sistemi di tracciabilità aumentano l’affidabilità dei dataset. Il federated learning riduce i rischi legati alla centralizzazione dei dati sensibili. La blockchain garantisce autenticità e sicurezza nelle transazioni. L’Explainable AI (XAI) tenta di rendere comprensibili le decisioni delle reti neurali, fornendo ai medici motivazioni più chiare.
Ma nessuna di queste soluzioni è risolutiva. La tracciabilità dei dati non elimina i bias di fondo, la blockchain non risponde ai dilemmi etici delle cure, la spiegabilità resta spesso limitata a spiegazioni post-hoc poco utili in clinica. Sono strumenti necessari, non sufficienti. Il punto critico resta chi deve rispondere delle conseguenze di una decisione sanitaria supportata dall’AI.
Il contributo più innovativo del framework proposto a Delft è l’idea di articolare l’accountability in tre livelli:
Prodotto: qualità dei dati, affidabilità del modello, sicurezza dei protocolli terapeutici.
Processo: trasparenza nelle procedure di sviluppo e uso, tracciabilità delle decisioni, audit continuo.
Decisione: qui emerge la svolta concettuale. L’accountability non deve gravare solo sul medico, né può essere scaricata sugli sviluppatori. Va intesa come accountability congiunta, in cui attori clinici e tecnici condividono la responsabilità delle scelte finali.
Questo approccio supera la logica burocratica del capro espiatorio e apre alla collaborazione inter-disciplinare. La spiegabilità, in questa visione, non è un mero strumento tecnico ma un canale di comunicazione tra medici e ingegneri, utile a ridurre incomprensioni e a rafforzare la fiducia reciproca.
Il quadro delineato rappresenta un avanzamento teorico importante: mette ordine in un concetto confuso, collega principi etici e meccanismi pratici, introduce la responsabilità condivisa come nuova bussola per l’AI in sanità.
Restano però limiti evidenti. Il framework è ancora un modello concettuale, non testato empiricamente sul campo. Richiede la creazione di organismi di coordinamento oggi assenti e un linguaggio comune tra discipline che spesso faticano a comunicare. Inoltre, l’idea di “accountability congiunta” solleva interrogativi giuridici non banali: come attribuire responsabilità legali in caso di errore? Chi risarcisce il paziente?
Sono nodi che la ricerca e la politica dovranno affrontare se vogliono evitare che l’AI diventi al tempo stesso indispensabile e ingovernabile.
Prodotto
– Qualità dei dati (bias, completezza, provenienza)
– Affidabilità dei modelli (test, validazioni, robustezza)
– Sicurezza dei protocolli clinici
Processo
– Tracciabilità delle procedure
– Audit e logging continuo
– Trasparenza delle scelte e dei trade-off
Decisione
– Responsabilità congiunta medico + sviluppatori AI
– Uso dell’Explainability come strumento di comunicazione
– Superamento della logica del capro espiatorio
Frammentazione tra attori e assenza di regia unitaria
Rischio di “scapegoating” verso i medici
Opacità dei modelli → scarsa fiducia dei pazienti
Difficoltà di dialogo interdisciplinare
Framework comune di regole e standard
Meccanismi di audit e trasparenza a più livelli
Accountability condivisa per le decisioni finali
Formazione congiunta clinici–tecnici e uso critico della XAI
La posta in gioco non è solo la sicurezza clinica, ma la legittimità stessa dell’uso dell’AI in medicina. Senza meccanismi chiari di responsabilità, la fiducia di medici e pazienti rischia di sgretolarsi, alimentando resistenze e diffidenze. Con regole troppo punitive, invece, si corre il pericolo opposto: scoraggiare l’innovazione e disincentivare l’adozione di tecnologie utili.
La sfida è trovare un equilibrio: riconoscere che l’AI non sostituisce i professionisti ma li affianca, e che la responsabilità non può restare individuale in un sistema collettivo. In questo senso, l’accountability non è un ostacolo all’AI in sanità, ma il suo prerequisito: solo se sapremo distribuire equamente obblighi e garanzie potremo davvero fidarci delle macchine quando la vita è in gioco.