L’intelligenza artificiale sta entrando nella sanità con una velocità senza precedenti, ridefinendo progressivamente il modo in cui si formulano diagnosi, si personalizzano le terapie e si organizzano i percorsi di cura. Algoritmi di imaging, modelli predittivi, sistemi di supporto alle decisioni cliniche e soluzioni basate sull’elaborazione del linguaggio naturale non sono più sperimentazioni di nicchia, ma strumenti che iniziano a incidere concretamente sulla pratica clinica e sulla governance dei sistemi sanitari.
Questa trasformazione, tuttavia, non è solo tecnologica. L’adozione dell’AI in sanità solleva questioni etiche, giuridiche e organizzative di grande complessità: dalla trasparenza degli algoritmi alla qualità e rappresentatività dei dati, dalla responsabilità in caso di errore alla tutela della privacy, fino al rapporto tra innovazione e fiducia dei cittadini.
Temi al centro del volume «Is AI the Perfect Doctor?», che analizza in chiave comparata il quadro normativo europeo e statunitense e propone una riflessione articolata sul futuro dell’AI in medicina. Per TrendSanità gli autori del libro, Oreste Pollicino (Professore ordinario di diritto costituzionale e regolamentazione dell’intelligenza artificiale, Università Bocconi), Francesca Aurora Sacchi (Avvocata specializzata in science policy, regolamentazione dell’AI e bioetica) e Noemi Conditi (Avvocata, Studio Legale Stefanelli & Stefanelli), ne analizzano le potenzialità, i rischi e gli aspetti legali dei diversi approcci sviluppati a livello internazionale.
AI Act e sanità: tra opacità algoritmica, dati e governance

Nel contesto sanitario, l’approccio regolatorio europeo fondato sulla classificazione del rischio rappresenta un cambio di paradigma rilevante, ma non privo di criticità applicative. L’AI Act individua correttamente la sanità come uno degli ambiti a più alto impatto sui diritti fondamentali, ma la sua efficacia dipenderà dalla capacità di tradurre i principi normativi in strumenti concreti per la pratica clinica e organizzativa.
Come sottolinea Oreste Pollicino, «in sanità, i rischi più difficili da regolamentare riguardano l’opacità algoritmica, il bias nei dati e l’uso secondario delle informazioni sanitarie». Si tratta di elementi strutturali dei sistemi di intelligenza artificiale, che non possono essere affrontati solo attraverso obblighi formali di conformità, ma che incidono direttamente sulla qualità delle decisioni cliniche e sull’equità delle cure.
L’adozione dell’IA richiede governance chiara, dati di qualità e formazione degli operatori
Secondo Pollicino, «l’approccio basato sul rischio dell’AI Act è un passo importante», ma non sufficiente se rimane confinato a un livello astratto. «Occorrono linee guida specifiche che traducano i principi generali in criteri pratici per sviluppatori e strutture sanitarie», capaci di orientare la progettazione, la validazione e l’uso degli algoritmi nella quotidianità dei contesti assistenziali.
Un altro nodo centrale è rappresentato dalla gestione dei dati sanitari, vera infrastruttura dell’AI. «Serve inoltre promuovere una governance dei dati che, pur garantendo privacy e sicurezza, valorizzi l’uso secondario a fini di ricerca e innovazione», evidenzia Pollicino. In questa prospettiva, la protezione dei diritti fondamentali e lo sviluppo tecnologico non sono obiettivi contrapposti, ma dimensioni che devono essere integrate attraverso modelli di governance avanzati e responsabili.
Dall’innovazione tecnologica all’integrazione nei percorsi assistenziali
Accanto alle sfide normative, il libro analizza anche l’evoluzione dei principali strumenti di AI già oggi disponibili o in fase avanzata di sperimentazione. Il quadro che emerge è quello di un ecosistema ricco e in rapida trasformazione, in cui alcune applicazioni iniziano a produrre evidenze significative. Pollicino osserva che «ce ne sono molti promettenti», citando «gli algoritmi di imaging per la diagnosi precoce, i modelli predittivi per personalizzare le terapie, i sistemi di supporto decisionale clinico e le piattaforme di analisi dei dati real-world». A questi si affiancano soluzioni basate sul linguaggio naturale che stanno rapidamente evolvendo: «anche le soluzioni basate su linguaggio naturale, utili per la documentazione clinica o la ricerca, stanno evolvendo rapidamente».
L’intelligenza artificiale può migliorare la medicina solo se guidata da principi etici solidi
Il vero salto di qualità, tuttavia, riguarda la capacità di integrare queste tecnologie nei percorsi di cura. «Il prossimo passo sarà favorirne l’integrazione nei percorsi assistenziali», sottolinea Pollicino, evidenziando la necessità di affiancare all’innovazione tecnologica un investimento strutturato sulle competenze. In questo senso, «adeguati programmi di alfabetizzazione digitale per gli operatori sanitari, come previsto dallo stesso AI Act,» sono essenziali «per garantirne un uso sicuro e consapevole nella pratica clinica».
Etica, dati e convergenza regolatoria: il ponte tra Europa e Stati Uniti

La trasformazione digitale della sanità non si sviluppa all’interno di confini nazionali. La circolazione dei dati, la ricerca e lo sviluppo degli algoritmi rendono inevitabile un confronto tra modelli regolatori differenti. In questo scenario, il dialogo tra Unione Europea e Stati Uniti rappresenta uno snodo strategico.
Francesca Aurora Sacchi, che è anche membro del direttivo SIIAM (Società Italiana Intelligenza Artificiale in Medicina), sottolinea come l’innovazione non possa prescindere da una solida base etica: «L’intelligenza artificiale può rivoluzionare la sanità solo se guidata da principi etici solidi, ma al tempo stesso serve trovare l’equilibrio tra innovazione e tutela». Le differenze tra i due modelli sono evidenti: «In Europa il GDPR e l’AI Act pongono l’accento su trasparenza e sicurezza del paziente, mentre negli Stati Uniti prevale un approccio più flessibile e orientato al mercato».
La fiducia dei cittadini nel SSN dipende da trasparenza, usabilità e sicurezza dei sistemi AI
La sfida, però, è evitare una frammentazione che penalizzi sia l’innovazione sia la tutela dei cittadini. «Il tema principale, oggi, è costruire un terreno comune tra questi due modelli», osserva Sacchi, «promuovendo standard globali che garantiscano qualità, tracciabilità degli algoritmi e interoperabilità».
Un punto decisivo di questa convergenza riguarda l’accesso ai dati sanitari. «Senza dataset ampi, rappresentativi e di qualità, anche gli algoritmi più sofisticati non possono generare valore clinico». Per questo, «favorire un ecosistema di data sharing sicuro, controllato e rispettoso della privacy è quindi fondamentale per sviluppare soluzioni basate su AI affidabili e realmente utili alla pratica clinica».
Dalla ricerca alla pratica: tool emergenti, digital twins e nuove complessità
Il periodo di ricerca che ha portato alla realizzazione del volume è coinciso con una fase di accelerazione tecnologica senza precedenti. «Durante la stesura del volume abbiamo assistito a un’evoluzione rapidissima dei tool di intelligenza artificiale, sia in termini di capacità analitiche sia di accessibilità», racconta Sacchi. Strumenti inizialmente percepiti come sperimentali sono diventati «parte integrante dei processi clinici e di ricerca».
Tra le innovazioni più rilevanti emergono i digital twins: «modelli digitali dinamici del paziente che integrano dati clinici, genomici e fisiologici per simulare l’evoluzione di una malattia o la risposta a un trattamento». Il loro potenziale si estende anche alla Ricerca & Sviluppo: «grazie ai digital twins, infatti, è possibile testare interventi, ottimizzare dosaggi, ridurre i tempi di sviluppo dei farmaci e, potenzialmente, limitare la necessità di trial tradizionali in alcune fasi preliminari».
L’integrazione dei digital twins nei percorsi clinici riduce tempi e rischi nello sviluppo
Questa evoluzione comporta però nuove responsabilità. «È emersa dunque una crescente attenzione alla qualità dei dati e alla spiegabilità degli algoritmi», segnando un passaggio verso un panorama «più maturo, ma anche più complesso», che richiede «un continuo aggiornamento normativo e formativo».
Dispositivi medici con AI: sicurezza, obblighi e responsabilità
Uno degli ambiti più delicati è quello dell’AI integrata nei dispositivi medici, dove l’innovazione incontra direttamente la sicurezza del paziente. Noemi Conditi ricorda che «l’implementazione di sistemi di AI all’interno di dispositivi medici comporta l’obbligo di rispettare congiuntamente il Regolamento 2024/1689 (AI Act) e il Regolamento 2017/745 (MDR)».
I dispositivi medici con AI richiedono conformità normativa rigorosa e attenzione costante alla sicurezza

Questa combinazione normativa «intende garantire, per questa particolare categoria di prodotti digitali, adeguati e costanti livelli di sicurezza, prestazioni e qualità durante tutto il loro ciclo di vita», ma comporta anche «un aumento degli obblighi per tutti gli operatori coinvolti nella catena di fornitura», con «possibili ripercussioni dal punto di vista amministrativo e delle risorse economiche necessarie».
Sul piano della responsabilità giuridica, «non risulta radicalmente modificato il panorama della responsabilità derivante dall’uso di dispositivi con AI», per cui «si applicano ad oggi le regole ordinarie».
Adozione clinica e relazione medico-paziente: una questione di fiducia
L’adozione dell’AI nella pratica quotidiana è in crescita, ma resta disomogenea. «La percentuale di operatori sanitari che utilizzano strumenti di AI sta aumentando gradualmente, con progressione quasi geometrica», osserva Conditi. Tuttavia, spesso «gli strumenti digitali per la prestazione delle cure si limitano allo svolgimento di task semplici», mentre «l’implementazione di sistemi complessi risulta spesso più difficile».
La protezione dei dati e la trasparenza algoritmica sono fondamentali per l’accettazione dei pazienti
L’impatto sulla relazione medico-paziente è potenzialmente rilevante. «In astratto, i sistemi di AI hanno il potenziale per impattare in modo significativo nella relazione medico-paziente». Da un lato, il paziente «può beneficiare di una migliore qualità delle cure», dall’altro è necessario «garantire adeguati livelli di usabilità, inclusività e trasparenza» per «mantenere alto il livello di fiducia nel SSN nel suo complesso».
Una trasformazione da governare, non da subire
L’intelligenza artificiale non è il “medico perfetto”, ma uno strumento potente che può contribuire a migliorare qualità, efficienza ed equità dei sistemi sanitari. Come emerge dalle analisi degli autori del volume Is AI the Perfect Doctor?, il suo impatto dipenderà dalla capacità di integrare innovazione tecnologica, regolazione efficace e formazione degli operatori.
La sfida, oggi, non è più se adottare l’AI in sanità, ma come farlo in modo responsabile, trasparente e sostenibile, preservando la fiducia dei cittadini e rafforzando il valore pubblico del Servizio sanitario.





