C’è un filo rosso che attraversa tutte le “Linee di indirizzo sull’adozione dell’Intelligenza Artificiale nella relazione tra professionista sanitario e paziente”, presentate a Roma da Anitec-Assinform: la tecnologia potrà davvero trasformare il Servizio sanitario nazionale solo se resterà ancorata al cuore del sistema, cioè la relazione di cura. Un’affermazione che arriva in un momento in cui gli strumenti generativi e predittivi stanno entrando con forza nella quotidianità clinica, aprendo scenari di efficienza ma anche interrogativi etici, operativi e culturali.
La tecnologia potrà davvero trasformare il SSN solo se resterà ancorata al cuore del sistema, cioè la relazione di cura
Il documento, sottoscritto da diverse associazioni e società scientifiche del mondo sanitario – Fimp, Fnopi, Sid, Siiam, Simg, Snami e da Confcooperative Sanità e Cittadinanzattiva – non si limita a dettare un elenco di raccomandazioni: costruisce un vero quadro di governo, una visione complessiva che coinvolge medici, pazienti, istituzioni e industria. È un testo che fotografa l’urgenza di mettere ordine prima che l’innovazione diventi ingestibile, ma anche la volontà di “liberare” il potenziale buono dell’intelligenza artificiale, rendendola un alleato del sistema e non un fattore di disordine.
Una sanità più umana grazie all’AI
Il primo punto fermo è chiaro: l’AI deve migliorare – non indebolire – la relazione terapeuta-paziente. È chiamata a ridurre il peso delle attività burocratiche, a restituire tempo all’ascolto e al dialogo, a rendere più leggibili dati sempre più complessi.
Il documento insiste su un concetto semplice, ma rivoluzionario: una sanità che usa l’AI può tornare a essere più umana, non meno, a patto che la tecnologia sia usata per valorizzare il ruolo del professionista e la centralità della persona.
Anche nelle applicazioni più avanzate, il professionista resta l’unico titolare della decisione
Non è un caso che uno dei capitoli più articolati sia dedicato alla responsabilità clinica. Anche nelle applicazioni più avanzate, il professionista resta l’unico titolare della decisione e ogni output algoritmico deve essere compreso, valutato e validato da un essere umano competente. La capacità di spiegare come e perché un algoritmo arriva a una conclusione non è più un dettaglio tecnico, ma un elemento essenziale della sicurezza e della fiducia. L’AI deve essere tracciabile, verificabile lungo tutto il suo ciclo di vita: solo così può entrare davvero nei processi sanitari senza creare opacità o deleghe improprie.
Intelligenza artificiale come volano di equità
Accanto alla trasparenza c’è un’altra parola che ricorre più volte: equità. Le Linee ricordano che la tecnologia può accentuare i divari territoriali, culturali e sociali, se non accompagnata da politiche mirate.
L’AI deve essere un fattore di riequilibrio nazionale, non un moltiplicatore di disuguaglianze
Per questo il documento insiste sulla necessità di estendere infrastrutture digitali anche nelle zone periferiche, progettare strumenti semplici per i cittadini meno digitalizzati, garantire continuità tra cure territoriali e ospedaliere e rendere interoperabili tutti i sistemi informativi. L’obiettivo è ambizioso: trasformare l’AI in un fattore di riequilibrio nazionale, non in un moltiplicatore di disuguaglianze.
Governance solida dei dati cercasi
La riflessione sui dati è altrettanto centrale. Nelle Linee e nel Decalogo allegato, il dato sanitario viene definito un bene comune, un elemento strategico per ricerca, prevenzione, programmazione e presa in carico clinica. Ma perché l’AI produca risultati affidabili, i dati devono essere puliti, strutturati, interoperabili e governati da regole trasparenti. Senza una data governance solida, avvertono le Linee, gli strumenti di AI rischiano di generare bias, errori e decisioni non controllabili.
In effetti, il documento identifica la relazione professionista sanitario-paziente come ambito in cui l’AI può generare più valore solo se integrata con modelli organizzativi nuovi, dalla decision support alla gestione delle cronicità.

Forse occorrono politiche nazionali e regionali volte a favorire l’adozione di questi modelli – ad esempio, piattaforme interoperabili, procurement innovativo, sperimentazioni strutturate? Quali? E come l’industria può collaborare con il SSN per accelerarne la diffusione garantendo qualità, equità e sostenibilità? Tanti interrogativi a cui risponde per TrendSanità Letizia Pizzi, Direttore generale di Anitec-Assinform: «Se guardiamo alla possibilità reale di adottare nuovi modelli organizzativi abilitati dall’AI, dal supporto decisionale alla gestione delle cronicità, il primo grande problema da affrontare è senza dubbio l’interoperabilità. Oggi il sistema è ancora frammentato: piattaforme che non dialogano, dati che non si muovono, standard non sempre allineati tra Regioni. Senza interoperabilità, l’AI non può esprimere il suo valore, perché rimane confinata in silos che non aiutano né i clinici né i pazienti.
Per questo servono politiche nazionali e regionali che definiscano una cornice unica: standard condivisi, connettori comuni e un’integrazione alla base con il Fascicolo sanitario elettronico. In questo modo si favorirebbe continuità assistenziale e si metterebbero i professionisti nelle condizioni di avere un vero supporto al momento del bisogno.
La seconda leva è il procurement innovativo, che deve consentire al sistema sanitario di sperimentare le soluzioni prima di adottarle su larga scala. Parliamo di sandbox regolatorie, appalti pre-commerciali, sperimentazioni strutturate che permettano di valutare l’impatto clinico e organizzativo in contesti reali. Innovare significa poter testare, misurare e correggere.
Infine, per favorire l’adozione di nuovi modelli organizzativi serve una politica che investa lì dove l’AI può produrre valore concreto: gestione proattiva delle cronicità, presa in carico territoriale, supporto decisionale in tempo reale.
Senza interoperabilità, l’AI rimane confinata in silos e non esprime il suo valore
In tutto questo, l’industria può e deve essere un partner del SSN. La strada è la co-progettazione: lavorare insieme a clinici, Regioni e istituzioni per tradurre i bisogni assistenziali in soluzioni concrete, sicure, trasparenti e sostenibili. La chiave per un utilizzo consapevole, equo, responsabile e realmente orientato ai benefici della persona è la collaborazione».
In altri termini, la trasformazione digitale richiede quindi un investimento che non è solo tecnologico, ma anche organizzativo e culturale.
Il decalogo
Nell’adozione dell’AI nella relazione tra professionista sanitario e paziente è necessario tenere a mente 10 regole:
- Mantenere la centralità della persona e della relazione terapeutica
- Far sì che il professionista sanitario resti il decisore ultimo
- Garantire che i risultati dell’applicazione dell’AI siano spiegabili, verificabili e trasparenti
- Adottare una governance condivisa per utilizzare l’AI in sicurezza
- Utilizzare l’AI per ridurre le disuguaglianze di accesso alla sanità
- Promuovere una cultura dei dati
- Formarsi per conoscere i nuovi strumenti
- Adottare soluzioni verificate e sicure
- Tutelare privacy, consenso e sicurezza dei dati
- Agire attraverso partecipazione e co-progettazione multi-stakeholder
Empowerment fatto di formazione e collaborazione estesa
Ed è proprio sul tema delle competenze che il documento si concentra a lungo. Il professionista sanitario non può essere lasciato solo di fronte a strumenti che evolvono rapidamente: serve un sistema di formazione continua, trasversale, multidisciplinare, capace di colmare non solo il divario tecnologico ma anche quello di linguaggio tra clinici, tecnologi, ricercatori e sviluppatori. Allo stesso tempo, anche i pazienti devono essere accompagnati: l’alfabetizzazione digitale diventa una parte integrante della qualità dell’assistenza.
L’alfabetizzazione digitale diventa una parte integrante della qualità dell’assistenza
Vien da chiedersi quali potrebbero essere le tre priorità regolatorie che il Governo dovrebbe affrontare entro il 2026 per garantire un’adozione sicura, etica e interoperabile delle soluzioni di IA nella sanità pubblica. Afferma Pizzi: «Le linee di indirizzo che abbiamo presentato identificano trasparenza, responsabilità e tracciabilità delle decisioni come elementi centrali per l’uso dell’AI nella relazione clinica. Sono requisiti fondamentali per costruire fiducia e garantire sicurezza.
Tuttavia, è importante chiarire una cosa: questi principi non richiedono necessariamente un intervento normativo nazionale di dettaglio. Anzi, una regolazione frammentata Paese per Paese rischierebbe di essere controproducente, moltiplicando gli oneri per le imprese e rallentando l’innovazione. Requisiti come la supervisione umana, la trasparenza algoritmica o la conservazione dei log sono già definiti dall’AI Act europeo, che a sua volta rinvia agli standard tecnici internazionali. Su questi aspetti, il lavoro più importante si gioca negli organismi di standardizzazione, con un impegno responsabile anche da parte delle imprese. La Legge italiana sull’AI, la 132 del 2025, fa bene a rimarcare questi principi senza addentrarsi in un dettaglio normativo che rischierebbe di duplicare o entrare in conflitto con il quadro europeo.
Le priorità regolatorie riguardano le condizioni di contesto per applicare l’AI nella sanità pubblica
Le vere priorità regolatorie sono altre, e riguardano le condizioni di contesto che permettono all’AI di esprimere il suo potenziale nella sanità pubblica. La prima priorità è dare continuità e prospettiva agli investimenti avviati con il PNRR, che rischiano di rimanere incompiuti se non accompagnati da una strategia di lungo periodo. Servono risorse stabili e una governance chiara per far sì che le infrastrutture digitali non restino progetti isolati, ma diventino la base di un sistema sanitario realmente integrato.
La seconda priorità riguarda il tema della coesione territoriale e dell’interoperabilità. È innegabile che il sistema sanitario italiano presenti differenze tra territori. L’obiettivo deve essere garantire che l’adozione dell’AI non amplifichi queste differenze, ma contribuisca invece a colmarle. Per questo serve un coordinamento nazionale forte, che definisca standard comuni e favorisca l’interoperabilità tra piattaforme.
La terza priorità è quella delle competenze. L’AI può essere potentissima, ma se mancano professionisti in grado di utilizzarla consapevolmente, di interpretarne i suggerimenti e di integrarla nei percorsi di cura, il suo valore resta inespresso. Occorre investire in formazione continua, obbligatoria e incentivata, per medici, infermieri e operatori sanitari, accompagnata da una strategia di alfabetizzazione digitale che coinvolga anche i cittadini. Solo così l’innovazione diventa davvero accessibile e sicura».
A sorreggere tutto questo occorre una governance forte. Le Linee chiedono tavoli permanenti tra istituzioni, professionisti, associazioni di pazienti, università e industria, in un’ottica di cooperazione e non di sovrapposizione. L’innovazione non deve procedere a compartimenti stagni: deve essere progettata insieme, testata in contesti controllati, corretta in tempo reale attraverso meccanismi di monitoraggio e sperimentazione regolatoria. È un’impostazione che guarda a un modello di sistema, più che a una somma di iniziative.
Insomma, l’intero ciclo di vita dell’AI sanitaria – sviluppo, addestramento, validazione, manutenzione – richiede nuovi standard e un forte coinvolgimento dell’industria tecnologica nazionale.
L’innovazione va co-progettata, testata e corretta rapidamente tramite monitoraggio e sperimentazione regolatoria
Ma quali interventi industriali sono davvero indispensabili per sostenere la crescita di un ecosistema italiano dell’AI in sanità, evitando una dipendenza strutturale da tecnologie estere? Commenta il Dg di Anitec-Assinform: «Il tema della dipendenza da tecnologie estere credo vada affrontata con la giusta prospettiva. L’obiettivo non è costruire muri, ma crescere in Italia e in Europa. Per questo serve una logica di alleanza internazionale, valorizzando le nostre eccellenze e costruendo un ecosistema competitivo.
E di eccellenze, in Italia, ne abbiamo. Nella farmaceutica, nei dispositivi medici, nel digitale e, su fronti emergenti e strategici come il supercalcolo e il quantum computing, il nostro Paese esprime punte di diamante riconosciute a livello internazionale. La sfida è fare sistema: mettere in connessione queste competenze, favorire collaborazioni tra industria, sanità, università e centri di ricerca, e alimentare un dialogo costruttivo con operatori e istituzioni.
Negli ultimi anni sono stati fatti passi avanti importanti per valorizzare il dato e creare le condizioni per l’innovazione. Penso alla già citata Legge 132 del 2025 sull’AI, che introduce una governance chiara e strumenti come le sandbox regolatorie per sperimentare in sicurezza. Penso all’European Health Data Space, che permetterà di utilizzare i dati sanitari in modo sicuro e interoperabile, sia per la cura sia per la ricerca e l’innovazione. Questi sono tasselli fondamentali di un ecosistema che può funzionare.
Ma serve ancora intervenire su alcuni fronti critici. Il primo riguarda le infrastrutture e i dataset nazionali. Senza dati di qualità, interoperabili e governati in modo sicuro, nessun modello di IA può essere competitivo. Solo così l’industria italiana può addestrare modelli rilevanti per il nostro Ssn.
Senza dati di qualità, interoperabili e governati in modo sicuro, nessun modello di AI può essere competitivo
Il secondo intervento riguarda le competenze, che vanno affrontate su più livelli. Servono programmi nazionali per formare le figure specialistiche di cui l’industria dell’AI ha bisogno — data scientist con competenze cliniche, ingegneri biomedici, esperti di regolatorio — e sostenere PMI, startup e scale-up con bandi e incentivi per ricerca e sviluppo. Le collaborazioni pubblico-privato sono essenziali per sviluppare soluzioni competitive.
In conclusione, la ricetta è chiara: fare sistema a livello industriale, alimentare il dialogo con operatori e istituzioni, e costruire sulle basi normative e infrastrutturali che stanno venendo alla luce».
Si arriva così alla conclusione più politica del documento: l’AI non può essere adottata perché “c’è”, ma perché è utile, sicura e giusta. È una visione che rifugge tanto l’entusiasmo acritico quanto la diffidenza automatica, e prova a ricollocare la tecnologia nel luogo più naturale: quello di uno strumento, non di un fine.
L’AI non può essere adottata perché “c’è”, ma perché è utile, sicura e giusta
Le Linee di indirizzo Anitec-Assinform tracciano dunque il contorno di una sanità che vuole governare il cambiamento, non inseguirlo. Una sanità che non teme l’AI, ma non la delega. Una sanità che riconosce che, se usata bene, la tecnologia può restituire tempo, qualità, equità e fiducia.
La sfida ora è trasformare questa visione in pratica quotidiana. Perché la vera innovazione, in sanità, non è quella che stupisce: è quella che cura meglio.





