Pillon: «L’AI non va acquistata e messa lì, ma usata per ripensare i processi»

Governance, competenze manageriali, redesign dei processi e nuove responsabilità organizzative: secondo Sergio Pillon, vicepresidente di Associazione Italiana Sanità Digitale e Telemedicina (Aisdet), sono questi i fattori chiave per rendere l’intelligenza artificiale una leva concreta di trasformazione, oltre la logica dei progetti pilota

L’intelligenza artificiale promette di cambiare la sanità, ma la vera sfida non è tecnologica: è manageriale, organizzativa e culturale. Perché l’AI generi valore reale, non basta introdurre nuovi strumenti: servono governance solide, processi ripensati e leadership capaci di guidare il cambiamento. In questa intervista, il vicepresidente Aisdet, Sergio Pillon, analizza le condizioni necessarie perché l’AI diventi una leva strutturale di innovazione nei sistemi sanitari.

Il primo tema che vorrei affrontare con lei è quello della governance e della strategia in sanità. Nel suo libro “Guidare la trasformazione digitale nella sanità” sottolinea che molti progetti digitali falliscono per problemi di governance più che di tecnologia: in che modo l’AI può essere integrata nei modelli decisionali aziendali senza creare “progetti pilota isolati”, ma diventando leva strutturale di trasformazione dei processi sanitari?

«L’intelligenza artificiale, prima di tutto, richiede manager competenti, capaci di comprenderne il funzionamento e di utilizzarla in modo efficace nei processi di governance. È uno strumento che consente, in tempi rapidissimi, di produrre sintesi ragionate, analizzare dati e interagire con chi decide.

Se, ad esempio, fornisco all’AI un foglio Excel o un dataset aziendale e chiedo come rendere più efficiente un determinato processo, ottengo in pochi secondi una risposta strutturata. Non è necessariamente “vangelo”, ma rappresenta un primo livello di analisi rapido, sintetico e continuamente interrogabile. Questo permette di esplorare scenari che spesso, per tempi o risorse, non verrebbero affrontati.

L’AI promette di cambiare la sanità, ma la vera sfida non è tecnologica: è manageriale, organizzativa e culturale

Per evitare che resti confinata a singoli progetti pilota, l’AI deve entrare stabilmente nei modelli decisionali: non come tecnologia accessoria, ma come supporto quotidiano alla capacità manageriale di leggere fenomeni complessi e prendere decisioni migliori».

Passiamo al nodo del re-design dei processi. Spesso l’AI viene in qualche modo “sovrapposta” ai processi esistenti senza ripensarli. Quali sono, dal punto di vista manageriale, i principali errori nel non ridisegnare i processi clinico-organizzativi quando si introducono soluzioni di intelligenza artificiale?

«È un errore molto diffuso in tutti i percorsi di innovazione: si tende a sostituire la carta con il digitale senza ripensare davvero il processo. Con l’intelligenza artificiale questo rischio è ancora maggiore.

L’AI non è un blocco unico: esistono strumenti diversi con impatti differenti. Un chatbot, per esempio, può migliorare un centro prenotazioni; un chatbot evoluto può supportare una televisita, raccogliere informazioni preliminari dal paziente, approfondire l’anamnesi e far arrivare al medico dati già organizzati.

La domanda corretta non è: “Dove inserisco l’AI?” ma “Come l’AI può aiutarmi a ripensare l’intero processo?”

Ma il punto è più ampio. L’intelligenza artificiale può anche aiutare a decidere quando una televisita sia appropriata e quando no. Oppure può supportare la riorganizzazione logistica dell’assistenza territoriale: penso, ad esempio, ai percorsi degli infermieri sul territorio, ottimizzabili con logiche simili a quelle utilizzate da Amazon per la distribuzione.

La domanda corretta non è: “Dove inserisco l’AI?”. È: “Come l’AI può aiutarmi a ripensare l’intero processo?”. È una prospettiva opposta rispetto al semplice acquisto di una tecnologia da collocare dentro l’organizzazione».

Lei, e non solo, evidenzia il tema critico dell’adozione dell’AI da parte dei clinici. Quali leve organizzative e culturali ritiene fondamentali per far sì che l’AI venga realmente utilizzata dai professionisti e non sia percepita come un’imposizione tecnologica?

«La prima leva è la competenza. Si teme sempre ciò che non si conosce. Oggi molti medici utilizzano strumenti pubblici come OpenAI ChatGPT, ma spesso li interrogano come se fossero un motore di ricerca. In realtà le possibilità sono molto più ampie: sintesi cliniche, supporto organizzativo, analisi documentale.

L’adozione dell’AI passa da competenze diffuse, validazione scientifica e testimonianze tra pari

La seconda leva sono le società scientifiche. Storicamente la professione medica ha governato l’innovazione attraverso questi organismi. Devono essere loro a presentare casi d’uso concreti, evidenze e modelli applicativi nei congressi e nei momenti formativi.

C’è poi un elemento decisivo: il peer-to-peer. I professionisti si fidano dei colleghi. Quando un medico racconta la propria esperienza reale con una soluzione di AI, il messaggio è molto più efficace di qualsiasi proposta commerciale. L’adozione passa quindi da competenze diffuse, validazione scientifica e testimonianze tra pari».

Quando si introduce una tecnologia nuova della portata dell’AI, uno dei nodi è passare dalla teoria alla pratica, andando anche a misurare i risultati. Quali KPI o metriche dovrebbero adottare i manager sanitari per valutare l’impatto reale dell’AI su efficienza, qualità delle cure e sostenibilità?

«Il primo KPI, oggi, è misurare sia i successi sia i fallimenti. Attorno all’intelligenza artificiale c’è molto entusiasmo, ma bisogna capire anche dove non funziona.

Non esistono indicatori unici validi per ogni applicazione: dipende dall’ambito d’uso. Restano fondamentali i KPI classici, come il ritorno dell’investimento, i fattori di successo operativi, la riduzione dei tempi, il miglioramento della produttività, l’appropriatezza clinica e la soddisfazione degli utenti.

Attorno all’intelligenza artificiale c’è molto entusiasmo, ma bisogna capire anche dove non funziona

In sanità gli impieghi dell’AI sono molto diversi tra loro: chatbot, efficientamento dei processi, supporto clinico, gestione documentale. Per questo il metodo migliore è quello del launch and learn: partire in piccolo, sperimentare, osservare i risultati e correggere progressivamente.

I sistemi sanitari sono sistemi complessi. Per questo dico che dobbiamo comportarci più come piloti di aliante che come piloti di linea: sapere da dove partiamo e dove vogliamo arrivare, adattandoci però alle condizioni che emergono durante il percorso».

Nel libro lei insiste sulla digital leadership come fattore critico. Quali competenze devono sviluppare oggi i dirigenti sanitari per governare l’AI non solo come tecnologia, ma come driver di trasformazione organizzativa ed etica?

«Serve innanzitutto una leadership capace di lavorare in team multidisciplinari. Nelle grandi aziende sanitarie non basta più il Chief Information Officer: servono competenze cliniche, legali, organizzative e analitiche integrate. In molti contesti sono necessari anche ruoli dedicati all’intelligenza artificiale.

Anche nelle aziende più piccole serve comunque un nucleo di competenze che unisca tecnologia, dati e compliance

Occorre coinvolgere figure come il Data Protection Officer, il legale interno, data analyst e professionisti sanitari che facciano da “clinical evangelists”: primari, direttori di struttura, professionisti credibili che accompagnino il deployment sul campo.

Anche nelle aziende più piccole serve comunque un nucleo di competenze che unisca tecnologia, dati e compliance. Senza questo presidio le resistenze non si superano, perché il primo timore del clinico è la responsabilità professionale.

E qui c’è un punto cruciale: la normativa europea sull’AI attribuisce precise responsabilità ai cosiddetti deployer, cioè alle organizzazioni che acquistano e introducono questi sistemi. Ciò significa obbligo di formazione del personale, utilizzo responsabile e governance interna adeguata.

Per i direttori generali e i dirigenti sanitari la sfida non è più scegliere se occuparsi di AI, ma farlo in modo strutturato, competente e tempestivo».

Può interessarti

Carlo M. Buonamico
Carlo M. Buonamico
Giornalista professionista esperto di sanità, salute e sostenibilità