Opportunità e sfide dell’AI affrontate con entusiasmo al Secondo Annual Meeting SIAAM

“AI nella Sanità Italiana: mettere radici per una foresta di idee”. Questo il titolo dell'evento della Società Italiana di Intelligenza Artificiale in Medicina, che si è tenuto sabato 30 novembre a MIlano

La foresta di idee promessa dal titolo dell’evento è stata piantata: sabato pomeriggio nella cornice della LUISS a Milano al Secondo Annual Meeting SIIAM (la Società Italiana Intelligenza Artificiale in Medicina), tantissimi esperti si sono susseguiti sul palco, confrontandosi con la ricca (e giovane) platea. Una giornata piena di entusiasmo fin dall’inizio, quando il vicepresidente Francesco Andrea Causio ha ricordato al pubblico quanto sia importante continuare a divertirsi lavorando.

«Un nostro socio mi ha ringraziato, dicendo che da quando è iscritto alla nostra società scientifica ha ritrovato l’entusiasmo per il suo lavoro – ha raccontato in apertura il presidente SIIAM Luigi De Angelis – Come gruppo ci piacerebbe davvero dare a tutti questa possibilità ed oggi facciamo un passo in questa direzione».  

Cosa manca all’Italia

Affinché l’intelligenza artificiale sia realmente integrata in sanità, serve innanzitutto ricerca clinica: «Dobbiamo avere modelli più solidi dal punto di vista metodologico, abbandonando gli studi retrospettivi e concentrandoci su quelli prospettici – ha affermato Eugenio Santoro, Responsabile del Laboratorio di Informatica Medica all’Istituto di Ricerche Farmacologiche Mario Negri di Milano -. Servono poi raccomandazioni e linee guida da parte di istituzioni e società scientifiche, perché le normative non bastano». E infine, la formazione: «Sono ancora tanti i medici che hanno una scarsa conoscenza dell’intelligenza artificiale», commenta il ricercatore.

Carlotta Cattaneo, Chief Innovation Officer CDS – La Tua Casa della Salute di Genova, ha evidenziato le difficoltà dell’integrazione tra pubblico e privato: «Dobbiamo seguire il principio della collaborative governance: il valore per il cittadino può essere creato dall’interazione tra pubblico e privato. Spesso si guarda con sospetto a questo tipo di collaborazione: è importante definire con attenzione il perimetro e le regole del gioco».

Per riuscirci, le sfide sono tante. E se attività come formazione, R&S e linee guida sono a bassa complessità, diverso è parlare di presa in carico del paziente a livello territoriale, la gestione pubblico-privata di strutture, reparti e ambulatori, oppure di piattaforme AI per la condivisione di dati. «Quando si parla di costruzione di percorsi integrati, la strada è ancora lunga – ha chiosato Cattaneo -. Le difficoltà principali sono la mancata capacità di costruire business model complessi e elaborare strategie di ritorno dell’investimento, la carenza di capacità manageriali e innovative, l’assunzione del rischio finanziario, che secondo me non dovrebbe essere in capo al solo privato, e la condivisione reale delle risorse».

Basta parlare di uomini versus macchine, iniziamo a pensare a cosa possono fare gli uomini con le macchine

Durante il Congresso è poi stato capovolto un paradigma: «Basta parlare di uomini versus macchine, iniziamo a pensare a cosa possono fare gli uomini con le macchine», ha affermato Paolo Soda, Ordinario di Sistemi di Elaborazione delle Informazioni all’Università Campus Bio-Medico di Roma. Un esempio? La keayboard liberation: «Finora siamo abituati a un medico che trascrive quanto gli stiamo dicendo. L’intelligenza artificiale potrebbe essere utilizzata per trascrivere questo dialogo. Questo semplice cambiamento potrebbe cambiare radicalmente il rapproto medico-paziente: il camice bianco sarebbe infatti concentrato solo su di noi».

Il Large Language Model italiano

A fine novembre è stato presentato il primo LLM italiano: si chiama Minerva 7B ed è stato realizzato alla Sapienza di Roma. «Si tratta di un modello aperto, che rende cioè disponibili i dati utilizzati per l’addestramento, il modo con cui è stato costruito e il codice», ha ricordato Roberto Navigli, Ordinario del Dipartimento di Ingegneria Informatica dell’Università romana.

Oggi non sono in molti, i LLM aperti: i più famosi, come Claude, Gemini o ChatGPT sono chiusi, altri permettono invece di scaricare le matrici sottostanti la rete neurale, ma senza fornire la documentazione completa per replicare il processo e i dati utilizzati per l’addestramento. «Minerva invece è aperta, controllabile, perché è stata pre-addestrata da zero, quindi si può interveniere in ogni fase. È stata costruita su un insieme di 580mila informazioni su attività diverse ed è consapevole della sicurezza: abbiamo cercato di minimizzare la generazione di contenuti offensivi», ha proseguito Navigli.

Trattandosi di un LLM italiano e open sviluppato da un’istituzione pubblica, secondo gli esperti sarebbe importante preservare il know-how italiano, utilizzando Minerva per la Pubblica Amministrazione. «In ambito sanitario, si può usare come supporto alla prevenzione e alla diagnosi, ma anche per la formazione degli studenti di medicina e, in futuro, per attività a supporto della ricerca, come la sintesi automatica della letteratura scientifica o l’assistenza nella stesura dei protocolli di ricerca».

La regolamentazione dell’intelligenza artificiale

Da alcuni anni si discute su come riuscire a regolamentare una tecnologia così potente: se l’approccio statunitense punta al liberalismo spinto, l’Europa, più prudentemente, sta cercando di bilanciare la spinta all’innovazione con la tutela dei cittadini. «Sia l’IA ACT, sia la legge sullo spazio europeo dei dati sanitari attualmente in discussione vanno in questa direzione – ha puntualizzato Fidelia Cascini, docente di Igiene Generale e Applicata all’Università Cattolica del Sacro Cuore -. In questo momento in Europa abbiamo tante opportunità, ma anche molte protezioni che altrove non esistono».

«Spesso si pensa che gli aspetti normativi siano un ostacolo all’innovazione, ma se si guarda ai regolamenti europei, si nota che il legislatore per quanto riguarda la sanità digitale ha a cuore il mercato, il business e la crescita economica – ha proseguito Cascini -. Se in questo senso mi posso dire ottimista, non lo sono altrettanto per quanto riguarda l’uso secondario del dato sanitario, che servirà per la ricerca. Credo che in quest’ambito molto spetterà agli scienziati».

Luca Bolognini, Presidente dell’Istituto Italiano Privacy, ha acceso i riflettori sul tema della responsabilità: «Che cosa succederà al medico che andrà contro il parere dell’intelligenza artificiale, convinto a essere nel giusto ma sbagliando? Il principio dello human oversight, che prevede che sia il clinico ad avere l’ultima parola, è giusto, in astratto, ma dovremo capire come sarà interpretato dalla giurisprudenza. Davanti a un evento infausto il suo gesto sarà visto come un aggravante o un attenuante?».

Utilità dell’AI in sanità, oltre la “trappola” dell’hype

Come tutte le innovazioni, anche l’AI rischia di incorrere nella cosiddetta “trappola” dell’hype, che si verifica quando un’innovazione tecnologica viene circondata da aspettative irrealistiche, spesso alimentate da una promozione eccessiva. Questo entusiasmo può distogliere l’attenzione dalle sfide pratiche e dai bisogni reali, rallentando l’adozione consapevole della tecnologia e rischiando di generare delusioni quando i risultati non sono all’altezza delle promesse. Come si può aggirare questo rischio?

Una prima risposta sta nella conoscenza dell’AI e nella valutazione accurata della sua utilità eventuale in campo medico. Sottolinea Patrizio Armeni (SDA Bocconi): «Di fronte a queste sfide, partire dai bisogni concreti degli operatori sanitari è fondamentale per identificare le reali difficoltà operative e valutare se e in che modo l’intelligenza artificiale possa fornire un contributo significativo. Non si tratta di proporre soluzioni preconfezionate, ma di comprendere a fondo i problemi che i medici e altri professionisti affrontano nel loro lavoro quotidiano. L’ascolto attivo e il dialogo con i professionisti sanitari rappresentano un passaggio essenziale: occorre indagare non solo ciò di cui hanno bisogno, ma anche il modo in cui una tecnologia come l’AI può inserirsi nei loro processi, senza appesantirli o introdurre complessità inutili. Questo approccio consente di verificare l’effettiva utilità delle soluzioni proposte, garantendo che siano in linea con le esigenze cliniche e organizzative reali».

Non si tratta di proporre soluzioni preconfezionate, ma di comprendere a fondo i problemi che i medici e altri professionisti affrontano nel loro lavoro quotidiano

La valutazione delle possibili soluzioni di AI in sanità deve poggiare anche sulle analisi di Health Technology Assessment (HTA). Sul punto, rispondendo alle numerose domande dei partecipanti al meeting, il presidente della Società Italiana di HTA (SiHTA), Giandomenico Nollo, ha sollecitato la collaborazione tra medici ed esperti di HTA, per integrare al meglio l’aspetto clinico nei processi decisionali, valutandone l’impatto su pazienti, medici, liste d’attesa e possibilità diagnostiche. Inoltre ha chiarito: «L’avanzare dell’AI non implica la scomparsa delle professioni mediche, bensì una loro trasformazione. Per affrontare questo cambiamento, è necessario sviluppare percorsi di formazione dedicati all’interazione tra medico e macchina, preparandoli a nuove modalità di lavoro».

Cruciale la formazione anche per Margherita Daverio (Università LUMSA, Palermo), che ha concluso il meeting riportando l’attenzione sui Large Language Models e sulla loro integrazione nella cura, sottolineando le nuove sfide etiche: «È necessario comprendere come gli LLMs prendono le decisioni per rispondere alle domande degli utenti, per un uso appropriato nella relazione medico-paziente, informazione e comunicazione, per evitare il fenomeno dell’automation bias (ossia la tendenza a fidarsi ciecamente delle decisioni proposte da sistemi automatizzati), e coinvolgere ed educare i pazienti che potrebbero interagire con i LLMs, fornendo loro strumenti per un uso consapevole. Infine, è fondamentale affrontare le sfide legate alla cybersicurezza, assicurando la protezione dei dati sensibili e il rispetto della privacy».

Può interessarti

Michela Perrone
Giornalista pubblicista