L’antimicrobico-resistenza continua a essere una delle minacce globali più serie per la salute. Batteri sempre più resistenti agli antibiotici mettono in crisi sistemi sanitari, percorsi di cura e strategie di prevenzione, rendendo urgente lo sviluppo di nuovi strumenti per la diagnosi, la sorveglianza e la scoperta di farmaci efficaci. Negli ultimi anni, tra le possibili risposte a questa sfida, si è fatta strada l’intelligenza artificiale, che promette di accelerare la ricerca scientifica e di migliorare la gestione clinica delle infezioni resistenti.
Un recente lavoro, pubblicato su Expert Review of Anti-infective Therapy, analizza opportunità e limiti dell’uso dell’AI nella lotta alla resistenza antimicrobica. Dalla scoperta di nuovi antibiotici alla sorveglianza dei patogeni, fino ai sistemi di supporto alle decisioni cliniche, le applicazioni dell’intelligenza artificiale stanno moltiplicandosi. La loro adozione su larga scala però è ancora lontana. Restano aperti aspetti critici come la qualità e la trasparenza dei dati utilizzati per addestrare gli algoritmi, la necessità di modelli comprensibili per i clinici, l’accesso alle infrastrutture digitali e la definizione di un quadro etico e regolatorio ben definito. L’AI, sottolineano gli autori, non può sostituire il ragionamento clinico, ma deve affiancarlo, rafforzando l’antimicrobial stewardship e rendendo le decisioni terapeutiche più informate e tempestive.
A che punto siamo nell’integrazione dell’AI nella pratica clinica e quali passi sono necessari?
Ne parliamo a TrendSanità con Daniele Roberto Giacobbe, professore associato di Malattie infettive, Dipartimento di Scienze della Salute, Università di Genova, Specialista in Malattie infettive, IRCCS Azienda Ospedaliera Metropolitana, Genova, Co-presidente del gruppo di esperti ESGAID (Accesso digitale, equità e sviluppo delle capacità) e primo autore dello studio. Cerchiamo di capire a che punto siamo nell’integrazione dell’AI nella pratica clinica e quali passi sono necessari affinché questa tecnologia diventi uno strumento sicuro ed efficace nella lotta contro la resistenza agli antibiotici.
Quando la ricerca non basta. Le barriere all’uso clinico dell’intelligenza artificiale
«Più che ostacoli li chiamerei necessità, ad esempio necessità di validazione appropriata – risponde Giacobbe. Molti modelli sono stati testati preliminarmente e hanno mostrato di essere promettenti, ma questo non basta quando si ha a che fare con decisioni le cui conseguenze hanno un impatto significativo sulla salute dei pazienti. Un modello promettente deve essere testato nuovamente (validato) su dati di pazienti necessitanti terapia antibiotica diversi da quelli su cui si è mostrato promettente, per vedere se la performance può essere generalizzata e quindi il buon funzionamento può conseguentemente essere atteso anche su altri pazienti, come quelli incontrati nella pratica clinica quotidiana. Successivamente, il modello deve essere testato sperimentalmente in uno studio interventistico, ovvero confrontando se la cura migliora utilizzando il supporto del modello piuttosto che non utilizzandolo, previa approvazione della conduzione dello studio da parte del comitato etico pertinente e utilizzando un disegno di studio che garantisca la massima qualità di evidenza scientifica.

Tutto ciò richiede tempo. Anche se tutti vorremmo subito avere a disposizione strumenti che hanno potenzialità di migliorare la cura, tali potenzialità vanno dimostrate in modo scientificamente rigoroso, così come vanno studiati in modo rigoroso i possibili “effetti collaterali”, ad esempio, il rischio di suggerimenti sbagliati o incompleti, anche quando il loro numero atteso è basso, per riconoscerli ed evitarli. Tutto ciò introduce un’altra necessità, quella di definire chiaramente le basi etiche e giuridiche della responsabilità in caso di errore da parte del modello. Vi sono poi necessità a livello di strutture, interoperabilità e flusso di dati, che permettano a tali modelli, una volta implementati, di funzionare correttamente, velocemente in linea con le necessità cliniche, e nel pieno rispetto della privacy. Nel complesso, ritengo ci siano evidenti potenzialità e che sia conseguentemente verosimile che un giorno la nostra pratica clinica quotidiana verrà pervasa da strumenti di intelligenza artificiale capace di aiutarci a combattere meglio l’antimicrobicoresistenza, ma per arrivare a ciò non va sacrificato il rigore scientifico e non vanno trascurate le necessità tecniche, etiche, giuridiche, strutturali e organizzative».
Come rendere l’AI uno strumento credibile per la prescrizione degli antibiotici
«Si tratta di un tema complesso. Il ragionamento clinico implica una dinamicità con diversi passaggi logici che portano ad una diagnosi di malattia infettiva o ad una terapia antibiotica. Gli studi clinici classici che ci aiutano a capire quale antibiotico scegliere forniscono in genere una “spiegazione” di quali sono i fattori (gravità clinica, precedenti infezioni da microorganismi resistenti, condizioni cliniche che predispongono a certe infezioni) che determinano una scelta terapeutica. Seppure anche in tali studi classici non sia in genere dimostrata una causalità, ma spesso solo un’associazione di certi fattori con il rischio di una determinata infezione o di un determinato agente eziologico, i medici ritrovano una plausibilità delle associazioni in linea con il ragionamento clinico.
Ad esempio, è fisiopatologicamente plausibile che, pazienti che hanno già avuto infezioni da microorganismi multiresistenti, in caso di una nuova infezione grave per cui deve essere avviata una terapia antibiotica empirica prima di arrivare all’identificazione dell’agente eziologico, abbiano un rischio maggiore che la nuova infezione sia causata nuovamente da un microorganismo multiresistente, e questo influenza la scelta della terapia antibiotica empirica».
Il nodo della “black box” e dell’intelligenza artificiale spiegabile
«Con alcuni modelli di intelligenza artificiale, comunemente detti “black box”, anche se potenzialmente più accurati nel dare suggerimenti rispetto ai modelli classici, i fattori di cui sopra non vengono identificati – spiega Giacobbe – pertanto viene data al clinico, per quanto accurata, solo una probabilità che l’infezione sia data da un microorganismo multiresistente, senza “spiegare” quali fattori sono importanti nel determinare tale rischio, e il medico può essere di conseguenza disorientato e scettico.
Modelli AI “black box” offrono probabilità senza spiegazioni, generando scetticismo mentre l’AI spiegabile può chiarire i fattori decisionali
In parte tale scetticismo è un atteggiamento corretto, perché non sapere quali sono i fattori determinanti può anche precludere l’identificazione di un fattore implausibile e quindi l’identificazione di un errore nel suggerimento, che con i modelli classici porta a rivalutare un attimo il caso e prendere una decisione più corretta. Anche per questo è in voga l’“intelligenza artificiale spiegabile” cioè un insieme di tecniche che permettono di provare a “spiegare”, cioè a dirci quali sono i fattori che determinano la probabilità che ci viene comunicata da un modello “black box”.
Tali tecniche cercano di mimare quel che accade con i modelli classici, ma la spiegazione in molti casi non è ancora così accurata come si vorrebbe, e tali tecniche sono quindi in evoluzione e continuo miglioramento. Vi sono poi alcune correnti di pensiero che fanno notare come modelli di intelligenza artificiale complessi potrebbero riuscire a predire molto bene il rischio di una certa infezione o di un certo agente eziologico senza potere essere totalmente spiegabili. Naturalmente, questo è un altro campo di ricerca molto attivo con diverse implicazioni tecniche, etiche, giuridiche, e anche filosofiche».
Medici e intelligenza artificiale. Collaborazione, non sostituzione
«Potrà sembrare una risposta banale, ma come quasi tutte le nuove tecnologie molto dipende da come la svilupperemo e la implementeremo – continua Giacobbe. Se gli aspetti essenziali di formazione dei futuri medici alla comprensione e all’utilizzo di tali sistemi nelle decisioni cliniche verranno ignorati o non valorizzati adeguatamente, ci troveremo di fronte a nuove generazioni che non conosceranno né i limiti né le potenzialità di tali sistemi.
Alcuni aspetti tecnici, scientifici, etici e giuridici devono essere ancora ottimizzati ma conviene farsi trovare pronti
Questo darebbe credito a chi vede un’intelligenza artificiale che ci sostituisce mentre, invece, io vedo delle potenzialità incredibili nel medico formato a comprendere come questi sistemi funzionano, quando e perché possono sbagliare, e come sfruttarli per aumentare la propria capacità decisionale in modo che la combinazione medico più AI sia sempre migliore dei due addendi singolarmente.
Vale per tutta la medicina, ma per la gestione delle infezione resistenti può portare a diagnosi più precoce, tassi di terapia appropriata incrementati, e miglioramento delle cure».
Sanità digitale in ritardo. AI promessa prematura o spinta al cambiamento?
«Le potenzialità sembrano indubbie e ciò sicuramente spinge verso l’implementazione. Tuttavia, le necessità discusse precedentemente rappresentano attualmente un freno che tutto sommato non è un aspetto totalmente sfavorevole in quanto alcuni aspetti tecnici, scientifici, etici e giuridici devono essere ancora ottimizzati, a mio avviso. Questo deve essere però una leva, senza procrastinare troppo l’inizio della trasformazione digitale; le necessità di cui sopra ci danno un po’ di tempo per prepararci strutturalmente, ma conviene farsi trovare pronti».
Il rischio dell’“effetto pilota automatico” e quanto affidarsi agli algoritmi
«Questo è un altro tema cruciale. La necessità di delineare bene gli aspetti legali ed etici di responsabilità clinica è già stato discussa e non ritengo che i sistemi di supporto alla prescrizione antibiotica possano e debbano essere implementati e utilizzati prima che il confine sia definitivamente e precisamente delineato da un punto di vista giuridico. La domanda mi permette tuttavia di evidenziare un altro tema fondamentale, quello del ragionamento clinico condiviso con l’intelligenza artificiale. Ciò rappresenta una novità che è anche uno dei campi attivi di ricerca del nostro gruppo a Genova. In breve, diversi sistemi di intelligenza artificiale non suggeriscono semplicemente al medico un determinato antibiotico, ma, nel nostro stesso linguaggio, accompagnano il ragionamento dai primi sintomi all’interpretazione dei risultati degli esami, e dalle considerazioni sull’anamnesi del paziente fino a quelle su cui si basa la scelta di un determinato antibiotico.
La novità sta quindi in un’interazione continua tra medico e intelligenza artificiale lungo tutto il ragionamento clinico, che pertanto ha ora due componenti invece che solo una, e le conseguenze in termini di vantaggi e svantaggi di questo nuovo ragionare insieme non sono state ancora studiate approfonditamente. Abbiamo chiamato questa condizione “shared reasoning fragility” (fragilità del ragionamento condiviso), in cui il termine fragilità non è necessariamente una limitazione, ma sottolinea la novità di tale condizione e la necessità di studiare approfonditamente questo nuovo processo. Ritengo ciò sia cruciale anche per capire bene e meglio quando, in questo viaggio condiviso, un medico potrebbe protendere verso fidarsi eccessivamente dell’algoritmo, una cosa che deve essere evitata per non perdere tutti i vantaggi cui può portare un ragionamento condiviso attivo in termini di miglioramento delle cure per i pazienti».







