Quando si parla di intelligenza artificiale (AI) in medicina, a fare davvero la differenza non è quanto ne sappiamo, ma quanta fiducia abbiamo nel sistema sanitario e in chi ci lavora. È quanto suggerisce uno studio pubblicato su Jama Network Open che ha coinvolto circa 2.000 adulti statunitensi per capire se si sentano al sicuro sapendo che cliniche e ospedali usano l’AI: i risultati mostrano che la fiducia — o la mancanza di essa — pesa più della conoscenza tecnica. Secondo i dati raccolti tra giugno e luglio 2023, oltre il 65% dei partecipanti ha dichiarato di non fidarsi dell’AI anche se usata in modo responsabile e il 58% dubita che i sistemi sanitari siano in grado di proteggere le persone da potenziali danni legati all’uso di queste tecnologie. A influenzare davvero la fiducia nell’intelligenza artificiale in ambito sanitario non è tanto quanto ne sappiamo, ma quanto crediamo nel sistema nel suo complesso. Curiosamente, sapere come funziona l’AI o avere un buon livello di alfabetizzazione sanitaria non sembra fare grande differenza.
Per gli autori dello studio, la strada è chiara: serve una comunicazione più efficace, soprattutto ora che l’AI avanza velocemente.
A TrendSanità ne abbiamo parlato con Federico Cabitza, professore di Interazione Uomo-Macchina all’Università degli Studi Milano-Bicocca e IRCCS Ospedale Galeazzi – Sant’Ambrogio.
Quanto ci si fida dell’AI in ambito clinico-sanitario?
«L’elemento centrale è in realtà la fiducia che le persone nutrono nel sistema sanitario, o meglio ancora, nelle organizzazioni (cliniche, ospedali o azienda sanitaria) che adottano questi strumenti. Molto di più – ed è sorprendente, in un certo senso – rispetto ad altri fattori come la familiarità con l’intelligenza artificiale, la conoscenza tecnica o anche il livello di alfabetizzazione informatica generale.

Posso confermare, anche sulla base della mia esperienza come ricercatore sul campo, quanto siano rilevanti le esperienze pregresse di disservizi o discriminazioni che alcune persone hanno vissuto da parte di chi ha adottato sistemi di AI.
Mi riferisco, ad esempio, a situazioni in cui ci si è sentiti esclusi dal percorso di cura o trattati in modo ingiusto. Il punto è che quando entra in gioco un sistema automatizzato, questo può apparire ancora più impersonale e rigido.
Un’organizzazione fatta di persone, per quanto possa sbagliare, lascia comunque spazio alla possibilità di appellarsi, fare un reclamo, magari arrivare a un contenzioso.
Con un sistema “intelligente”, invece, si ha spesso la percezione che la decisione sia definitiva, quasi indiscutibile. E questo può aumentare la frustrazione.
Quindi, per rispondere in modo diretto: se il sistema umano ha già deluso una persona, è comprensibile che quella persona fatichi a fidarsi del suo “prolungamento tecnologico”».
Come superare questo ostacolo?
«Nell’articolo pubblicato su Jama Network Open emerge un dato tutt’altro che scontato, anzi, quasi controintuitivo: né la conoscenza dell’intelligenza artificiale né l’alfabetizzazione sanitaria sembrano influenzare in modo diretto la fiducia dei pazienti. In diverse occasioni ho sostenuto che maggiore è la conoscenza, maggiore è la fiducia. Ma quando si parla di persone in carne e ossa ci si rende conto che non si tratta solo di informazione, ma soprattutto di relazione.
Se un paziente si sente ascoltato e trattato con rispetto, sarà molto più propenso a fidarsi anche di tecnologie complesse come l’intelligenza artificiale
Naturalmente non sto dicendo che la conoscenza non conti, ma ha un ruolo indiretto. Conoscere meglio questi strumenti aiuta a capire come e perché sono prese certe decisioni e riduce quel senso di “opacità” di cui spesso si parla nella letteratura scientifica, la percezione cioè che l’AI sia una scatola nera di cui non si comprendono i meccanismi.
È importante essere in grado di dialogare con chi ci cura, poter chiedere spiegazioni, confrontarsi anche sugli input che arrivano dall’AI e, soprattutto, decidere insieme. Si parla proprio di co-decision making, un processo condiviso nella scelta del percorso terapeutico.
Alla fine, tutto si riconduce a un elemento centrale: la relazione medico-paziente. La fiducia nello strumento passa attraverso la fiducia nella persona che lo utilizza. Il paziente deve sentire che è un essere umano – non una macchina – ad avere il controllo.
E ciò significa che i professionisti sanitari devono essere formati, non solo sul piano tecnico, ma anche su come comunicare tutto questo in modo chiaro e rassicurante alle persone».
I professionisti sanitari sono pronti a gestire questi strumenti?
«Credo sia fondamentale che i medici non solo sappiano come funziona l’AI, ma soprattutto che siano in grado di spiegarla. Devono saper mediare tra ciò che l’algoritmo suggerisce e ciò che il paziente sa o ha vissuto in prima persona. Naturalmente, questo richiede che l’AI sia utilizzata con senso di responsabilità, che non vuol dire solo “usarla bene” dal punto di vista tecnico, ma anche essere consapevoli dei suoi limiti e dei suoi rischi. Spesso mi viene chiesto da parte dei medici con cui collaboro cosa significa usare l’intelligenza artificiale in modo etico o responsabile.
Per me, le due cose coincidono. Più che un’etica dei principi, basata su valori astratti, credo in un approccio pragmatico, l’“etica delle conseguenze”.
Significa farsi domande concrete: quali vantaggi e svantaggi comporta questa tecnologia? Quali sono i costi e i benefici reali? E, soprattutto, chi li sostiene? Perché sì, i costi economici possono anche essere distribuiti su tutta la comunità, ma i costi in termini di ansia, disagio o stress li vive il paziente, che si trova in una condizione di vulnerabilità. Ecco perché i medici devono essere preparati a comunicare tutto questo con chiarezza e sensibilità, anche quando si affidano al supporto dell’AI».
In Italia, quanto è diffusa l’AI nella pratica clinica?
«Dalla mia esperienza, devo dire che siamo ancora lontani. Sono ancora pochissimi gli ospedali, sia pubblici che privati, che utilizzano davvero l’AI all’interno dei processi di cura. E quando parlo di “processi di cura”, intendo proprio l’impiego dell’AI nella diagnosi, nella pianificazione terapeutica, nella gestione dei farmaci, ma anche nella prognosi o, ad esempio, per stabilire chi debba essere inserito in un programma di monitoraggio o follow-up.
In sanità — almeno quando si parla di supporto alle attività cliniche classiche, come diagnosi, terapia, monitoraggio e prevenzione — non si può utilizzare qualunque sistema di AI.
L’intelligenza artificiale, in questi contesti, deve essere certificata come dispositivo medico. Non basta che sia marcata CE come semplice software: deve rispondere ai requisiti imposti dal regolamento europeo sui dispositivi medici, che è molto rigoroso.
In sanità — quando si parla di supporto alle attività cliniche classiche, come diagnosi, terapia, monitoraggio e prevenzione — l’AI deve essere certificata come dispositivo medico
Stiamo parlando di una certificazione che richiede studi clinici, test di validazione, insomma un iter simile a quello dei farmaci. Non basta scaricare un’app, servono strumenti sviluppati da aziende specializzate, che abbiano le risorse e le competenze per affrontare l’intero percorso di sviluppo, addestramento, certificazione e validazione. Si richiede un livello di sicurezza e di efficacia che va ben oltre quello a cui siamo abituati con gli strumenti digitali diffusi nel mondo aziendale. Ed è anche per questo che, oggi, i sistemi effettivamente in uso sono ancora pochi».
C’è anche un problema di disponibilità dei dati?
«Certamente. Questi sistemi hanno bisogno di essere addestrati con dati clinici affidabili e ben strutturati, ma il livello di digitalizzazione degli ospedali italiani, soprattutto per quanto riguarda i processi di cura, è ancora piuttosto basso. Non sono molti, infatti, gli ospedali che dispongono di una cartella clinica informatizzata realmente integrata con tutti gli strumenti, come i sistemi di prescrizione farmacologica, gli esami di laboratorio, le immagini radiologiche, o i cosiddetti PACS (sistemi informativi radiologici): la diffusione della tecnologia digitale in sanità è ancora limitata.
C’è un punto che considero davvero fondamentale: è necessario aggiornare i curricula universitari e quelli delle scuole di specializzazione affinché i medici possano comprendere meglio come utilizzare le nuove tecnologie e, soprattutto, come spiegarle ai propri assistiti. Altrimenti, diventa uno strumento che non sviluppa mai appieno il suo potenziale».
Esiste un problema di equità nei dati su cui l’IA è addestrata?
«La preoccupazione è che un sistema automatizzato, che si basa su dati pregressi, finisca per “ereditare” le stesse distorsioni e ingiustizie già presenti nei dati di partenza.
Quindi, se i dati su cui si addestra contengono bias o pregiudizi, anche l’AI finirà per replicarli. Invece di correggere le disuguaglianze, rischia di rafforzarle.
Perché dietro ogni algoritmo c’è sempre un essere umano. L’AI ha un grande potenziale e diversi studi lo dimostrano. Ogni ricerca però va contestualizzata: è difficile generalizzare i risultati di uno studio condotto, ad esempio, negli Stati Uniti, a realtà sanitarie profondamente diverse, come quelle europee o italiane.
Un punto importante, ad esempio, è che i sistemi di intelligenza artificiale devono essere testati in modo trasparente, verificando come si comportano quando si applicano a gruppi demografici diversi.
Spesso sono addestrati su dati relativi a soggetti caucasici, ma poi sono utilizzati anche in ambienti caratterizzati da una forte diversità etnica. Anche in Italia questo rischio è reale. Parliamo di una quota non trascurabile — fino al 10% della popolazione — che potrebbe non somigliare per nulla ai casi medici utilizzati per addestrare i sistemi di intelligenza artificiale.
L’AI, percepita come imparziale, può invece amplificare le discriminazioni se si basa su dati che contengono bias o pregiudizi
Il paradosso è che spesso l’AI è percepita come uno strumento oggettivo, imparziale, più preciso, in grado di “dire le cose come stanno” senza le incertezze dell’elemento umano. Invece, si rischia di riprodurre, se non aggravare, vere e proprie forme di discriminazione.
La questione non riguarda solo i dati o gli algoritmi. È anche un tema politico e sociale. I gruppi minoritari, le persone più vulnerabili o storicamente escluse, devono aver voce nella definizione delle politiche che regolano l’uso dell’intelligenza artificiale».
Cosa intende per politico?
«Penso ai comitati etici, ai gruppi di valutazione, alle associazioni dei consumatori e dei pazienti. È lì che dobbiamo concentrare l’attenzione, perché serve rafforzare la componente umana.
Se la tecnologia non rafforza la cura, la relazione e l’equità, allora non stiamo innovando: stiamo solo sostituendo
L’intelligenza artificiale, di per sé, non esiste in modo autonomo. È uno strumento che vive e prende forma all’interno di quello che noi tecnici chiamiamo un sistema sociotecnico: un intreccio tra tecnologie, processi organizzativi, norme politiche e dinamiche umane.
E tra tutte queste componenti, quella umana è la più delicata. Per me, adottare l’intelligenza artificiale in modo serio e maturo significa usarla per migliorare le relazioni. La relazione tra medico e paziente, tra colleghi, tra chi cura e chi gestisce.
Sì, detta così può sembrare un’utopia. Ma in realtà è l’obiettivo che dovremmo porci per dare un senso al cambiamento che queste tecnologie inevitabilmente portano con sé. Un cambiamento che costa fatica, risorse e denaro.
O ci poniamo questo obiettivo ambizioso ma possibile o rischiamo di investire solo nella tecnologia. Ma se la tecnologia non rafforza la cura, la relazione e l’equità, allora non stiamo innovando: stiamo solo sostituendo».