Intelligenza artificiale in sanità, oggi e domani

L’Organizzazione Mondiale della Sanità ha prodotto delle linee guida etiche e di governance per l’uso dell’intelligenza artificiale in ambito sanitario. È la reale efficacia in ambito clinico, più ancora dei problemi etici, il tema cruciale oggi. Ne parliamo con Eugenio Santoro, Laboratorio di Informatica Medica, Istituto di Ricerche Farmacologiche Mario Negri Irccs.

L’Organizzazione Mondiale della Sanità (Oms) ha prodotto delle linee guida etiche e di governance per l’uso dell’intelligenza artificiale in sanità. È la reale efficacia in ambito clinico, più ancora dei problemi etici, il tema cruciale oggi per l’introduzione di questo tipo di sistemi in ospedale: il punto con Eugenio Santoro, responsabile del Laboratorio di Informatica Medica dell’Istituto di Ricerche Farmacologiche Mario Negri Irccs, tra i massimi esperti del settore a livello nazionale.

Eugenio Santoro“Attualmente, i programmi più usati nell’ambito della salute, e in particolare durante la pandemia, sono i cosiddetti chatbot o assistenti virtuali: si tratta di sistemi di machine learning che imparano dai dati già accumulati per rispondere ai pazienti – spiega Santoro -. Si tratta di applicativi del tutto simili a delle banche o delle assicurazioni sanitarie, che se ne servono come filtro per gestire meglio le chiamate. Durante la pandemia, alcune regioni hanno affiancato ai call center un assistente virtuale cui i cittadini potevano indicare i propri sintomi; a quel punto il sistema decideva, sulla base di queste informazioni e di dati già raccolti in precedenza, ad esempio se inviare il paziente al pronto soccorso o passare la chiamata a un medico o, ancora, tranquillizzarlo. Sistemi del genere iniziano a essere usati soprattutto in Inghilterra per fare da filtro alle chiamate dei pazienti che necessitano di una prestazione sanitaria: tutto sommato questo tipo di sistema presenta anche limitati problemi legati alla validità del software stesso”.

Possibili applicazioni in campo sanitario e criticità

L’uso dei sistemi di intelligenza artificiale e machine learning non è infatti esente da criticità, soprattutto dal punto di vista etico e di affidabilità. Ed è proprio laddove sono maggiormente disponibili prove di efficacia che è ipotizzabile un’implementazione più immediata di questo tipo di strumenti: “Soprattutto in Cina, con l’evolversi della pandemia sono stati usati sistemi in grado di prevedere quando sarebbe stato raggiunto il picco di occupazione di posti letto in un ospedale: un ottimo modo per sapere per tempo come riorganizzare i servizi. Per l’applicazione di queste tecnologie in ambito gestionale sono richieste meno prove di efficacia: ottimizzare i processi è ben diverso e più facile rispetto a decidere sulla salute dei pazienti”.

Più complessa l’introduzione di questo tipo di sistemi in ambito clinico: “Sotto questo profilo i problemi sono tanti, ad esempio: se il sistema sbaglia la diagnosi o indicazioni sul trattamento da assumere, la colpa di chi è? Di chi ha sviluppato il sistema, del medico che ha seguito le indicazioni del software o, ancora, di chi lo ha commercializzato?”.

Ottimizzare i processi è più facile rispetto alle decisioni cliniche

C’è anche il tema della disuguaglianza. “Gran parte degli algoritmi di machine learning a tutt’oggi ha ancora problemi legati a bias perché ha imparato da casi non standard, ma da ospedali di eccellenza, con pazienti con determinate caratteristiche e da immagini di ottima qualità, mentre, al contrario, lo stato delle cose presuppone l’uso di strumentazioni non sempre aggiornate. Si arriva fino all’assurdo che alcuni sistemi sono in grado di identificare eventuali melanomi della pelle per i cittadini di pelle chiara, in quanto sono stati istruiti solo su quel genere di pazienti e non su quelli con la pelle scura”.

Infine, ma è un requisito fondamentale, sono necessarie maggiori prove a supporto della validità del sistema.

Le prospettive: serve puntare sulla ricerca clinica

La ricerca clinica è il punto su cui, secondo Santoro, si dovranno concentrare le aziende che sviluppano questo tipo di sistemi: “Va bene sviluppare strumenti perfetti dal punto di vita tecnologico, ma non basta. Bisogna misurare innanzitutto l’affidabilità, cioè capire se quando li uso sono sicuri e affidabili oppure commettono errori. Deve essere garantito che i risultati siano almeno pari a quelli del medico: se così non fosse, non ci sarebbe un vantaggio. In alcuni casi è opportuno anche chiedersi se il sistema affiancato al medico sia meglio rispetto al medico da solo. Questi ragionamenti nascondono un concetto ben chiaro: oggi la ricerca tecnologia è avanzatissima e consente di disporre di strumenti avanzatissimi e intelligentissimi, ma ci si ferma lì: non c’è la consuetudine da parte di chi sviluppa a misurare l’impatto in termini di salute, cioè se il sistema sia utile o meno”.

Un processo monco. “Questo aspetto manca perché non c’è l’interesse da parte di chi sviluppa lo strumento, come se dicesse: il mio lavoro è creare lo strumento; una volta fatto, non è più un problema mio. Ma bisogna cambiare la logica: chi sviluppa dovrebbe porsi nell’ottica di sviluppare, non da soli ma in partnership con chi si occupa di ricerca clinica, aziende farmaceutiche e società scientifiche, del passaggio più importante: misurare l’efficacia del sistema, vedere cosa succede sui pazienti”.

Sempre di più quindi, anche in questo settore, dovrà essere presente il concetto di prove di efficacia a supporto dello strumento, senza le quali sarà impossibile che i sistemi siano inseriti in un contesto assistenziale. “Ad esempio la Tac o un altro strumento diagnostico è considerato un dispositivo medico e deve pertanto seguire la relativa regolamentazione e va approvato dagli enti regolatori sulla base dei dati clinici – dice l’esperto -. Cosa c’è di diverso fra software di intelligenza artificiale che fa la diagnosi di un tumore alla mammella e una mammografia? Sono dispostivi medici a tutti gli effetti e come tali devono essere gestiti: non basta che si annunci una novità altamente innovativa che promette di risolvere tutti i nostri problemi per consentire una deviazione dal protocollo”.

L’affidabilità dello strumento è essenziale, ma ancora poco testata

In questa direzione va il nuovo Regolamento sui dispositivi medici entrato in vigore a fine maggio, che prevede che tutti i sistemi di software, compresi quelli di intelligenza artificiale, siano regolamentati in base alla classe di rischio cui vanno incontro i pazienti e indica quali prove e dati devono essere forniti affinché possano essere considerati dispositivi medici. “Fino a poche settimane fa, bastava sviluppare un software, indipendentemente dall’impatto, e fare poco più che un’autocertificazione, senza fornire alcuna prova che potesse funzionare davvero – commenta Santoro -. Finalmente oggi si è cercato di porre rimedio e per i software sono richieste maggiori prove d’efficacia. Così, proprio come la Food and Drug Administration statunitense ha già approvato da un paio d’anni alcuni sistemi di intelligenza artificiale come dispositivi medici, adesso toccherà fare anche all’Agenzia Europea per i Medicinali (Ema) e al Ministero della Salute”.

Inoltre, sono in via di sviluppo a livello nazionale e internazionale, linee guida che si concentrano in particolare sugli aspetti etici.

I nodi etici: l’intelligenza artificiale al servizio dell’uomo

L’Oms ha pubblicato nei giorni scorsi il documento intitolato “Ethics and governance of artificial intelligence for health”, cioè “Etica e governance dell’intelligenza artificiale per la salute”, dopo diciotto mesi di consultazioni tra i massimi esperti di etica, tecnologia digitale, diritto e diritti umani a livello internazionale, nonché di esperti dei Ministeri della Salute. Il principio cardine è che le nuove tecnologie che usano l’intelligenza artificiale sono molto promettenti per migliorare la diagnosi, il trattamento, la ricerca sanitaria e lo sviluppo di farmaci e per supportare i governi che svolgono funzioni di sanità pubblica, compresa la sorveglianza e la risposta alle epidemie, ma è fondamentale che tali strumenti mettano l’etica e i diritti al centro della progettazione, della distribuzione e dell’uso.

A tale scopo, nel documento sono elencati sei principi da osservare per garantire che l’intelligenza artificiale operi nell’interesse pubblico in tutti i Paesi.

  1. Proteggere l’autonomia umana: in ambito sanitario, ciò significa che gli esseri umani dovranno mantenere il controllo dei sistemi e delle decisioni mediche; bisogna tutelare la privacy e la riservatezza dei pazienti, che dovranno fornire un consenso informato adeguato, sulla base dei parametri legali in vigore per la protezione dei dati.
  2. Promuovere il benessere e la sicurezza delle persone e l’interesse pubblico. Chi progetta tecnologie di intelligenza artificiale dovrà soddisfare i requisiti normativi di sicurezza, accuratezza ed efficacia per casi di applicazione o indicazioni ben definiti. Dovranno essere disponibili misure di controllo della qualità nella pratica.
  3. Garantire trasparenza, chiarezza e comprensibilità. È necessario che siano pubblicate o documentate informazioni sufficienti prima della progettazione o dell’implementazione di una tecnologia di intelligenza artificiale. Tali informazioni dovranno inoltre essere facilmente accessibili e consentire una agevole consultazione pubblica e un dibattito su come è progettata la tecnologia e su come dovrebbe o meno essere usata.
  4. Promuovere la responsabilità e l’accountability in chi ne fa uso. Le parti interessate devono garantire l’uso di questo tipo di tecnologie in condizioni appropriate e da parte di persone adeguatamente formate. Dovrebbero essere disponibili procedure per presentare contenziosi e ricorsi da parte di individui e gruppi influenzati negativamente da decisioni basate su algoritmi.
  5. Garantire inclusione ed equità. L’inclusività richiede che l’intelligenza artificiale per la salute sia progettata in modo da incoraggiarne l’uso e l’accesso più equo possibile, indipendentemente da età, sesso, genere, reddito, razza, etnia, orientamento sessuale, abilità o altre caratteristiche tutelate dalle norme sui diritti umani.
  6. Promuovere un’intelligenza artificiale reattiva e sostenibile. I progettisti, gli sviluppatori e gli utenti dovranno monitorare in modo costante e trasparente le applicazioni di intelligenza artificiale nell’uso effettivo, per valutare se l’intelligenza artificiale risponde in modo adeguato e appropriato alle aspettative e ai requisiti. I sistemi di intelligenza artificiale dovranno anche essere progettati per ridurre al minimo l’impatto ambientale e aumentare l’efficienza energetica. I governi e le aziende saranno tenuti a tenere conto delle conseguenze sul mondo del lavoro, come la necessità della formazione degli operatori sanitari per adattarsi all’uso dei sistemi di intelligenza artificiale e le potenziali perdite in termini di posti di lavoro dovute al ricorso a sistemi automatizzati.

Può interessarti

Adriana Riccomagno
Giornalista professionista in ambito sanitario