L’intelligenza artificiale è arrivata a pervadere così prepotentemente anche i diversi ambiti del settore della salute, dagli studi clinici alla gestione della relazione medico-paziente, che l’Organizzazione mondiale della sanità (Oms) ha ritenuto opportuno dire la sua. Sei punti di attenzione che possono servire per delineare delle buone pratiche per lo sviluppo e l’applicazione dell’intelligenza artificiale in sanità.
Proprio questa mattina l’ente internazionale che sovrintende alla salute globale ha diffuso le proprie considerazioni in materia. Oms ha posto l’accento sulla necessità che i diversi stakeholder della sanità prestino attenzione affinché l’utilizzo degli algoritmi e delle loro applicazioni sia condotto in modo consapevole, nel rispetto delle regolamentazioni che oggi disegnano i contorni della rivoluzione macchina-uomo in sanità.
L’OMS si è concentrata su sei punti che possono servire per delineare le buone pratiche per lo sviluppo e l’applicazione dell’AI in sanità
“L’intelligenza artificiale è molto promettente per la salute, ma comporta anche serie sfide, tra cui la raccolta di dati non etici, le minacce alla sicurezza informatica e l’amplificazione dei bias o della disinformazione”, ha dichiarato Tedros Adhanom Ghebreyesus, direttore generale di Oms. “Questa nuova indicazione aiuterà i diversi Paesi a regolamentare l’intelligenza artificiale in modo efficace, per sfruttarne il potenziale, che si tratti di curare il cancro o di individuare la tubercolosi, riducendo al minimo i rischi”.
Nelle 80 pagine del documento diffuso oggi, Oms riconosce palesemente che le diverse applicazioni dell’intelligenza artificiale, sia predittiva che generativa, racchiudono in sé enormi potenziali capaci di trasformare significativamente il concetto di diagnosi, cura e di ricerca di nuovi farmaci. Con evidenti ottimizzazioni degli outcome clinici sia a livello ospedaliero che territoriale, giacché l’intelligenza artificiale si può esprimere tanto a favore degli operatori della salute quanto dei cittadini e dei caregiver nell’ottica di autocura. Finanche a consentire l’interpretazione di scansioni della retina e di immagini radiologiche in situazioni dove non sono presenti medici specialisti.
Tra i rischi indicati dall’Oms, la raccolta di dati non etici, le minacce alla sicurezza informatica e l’amplificazione dei bias o della disinformazione
Cionondimeno, avverte Oms, la velocità con cui questa tecnologia evolve è così rapida che si rischia di perdere di vista le riflessioni che dovrebbero sottendere a questo tipo di innovazione.
Partendo dalla verifica puntuale rispetto al bilanciamento tra vantaggi e rischi per gli utenti finali, che siano operatori della salute, pazienti o player diversi implicati nei percorsi di prevenzione, diagnosi e cura.
A preoccupare l’Organizzazione mondiale della sanità è anche l’aspetto relativo alla gestione dell’enorme mole di dati sanitari che servono agli algoritmi per poter funzionare e offrire output significativi e affidabili per gli utenti. Così come si deve porre attenzione, sostiene Oms, alla privacy di questi dati, per loro natura sensibili, facendo sì che anche le applicazioni dell’intelligenza artificiale siano progettate e realizzate nel rispetto dei quadri normativi in vigore nei diversi Paesi, dal regolamento generale sulla protezione dei dati (Gdpr) in Europa all’Health Insurance Portability and Accountability Act (Hipaa) statunitense.
Considerazioni normative sull’AI in sanità: sei aree tematiche
Oms, insieme all’Unione internazionale delle telecomunicazioni (Uit), ha così costituito un gruppo di lavoro proprio sull’intelligenza artificiale per la salute composto a sua volta di sottogruppi, tra cui uno dedicato alle considerazioni normative, a cui partecipano diversi stakeholder: autorità regolatorie, responsabili politici, università e industria.
Dal lavoro di questo panel di esperti sono scaturite sei aree tematiche di attenzione – documentazione e trasparenza, approccio al ciclo di vita totale del prodotto e gestione del rischio, destinazione d’uso e validazione analitica e clinica, qualità dei dati e privacy, engagement e collaborazione tra player – di cui sarebbe necessario tenere conto per la definizione di una regolamentazione dell’intelligenza artificiale applicate alla salute. Una sorta di buone pratiche per lo sviluppo dell’intelligenza artificiale in ambito sanitario e industriale.
Ecco in sintesi che cosa intende Oms rispetto a questi sei punti critici:
- Documentazione e trasparenza: pre-specificare e documentare lo scopo medico previsto dall’applicazione dell’AI e il relativo processo di sviluppo in modo da consentire di tracciarne le diverse fasi. Adottando al contempo un approccio basato sul rischio anche per il livello di documentazione e conservazione dei registri utilizzato per lo sviluppo e la validazione dei sistemi di intelligenza artificiale.
- Approcci alla gestione del rischio e al ciclo di vita dello sviluppo dei sistemi di AI: l’approccio volto alla gestione del rischio – inteso anche come minacce e vulnerabilità della cybersecurity, underfitting, bias algoritmici – deve essere mantenuto dal momento dello sviluppo pre-commercializzazione, a quello della sorveglianza post-marketing.
- Uso previsto e validazione analitica e clinica: è bene fornire sin dall’inizio una documentazione trasparente sull’utilizzo previsto del sistema di AI. Analoga trasparenza dovrebbe essere garantita rispetto al set di dati – comprese le dimensioni, il contesto e la popolazione, i dati di ingresso e di uscita e la composizione demografica – di addestramento degli algoritmi, con particolare riferimento a quando essi vengano utilizzati all’interno di studi clinici.
- Qualità dei dati: gli sviluppatori devono valutare se i dati disponibili sono di qualità sufficiente a supportare lo sviluppo del sistema di AI per raggiungere lo scopo prefissato.
- Analogamente si dovrebbe prendere in considerazione l’implementazione di rigorose valutazioni preliminari per garantire che l’AI non amplifichi bias e gli errori.
- Privacy e protezione dei dati: all’inizio del processo di sviluppo, gli sviluppatori dovrebbero essere certi di comprendere appieno le diverse regolamentazioni in tema di protezione dei dati e privacy e assicurando che processi e prodotti finali soddisfino i requisiti legali.
- Coinvolgimento e collaborazione: durante lo sviluppo del framework di lavoro per la progettazione e la realizzazione di tool di AI per la salute è auspicato che ci siano piattaforme per la condivisione delle riflessioni da parte di tutti gli stakeholder interessati.