Chatbot che dialogano con i pazienti, studi scientifici scritti da ChatGPT e algoritmi che definiscono le priorità in sala d’attesa. Che ruolo ha l’Intelligenza Artificiale in sanità e cosa accadrà nel prossimo futuro? Quali sono i pericoli e le opportunità?
Ne discutiamo con Guido Boella, professore del dipartimento di Informatica e vice rettore ai rapporti con le aziende dell’Università degli Studi di Torino, che martedì 14 febbraio sarà tra i relatori dell’incontro organizzato dall’Ordine dei Medici Chirurghi e Odontoiatri di Torino al Circolo dei Lettori, alle 18, dal titolo “Medico o robot? Vantaggi e rischi dell’applicazione dell’intelligenza artificiale alla medicina” insieme al filosofo Maurizio Ferraris e la bioeticista e ricercatrice dell’Istituto Superiore di Sanità Chiara Mannelli.
Chi ci curerà nel futuro, un medico o un robot?
Il titolo dell’evento cui parteciperò è un po’ provocatorio. Spieghiamolo. L’immagine del robot viene associata di solito soprattutto al lavoro in fabbrica e ai cosiddetti “colletti blu”, gli operai, che rischiano di perdere il lavoro se sostituiti dalle macchine. Invece, come si legge ormai su tutti i giornali, negli ultimi mesi l’enorme accelerazione delle tecnologie di Intelligenza Artificiale si avvicina a lavori “di concetto”, creativi, più intellettuali e legati aspetto cognitivo della persona. Allo stesso tempo, anzi, novità più “corporee” attese da tempo come i veicoli a guida autonoma tardano a comparire e, come nel caso di Tesla, continuano ad avere guai e incidenti. In modo inaspettato, compiti come la scrittura di testi e la creazione di immagini, presto probabilmente anche di video, e perfino parte del lavoro del medico, soprattutto in fase diagnostica, rischiano di essere compiti che verranno svolti da un computer molto prima del previsto.
Come si è arrivati a questo punto?
L’accelerazione del processo è dovuta a una nuova tecnologia che si è sviluppata negli ultimi dieci anni, chiamata deep learning: si tratta di un potenziamento del modello tradizionale delle reti neurali, che esiste da sessant’anni, che si è trovato liberato dalle limitazioni dei computer rispetto a qualche anno fa perché con i sistemi di supercalcolo e con l’enorme quantità di dati, testi, immagini oppure referti diagnostici a disposizione, questi possono essere dati in pasto ai nuovi sistemi che molti casi imparano da soli, senza la necessità di etichettare i dati e le informazioni manualmente, cosa che per altro è molto costosa.
Si aprono quindi nuovi scenari e problemi: le scuole e le università sono messe alla prova da uno strumento come ChatGPT, soprattutto visto che dalla pandemia molti esami avvengono davanti al computer. Analogamente accade in ambito medico, dove si pongono due diversi tipi di problematiche. Un primo problema è legato a domande di tipo etico-giuridico: un medico che ha a disposizione un’immagine radiografica e un algoritmo in grado di fornire una diagnosi possibilmente, in un futuro vicino, ancora più accurata della propria, si trova in difficoltà. Cosa succede se guarda prima la diagnosi del computer anziché farsi un’idea sua? Cosa succede se ci sono opinioni diverse? Di chi diventa la responsabilità del fidarsi della macchina o della propria conoscenza e del proprio intuito?
Il problema più grande è che spesso si tende a dimenticare l’aspetto economico e politico
Ma il problema più grande è che spesso si tende a dimenticare l’aspetto economico e politico. Ormai la maggior parte di questi sistemi è in mano ai grandi player informatici: è notizia di pochi giorni fa il nuovo investimento da 10 miliardi di Microsoft in OpenAI, che produce ChatGPT. Sistemi di deep learning come questi hanno bisogno di decine di migliaia computer per elaborare e i costi di funzionamento sono nell’ordine di milioni di dollari, anche a livello energetico. Sono quindi parte di un meccanismo economico-politico che ha il suo peso e vuole vedere ripagate le decine di miliardi che sta investendo.
La combinazione di questi meccanismi con la generale decrescita dei budget per la sanità in molti Paesi, comprese l’Italia e l’Inghilterra che è nella nostra stessa situazione, crea per i policy maker tentazioni pericolose: abbiamo visto che per risparmiare gli ospedali si sono rivolti ai gettonisti creando molti problemi, figuriamoci se trovano la possibilità di sostituire un radiologo con una macchina che dà referti abbastanza accurati.
È in gioco più la politica dell’etica, quindi?
Queste tecnologie non esistono senza un apparato economico alle spalle
Lo studioso Paolo Benanti, teologo della Pontificia Università Gregoriana, ha coniato il termine algoretica. Lo trovo un po’ traviante: si rischia di mettere al centro della discussione l’algoritmo, ma queste tecnologie non esistono senza un apparato economico alle spalle. Il pericolo è di astrarre il problema dalla realtà, che è decisamente più ampia: in definitiva si potrebbe addivenire a compromessi etici perché l’influenza economico-politica e di lobbying è molto forte. Del resto gli interessi in gioco sono tantissimi, tanto più in un momento in cui i grandi player ICT licenziano 10mila impiegati alla volta, che significa anche il 10-20% della loro forza lavoro.
Possiamo immaginarli come squali affamati in cerca di un nuovo business, tenendo conto anche del fatto che il loro valore in borsa è giustificato dalle prospettive di crescita: per rimanere a quel livello, avranno l’enorme tentazione di entrare e sostituire dove possono il personale e la sanità è un settore che già in crisi, in cui mancano competenze per via dei numeri chiusi, mancano assunti, mancano fondi. Il problema è quasi più economico-politico che etico di per sé, e i problemi etici vanno affrontati di pari passo con quelli economico-politici.
Che fine fa l’algoretica?
Dal punto di vista puramente etico ci sono varie problematiche. Si va dal fatto che il sistema è tendenzialmente addestrato su immagini radiografiche digitalizzate di uomini, bianchi, anglosassoni – quindi ad esempio per una minoranza razziale si possono avere prestazioni più scadenti – a problemi di tipo concettuale. Come Kate Crawford fa notare in “Atlas of AI”, molti nodi che sembrano tecnologici e che i tecnologi pensano di poter risolvere sul piano tecnologico, sono in realtà di tipo politico: le classificazioni, le etichette dei database di immagini o di testi scaricati per creare ChatGPT e il modo in cui vengono usati dipendono da scelte fatte da qualcuno, che sono scelte politiche. È nato un caso quando Margaret Mitchell e Timnit Gebru sono stati licenziati da Google per via dell’articolo On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? in cui andavano a criticare quelli che si chiamano large language models, cioè le tecnologie che stanno dietro ChatGPT e simili: un evento concreto che sottende a ragionamenti complessi.
C’è il rischio che il massimo dell’innovazione si ritrovi a essere qualcosa di conservatore by design, perché guarda al passato
Inoltre, andando questi strumenti a imparare sul web come avviene ora, di fatto si ignorano tutti i trend più recenti, come ad esempio il Me Too oppure Black Lives Matter, che nascono come movimenti di nicchia e vengono fuori piano piano. Si crea il paradosso per cui il massimo dell’innovazione tecnologica si ritrova a essere qualcosa di conservatore by design, perché guarda al passato.
La scelta di fare tecnologia in questo modo diventa quindi politica. Chi la sta creando lo sa, chi la usa no, però gli effetti sono questi. E quando testi creati con ChatGPT finiscono in rete e vengono raccolti dai motori di ricerca, si crea anche un rafforzamento.
Preoccupante. Cosa si può fare?
Contribuire a far conoscere al largo pubblico un progetto come AI Aware di Unito e intraprendere iniziative di attivismo politico nei confronti dei policy maker. Ci stiamo muovendo abbastanza bene in Europa con il GDPR e la nuova strategia europea sui dati nell’ottica di proteggersi da molti di questi punti che subiscono l’influsso delle lobby, ma dobbiamo sempre tenere a mente che le leggi da sole non bastano: bisogna condividere i principi perché siano efficaci.