Lo stanno sviluppando i ricercatori di Google e DeepMind, la società di Intelligenza Artificiale che fa capo ad Alphabet, la casa madre dell’azienda californiana. Med-PaLM, il primo software di intelligenza artificiale generativa dedicato all’ambito sanitario, è già atteso come il nuovo ChatGPT della medicina.
Le caratteristiche sono le stesse del programma di intelligenza artificiale creato da OpenAI, nata come organizzazione senza scopo di lucro fondata a San Francisco nel 2015 da Elon Musk con l’intento iniziale di occuparsi di ricerca e sviluppo di Intelligenza Artificiale. Il software che è stato creato e chiamato ChatGPT è ora in grado di rispondere a quesiti di ogni genere, fornire spiegazioni e risolvere problemi logico-matematici, nonché scrivere canzoni, fare i compiti di scuola e mettere insieme ricerche universitarie, abilità per cui di recente si è già attirato diverse critiche.
Il programma sarà in grado di mettere a confronto tutti i dati delle ultime ricerche mediche su un determinato problema
Med-PaLM è ancora in fase di sviluppo e viene progettato per essere in grado di rispondere ai quesiti sulla salute con un grado di precisione verosimilmente paragonabile a quella di un essere umano competente in materia. In che modo? Il programma sarà capace di mettere a confronto tutti i dati delle ultime ricerche mediche su un determinato problema. Un fatto che naturalmente non potrà che aprire interrogativi di tipo etico, filosofico ma anche scientifico su quanto sia opportuno che l’intelligenza artificiale possa affiancarsi alla figura del medico o a quella di un giornalista scientifico. Il programma sembrerebbe essere già in grado di redigere un articolo di carattere scientifico in modo accurato e non riconoscibile come prodotto da una macchina, partendo dalle ultime ricerche pubblicate.
Abbiamo commentato questa notizia e le sue implicazioni insieme a Chiara Sgarbossa, dell’Osservatorio Sanità Digitale del Politecnico di Milano.
Un falso problema di fiducia
Se proviamo chiedere a ChatGPT, il prototipo di OpenAI al quale il nuovo software a tema medico Med-PaLM di Google si ispira, se possiamo fidarci di lui, la risposta dice già molto: “In quanto modello linguistico non sono in grado di avere convinzioni o intenzioni, quindi non ci si può fidare o diffidare di me – risponde il software -. Sono semplicemente uno strumento in grado di fornire informazioni e risposte utili in base ai dati utilizzati per addestrarmi. È importante verificare tutte le informazioni che fornisco attraverso fonti indipendenti”.
Si aprono diversi interrogativi sull’uso dell’AI come possibile fonte di profitti
I fondatori di OpenAI, d’altro canto, hanno dichiarato che la speranza è che l’intelligenza artificiale possa portare solo benefici a tutta l’umanità.
Accanto al motivo filantropico però si aprono diversi interrogativi sull’uso dell’AI come possibile fonte di profitti. In pochi anni dalla sua creazione, OpenAI ha già attirato su di sé un finanziamento da 1 miliardo di dollari da Microsoft, dimostrando di aver aperto un campo su cui è bene non farsi trovare impreparati. Tanto da spingere le aziende tech concorrenti, come Google, ad accettare la sfida creando a loro volta un proprio software.
L’automazione, se applicata in ambito aziendale, potrebbe essere infatti in grado di sostituire le risorse umane nello svolgimento di diversi lavori, anche quelli più creativi come la produzione di un testo, o artistiche come la scrittura di un brano musicale. Secondo i sostenitori di questo settore di sviluppo fare ricerca in questo ambito è indispensabile per risolvere problemi multidisciplinari che attualmente sono insormontabili e hanno a che fare con le politiche ambientali e la ricerca medica. Al momento però sembra non porsi alcun vero problema di fiducia in quanto resta implicito che questi software, per ora, non sono in alcun modo in grado di sostituirsi al giudizio umano ma ne rappresentano un mero braccio armato virtuale.
Modelli linguistici di grandi dimensioni
Mentre ChatGPT si configura come un software dalle abilità generiche, Med-PaLM punta a diventare un chatbot operante in un modello linguistico di grandi dimensioni (LLM) ma ristretto al solo campo medico-sanitario. Un programma che potrebbe essere utile a generare risposte che incrociano una miriade di dati prodotti dalla ricerca medico-scientifica più recente e dalla letteratura. In altre parole, numeri e informazioni semplici, estrapolati da database incredibilmente vasti e complessi.
La capacità di generare un livello di interazione quasi umano, che ha fatto finora la fortuna di Chat GPT, non sembra essere l’obiettivo di Google e DeepMind, che stanno invece sviluppando Med-PaLM per operare all’interno di parametri più ristretti.
Secondo gli sviluppatori, il programma potrebbe essere presto in grado di avere un ruolo nella clinica
Il software sarà programmato per dare risposte su sette diversi set di dati, fra cui risposte a domande professionali su esami medici, su risultati di ricerche scientifiche e sulle domande dei consumatori su questioni mediche. Quest’ultimo set è stato perfezionato utilizzando le domande sulle condizioni mediche e i relativi sintomi che si trovano online.
I ricercatori che lo stanno sviluppando hanno fatto sapere che, se perfezionato, il programma potrebbe essere presto in grado di avere un ruolo nella clinica, andando a supportare i medici stessi nelle decisioni diagnostiche con una più vasta scala di dati a disposizione.
Al momento, le prestazioni sembrano incoraggianti, ma senz’altro restano inferiori a quelle dei medici, di cui sicuramente il software non può prendere il posto, essendo solamente un eventuale supporto in più.
Cosa ne pensano i medici: l’indagine del Politecnico
“Affinché queste soluzioni possano avere un impatto concreto sul miglioramento dell’assistenza sanitaria, sarà necessario proseguire nell’addestramento di Med-PaLM e nella generazione di evidenze sempre più solide che dimostrino la sua attendibilità di risposta”, ha commentato Sgarbossa.
“Oltre a questo, bisognerà comprendere, con un approccio multidisciplinare che consideri anche temi etici e legali, oltre che sanitari, in quali contesti i professionisti sanitari potranno far leva su questi strumenti per essere supportati nelle decisioni – ha poi aggiunto –. Ritengo, infatti, che sistemi di Intelligenza Artificiale possano essere un valido alleato del medico nella pratica clinica, per velocizzare alcune scelte e per ridurre potenziali errori. Non si tratta di soluzioni che possano sostituire il medico e che possano essere utilizzate in autonomia da parte del paziente, soprattutto quando deve prendere decisioni sulla propria salute”.
I medici hanno un’opinione più favorevole sull’utilizzo di soluzioni di AI per fornire consigli sulla prevenzione e gli stili di vita
Nell’ambito dell’ultima ricerca, l’Osservatorio Sanità Digitale del Politecnico di Milano ha rilevato la percezione dei medici specialisti rispetto all’utilizzo di chatbot da parte dei pazienti. Ecco i risultati: “I medici hanno generalmente un’opinione più favorevole rispetto all’utilizzo di queste soluzioni per fornire consigli sulla prevenzione e gli stili di vita (57%) e per chiedere informazioni sull’assunzione di farmaci e terapie (48%) – ha spiegato Sgarbossa –. Al contrario, nel caso delle soluzioni che suggeriscono una diagnosi al paziente in base ai sintomi, il 53% dei medici specialisti valuta un impatto negativo o molto negativo: si tratta di un ambito visto con maggiore diffidenza da parte dei professionisti, per un potenziale utilizzo scorretto che il paziente potrebbe farne e sulle relative conseguenze sulla sua salute e sicurezza”.