L’Organizzazione mondiale della sanità (OMS) chiede cautela nell’uso di strumenti di modelli linguistici di grandi dimensioni (LLM) generati dall’intelligenza artificiale (IA) per proteggere e promuovere il benessere umano, la sicurezza umana e l’autonomia e preservare la salute pubblica.
Gli LLM includono alcune delle piattaforme in più rapida espansione come ChatGPT, Bard, Bert e molte altre che imitano la comprensione, l’elaborazione e la produzione della comunicazione umana. La loro fulminea diffusione pubblica e il crescente uso sperimentale per scopi legati alla salute sta generando un notevole entusiasmo per il potenziale di supportare i bisogni di salute delle persone.
È imperativo che i rischi siano esaminati attentamente quando si utilizzano i LLM per migliorare l’accesso alle informazioni sulla salute, come strumento di supporto decisionale o anche per migliorare la capacità diagnostica in contesti con risorse insufficienti per proteggere la salute delle persone e ridurre le disuguaglianze.
Sebbene l’OMS sia entusiasta dell’uso appropriato delle tecnologie, compresi i LLM, per supportare gli operatori sanitari, i pazienti, i ricercatori e gli scienziati, vi è la preoccupazione che la cautela che normalmente verrebbe esercitata per qualsiasi nuova tecnologia non venga esercitata in modo coerente con i LLM. Ciò include l’adesione diffusa ai valori chiave di trasparenza, inclusione, impegno pubblico, supervisione di esperti e valutazione rigorosa.
L’adozione precipitosa di sistemi non testati potrebbe portare a errori da parte degli operatori sanitari, causare danni ai pazienti, erodere la fiducia nell’IA e quindi minare (o ritardare) i potenziali benefici e gli usi a lungo termine di tali tecnologie in tutto il mondo.
Le preoccupazioni che richiedono una rigorosa supervisione necessaria affinché le tecnologie vengano utilizzate in modo sicuro, efficace ed etico includono:
- i dati utilizzati per addestrare l’IA possono essere distorti, generando informazioni fuorvianti o imprecise che potrebbero comportare rischi per la salute, l’equità e l’inclusione;
- Gli LLM generano risposte che possono apparire autorevoli e plausibili a un utente finale; tuttavia, queste risposte possono essere completamente errate o contenere gravi errori, soprattutto per le risposte relative alla salute;
- Gli LLM possono essere addestrati su dati per i quali il consenso potrebbe non essere stato precedentemente fornito per tale uso e gli LLM potrebbero non proteggere i dati sensibili (inclusi i dati sanitari) che un utente fornisce a un’applicazione per generare una risposta;
- gli LLM possono essere utilizzati in modo improprio per generare e diffondere disinformazione altamente convincente sotto forma di contenuti testuali, audio o video difficili da distinguere per il pubblico da contenuti sanitari affidabili; E
- pur impegnandosi a sfruttare le nuove tecnologie, tra cui l’intelligenza artificiale e la salute digitale per migliorare la salute umana, l’OMS raccomanda ai responsabili politici di garantire la sicurezza e la protezione dei pazienti mentre le aziende tecnologiche lavorano per commercializzare gli LLM.
L’OMS propone che queste preoccupazioni vengano affrontate e che vengano misurate chiare prove di beneficio prima del loro uso diffuso nell’assistenza sanitaria e nella medicina di routine, sia da parte di individui, operatori sanitari o amministratori del sistema sanitario e responsabili politici.
L’OMS ribadisce l’importanza di applicare i principi etici e una governance appropriata, come indicato nella guida dell’OMS sull’etica e la governance dell’IA per la salute, durante la progettazione, lo sviluppo e l’utilizzo dell’IA per la salute. I sei principi fondamentali individuati dall’OMS sono:
- proteggere l’autonomia;
- promuovere il benessere umano, la sicurezza umana e l’interesse pubblico;
- garantire trasparenza, spiegabilità e intelligibilità;
- promuovere la responsabilità e la responsabilità;
- garantire inclusività ed equità;
- promuovere un’IA reattiva e sostenibile.