L’OMS chiede un’Intelligenza Artificiale per la salute sicura ed etica

L’Organizzazione mondiale della sanità (OMS) chiede cautela nell’uso di strumenti di modelli linguistici di grandi dimensioni (LLM) generati dall’intelligenza artificiale (IA) per proteggere e promuovere il benessere umano, la sicurezza umana e l’autonomia e preservare la salute pubblica.

Gli LLM includono alcune delle piattaforme in più rapida espansione come ChatGPT, Bard, Bert e molte altre che imitano la comprensione, l’elaborazione e la produzione della comunicazione umana. La loro fulminea diffusione pubblica e il crescente uso sperimentale per scopi legati alla salute sta generando un notevole entusiasmo per il potenziale di supportare i bisogni di salute delle persone.

È imperativo che i rischi siano esaminati attentamente quando si utilizzano i LLM per migliorare l’accesso alle informazioni sulla salute, come strumento di supporto decisionale o anche per migliorare la capacità diagnostica in contesti con risorse insufficienti per proteggere la salute delle persone e ridurre le disuguaglianze.

Sebbene l’OMS sia entusiasta dell’uso appropriato delle tecnologie, compresi i LLM, per supportare gli operatori sanitari, i pazienti, i ricercatori e gli scienziati, vi è la preoccupazione che la cautela che normalmente verrebbe esercitata per qualsiasi nuova tecnologia non venga esercitata in modo coerente con i LLM. Ciò include l’adesione diffusa ai valori chiave di trasparenza, inclusione, impegno pubblico, supervisione di esperti e valutazione rigorosa.

L’adozione precipitosa di sistemi non testati potrebbe portare a errori da parte degli operatori sanitari, causare danni ai pazienti, erodere la fiducia nell’IA e quindi minare (o ritardare) i potenziali benefici e gli usi a lungo termine di tali tecnologie in tutto il mondo.

Le preoccupazioni che richiedono una rigorosa supervisione necessaria affinché le tecnologie vengano utilizzate in modo sicuro, efficace ed etico includono:

  • i dati utilizzati per addestrare l’IA possono essere distorti, generando informazioni fuorvianti o imprecise che potrebbero comportare rischi per la salute, l’equità e l’inclusione;
  • Gli LLM generano risposte che possono apparire autorevoli e plausibili a un utente finale; tuttavia, queste risposte possono essere completamente errate o contenere gravi errori, soprattutto per le risposte relative alla salute;
  • Gli LLM possono essere addestrati su dati per i quali il consenso potrebbe non essere stato precedentemente fornito per tale uso e gli LLM potrebbero non proteggere i dati sensibili (inclusi i dati sanitari) che un utente fornisce a un’applicazione per generare una risposta;
  • gli LLM possono essere utilizzati in modo improprio per generare e diffondere disinformazione altamente convincente sotto forma di contenuti testuali, audio o video difficili da distinguere per il pubblico da contenuti sanitari affidabili; E
  • pur impegnandosi a sfruttare le nuove tecnologie, tra cui l’intelligenza artificiale e la salute digitale per migliorare la salute umana, l’OMS raccomanda ai responsabili politici di garantire la sicurezza e la protezione dei pazienti mentre le aziende tecnologiche lavorano per commercializzare gli LLM.

L’OMS propone che queste preoccupazioni vengano affrontate e che vengano misurate chiare prove di beneficio prima del loro uso diffuso nell’assistenza sanitaria e nella medicina di routine, sia da parte di individui, operatori sanitari o amministratori del sistema sanitario e responsabili politici.

L’OMS ribadisce l’importanza di applicare i principi etici e una governance appropriata, come indicato nella guida dell’OMS sull’etica e la governance dell’IA per la salute, durante la progettazione, lo sviluppo e l’utilizzo dell’IA per la salute. I sei principi fondamentali individuati dall’OMS sono:

  1. proteggere l’autonomia;
  2. promuovere il benessere umano, la sicurezza umana e l’interesse pubblico;
  3. garantire trasparenza, spiegabilità e intelligibilità;
  4. promuovere la responsabilità e la responsabilità;
  5. garantire inclusività ed equità;
  6. promuovere un’IA reattiva e sostenibile.

Per approfondire

Può interessarti