L’Healthy Technology Act 2025, proposta di legge introdotta a gennaio 2025 da David Schweikert, rappresentante repubblicano (Rep.) al Congresso degli Stati Uniti, potrebbe segnare una svolta epocale per la medicina negli USA: questa propone infatti di modificare la Section 503(b) del Federal Food, Drug, and Cosmetic Act, la legge federale che disciplina la sicurezza e l’efficacia di farmaci, dispositivi medici e prodotti alimentari, e riconoscere quindi alle tecnologie AI/ML lo status di “praticanti autorizzati”, che consentirebbe loro di prescrivere farmaci ai pazienti in maniera automatizzata, senza necessità di un intervento umano.
Da un lato, questo non si tradurrebbe in un “liberi tutti”, in quanto queste tecnologie dovrebbero comunque essere autorizzate dallo Stato e approvate, convalidate o autorizzate dalla Food and Drug Administration (FDA). Dall’altro, sebbene l’approvazione di questa proposta non sia assolutamente scontata nel breve termine, la sua introduzione non può che innescare un acceso dibattito sulle implicazioni giuridiche ed etiche di un sistema sanitario in cui l’AI possa assumere una funzione prescrittiva autonoma.
Che cosa succederebbe se un algoritmo fosse in grado di prescrivere farmaci ai pazienti in maniera automatizzata, senza necessità di un intervento umano?
Infatti, anche se attualmente solo i professionisti sanitari sono abilitati a prescrivere farmaci, diversi sistemi basati su AI sono già in fase di sviluppo e sperimentazione per supportare i professionisti sanitari nella prescrizione di farmaci, come il sistema di AI di Google per le prescrizioni mediche, il DrugGPT dell’Università di Oxford, ideato per supportare i clinici nella prescrizione di farmaci, e PharmacyGPT, un framework che utilizza modelli di linguaggio di grandi dimensioni per emulare il ruolo dei farmacisti clinici. Se, dunque, l’utilizzo di sistemi AI per supportare i medici nella prescrizione di farmaci è già una realtà, chiederci che cosa succederebbe se tali medici fossero considerati superflui nel procedimento è il passo successivo.
L’ecosistema statunitense dell’innovazione
Che l’Healthy Technology Act sia stato proposto negli Stati Uniti non è un caso, ma la conseguenza di un ecosistema che spinge alla sperimentazione e all’innovazione. Infatti, gli Stati Uniti adottano da sempre un approccio più permissivo per incentivare l’innovazione, mentre l’Europa mantiene una posizione prudente, che impone vincoli stringenti nei settori ad alto rischio, tra cui la sanità. Questo contrasto tra modelli normativi riflette una divergenza culturale più ampia sulla governance dell’AI e sul bilanciamento tra progresso tecnologico e tutela dei diritti fondamentali.
Negli Stati Uniti, la regolamentazione dell’AI in sanità si è sviluppata all’interno di un quadro normativo frammentato, caratterizzato dall’adattamento progressivo delle norme esistenti piuttosto che da una riforma organica. Il fulcro della governance è rappresentato dalla FDA, che da oltre un decennio ha integrato l’AI nei propri framework regolatori, trattandola come una categoria specifica di medical devices software.
Fin dal 2018, con l’approvazione del primo algoritmo diagnostico autonomo per la retinopatia diabetica, l’FDA ha progressivamente ampliato la propria azione regolatoria, passando da una supervisione caso per caso a un sistema più strutturato.
Negli Stati Uniti, la regolamentazione dell’AI in sanità si è sviluppata all’interno di un quadro normativo frammentato
L’AI/ML Action Plan del 2021 ha introdotto concetti chiave quali il “Predetermined Change Control Plan”, un meccanismo che consente aggiornamenti algoritmici entro predeterminati limiti senza dover così sottoporre il dispositivo a continue riapprovazioni, e le “Good Machine Learning Practice for Medical Device Development”, con l’obiettivo di definire standard qualitativi minimi per lo sviluppo e l’implementazione dell’AI nei dispositivi sanitari.
Questo modello normativo segue un approccio principle-based, che conferisce ai produttori maggiore flessibilità nel dimostrare la sicurezza ed efficacia dei loro prodotti, dando loro la libertà di dimostrare come i loro sistemi di AI aderiscano a principi trasversali di efficacia e sicurezza, invece che imponendo specifici requisiti da soddisfare. Al contempo, l’assenza di una normativa federale vincolante sull’uso dell’AI in sanità ha portato a una frammentazione tra regolamenti settoriali e linee guida non vincolanti, creando un ecosistema normativo in cui la responsabilità legale non è sempre ben definita.
Infine, l’avvento dell’amministrazione Trump ha segnato un ulteriore passo verso la netta deregulation. La revoca dell’Executive Order 14110 del Presidente Biden, che mirava a regolamentare l’AI a livello federale tramite un preciso piano d’azione che le agenzie federali avrebbero dovuto mettere in atto, e il consequenziale ritiro dell’AI Strategic Plan del Department of Health and Human Services, che enfatizzava la mitigazione dei rischi ex ante, hanno riaffermato un’impostazione più permissiva, volta a favorire la crescita dell’industria senza vincoli normativi stringenti.
La cultura europea della precauzione
In Europa, la governance dell’AI in sanità si è progressivamente consolidata attraverso un impianto normativo sempre più centralizzato ed organico, culminato nell’AI Act, che mira a garantire un’AI “human-centric” e trasparente con un approccio basato sul rischio, improntato al principio di precauzione.
Dunque, mentre da un lato dell’oceano si va verso una traiettoria de-regolatoria nello sviluppo e adozione dell’AI in sanità, possiamo dire che in Europa l’approccio è tendenzialmente più prudente. In primis, il Regolamento Europeo sull’Intelligenza Artificiale (AI Act, 2024/1689) prevede per tutti i sistemi AI importanti regole relative alla trasparenza; inoltre, classifica la maggior parte dei sistemi di AI in sanità come ad “alto rischio”. Tra i sistemi AI così classificati, infatti, ricadono sia tutti i sistemi che abbiano una destinazione d’uso medica che li qualifichi come dispositivi medici di classe IIa oppure superiore sia i sistemi AI che, pur non essendo dispositivi medici, sono destinati a fornire attività di triage e prioritizzazione delle cure sanitarie.
Sull’AI in sanità l’approccio europeo è più prudente rispetto agli Stati Uniti
La classificazione “sistema AI ad alto rischio” impone rigorosi requisiti addizionali rispetto a quelli “di base”, includendo aspetti di qualità, supervisione umana e prevedendo un processo di marcatura CE tramite il coinvolgimento di un Organismo Notificato, in piena integrazione con le attività richieste per il Medical Device Regulation (MDR, 2017/745), entrato in vigore nel 2021.
A ciò si aggiunge il framework dettato dal General Data Protection Regulation (GDPR), che limita l’uso dei dati sanitari e restringe fortemente la possibilità di eseguire profilazioni e decisioni automatizzate senza intervento umano. Sebbene queste normative offrano garanzie per i pazienti, esse impongono anche sfide alle aziende del settore, in particolare alle startup e alle PMI, che devono affrontare costi e complessità burocratiche elevate per conformarsi ai requisiti imposti.
Se è l’algoritmo a prescrivere i farmaci, chi ne è responsabile?
In Europa, l’automatismo decisionale degli algoritmi di AI in ambito sanitario è fortemente regolato: per tutti i sistemi AI “ad alto rischio” deve infatti essere possibile per il supervisore umano interrompere o sovrascrivere il modello in modo controllato e consapevole, con un vero e proprio “pulsante di stop” messo a disposizione del supervisore umano in fasi predefinite del ciclo decisionale del modello.
Tuttavia, una proposta come quella del Rep. Schweikert solleva questioni di responsabilità giuridica e di tutela del paziente. Infatti, se un algoritmo suggerisse di prescrivere un farmaco errato o fornisse una diagnosi inesatta, chi ne sarebbe responsabile? Attualmente, l’UE applica un regime di responsabilità oggettiva, e attribuisce la responsabilità al produttore, in linea con il principio della responsabilità del prodotto difettoso. La responsabilità potrebbe trasferirsi all’operatore sanitario solo in alcuni casi, principalmente collegati a un utilizzo non autorizzato o negligente del prodotto.
Se un algoritmo suggerisse di prescrivere un farmaco errato o fornisse una diagnosi inesatta, chi ne sarebbe responsabile?
Negli Stati Uniti, invece, la questione è ancora oggetto di dibattito: l’assenza di un quadro normativo specifico per l’AI lascia spazio all’interpretazione giuridica, con la tendenza a considerare il medico l’unico responsabile in caso di errore. Tuttavia, con l’evoluzione dei sistemi di AI verso una maggiore autonomia decisionale, questa impostazione potrebbe diventare insostenibile, richiedendo un aggiornamento normativo per distribuire in modo più equo le responsabilità tra sviluppatori, fornitori e utilizzatori delle tecnologie sanitarie.
Alfabetizzazione sull’AI per professionisti sanitari
L’alfabetizzazione dei professionisti sanitari in materia di intelligenza artificiale è diventata un imperativo nel panorama sanitario contemporaneo. Per sfruttare appieno il potenziale di queste tecnologie e mitigare i possibili rischi, è essenziale che i professionisti sanitari ricevano una formazione adeguata, tanto più in un ambito così delicato come quello della salute.
Sul tema, l’Unione Europea ha giocato un ruolo pionieristico con l’approvazione dell’articolo 4 dell’AI Act, che stabilisce che fornitori e utilizzatori di sistemi di AI adottino misure per garantire un livello adeguato di alfabetizzazione del personale coinvolto, tenendo conto delle loro competenze e del contesto d’uso.
Emerge però da subito la necessità di definire quali conoscenze e competenze in AI siano indispensabili per i professionisti sanitari. È chiaro che conoscere gli strumenti disponibili e il loro funzionamento, seppur importante, non è sufficiente; è essenziale invece saperli integrare con senso critico nella pratica clinica. Infatti, un professionista sanitario deve sapere quando fidarsi dell’AI e quando mettere in discussione i suoi suggerimenti, e, soprattutto, deve essere consapevole del proprio ruolo insostituibile nel processo decisionale.
È essenziale saper integrare con senso critico i nuovi strumenti all’interno della pratica clinica
L’alfabetizzazione in materia di AI deve essere un processo continuo, al passo con una tecnologia in costante evoluzione che richiede il continuo evolversi delle competenze dei professionisti. L’AI può essere una straordinaria alleata della medicina, ma solo se impariamo a usarla con consapevolezza, senza sostituire il giudizio clinico con un’illusione di infallibilità tecnologica.
Considerazioni finali
Questo scenario impone infine una riflessione critica sulle nuove responsabilità etiche collegate all’utilizzo dell’AI. Se fino a oggi l’AI è stata impiegata principalmente in supporto a diagnosi e prognosi, con l’Healthy Technology Act 2025 si prospetterebbe un cambio radicale, con un’AI autonoma nel processo terapeutico. Questa trasformazione solleva interrogativi cruciali sulla responsabilità delle decisioni algoritmiche, sulla tutela della privacy dei pazienti e sulla giustizia nell’accesso alle cure. Inoltre, storicamente, il medico è stato il custode della salute del paziente, agendo con giudizio ed empatia; ma se un algoritmo può prescrivere farmaci, la domanda diventa: può una macchina prendere decisioni con la stessa sensibilità e responsabilità di un essere umano?
Alcuni sistemi etici adottano un approccio deontologico (kantiano), basato su principi morali assoluti in cui la moralità di un’azione dipende dall’intenzione che la muove: ma l’AI, priva di libero arbitrio, può davvero compiere scelte eticamente valide?
Altri sistemi etici, invece, privilegiano una visione utilitaristica (benthamiana), fondata sulle conseguenze delle azioni; in questo caso, un’AI che prescrive farmaci deve essere valutata non solo per la correttezza formale delle sue decisioni, ma per il loro impatto concreto sulla salute dei pazienti.
Infine, l’esperimento Moral Machine, condotto su 39 milioni di persone in 233 nazioni, ha evidenziato come le considerazioni etiche non siano universali, ma profondamente influenzate dal contesto culturale. Questi risultati suggeriscono che i principi di un’etica applicata all’AI non possano essere uniforme, ma debbano adattarsi ai valori e alle norme dei contesti in cui viene implementata.