Policy

Il nuovo regolamento federale statunitense sull’intelligenza artificiale nella sanità

Perché ne stiamo parlando
Il Dipartimento della Salute e dei Servizi Umani ha approvato una normativa per aumentare la trasparenza e il rigore dei processi di sviluppo dei sistemi di AI per l’healthcare. Oltre a favorire l’equità e a ridurre il rischio di errori, l’obiettivo è promuovere interoperabilità dei dati e fiducia degli investitori.

Il nuovo regolamento federale statunitense sull’intelligenza artificiale nella sanità
Immagine generata utilizzando l'intelligenza artificiale

I fornitori di software di intelligenza artificiale dovranno rispettare – per lo meno Oltreoceano – regole più severe durante i processi di sviluppo, gli iter sperimentali, i test simulativi e la condivisione di informazioni. Lo ha stabilito il Dipartimento della Salute e dei Servizi Umani degli Stati Uniti (HHS) attraverso l’approvazione di un nuovo regolamento federale volto a tutelare la trasparenza nei processi di sviluppo e addestramento dei sistemi di apprendimento automatizzato. Questa decisione ha un duplice scopo. Da un lato la tutela dei pazienti, sia da decisioni distorte compiute dall’intelligenza artificiale stessa ma anche da possibili scelte discriminatorie (determinate da bias nei dati) o da potenziali terapie cliniche dannose per la loro salute. Dall’altro lato creare un modello di riferimento per lo sviluppo tecnologico in ambito sanitario, definendo i criteri per la creazione di dispositivi medico-sanitari basati sul machine learning. Le aziende impegnate, come si legge nel regolamento, dovranno adeguarsi alla nuova normativa piuttosto velocemente: entro la fine del 2024.

Una svolta per lo sviluppo software

Non suona certo come una novità che l’innovazione tecnologica e la diffusione di sistemi diagnostici e clinici basati sull’intelligenza artificiale possano esporre i pazienti a nuovi rischi per la salute: riuscire a prevederli con anticipo – e adottare normative volte a garantire sicurezza, affidabilità ed equità – è di fatto lo scopo stesso della Food and Drug Administration (FDA) e degli altri organi deputati a legiferare in materia di transizione digitale in ambito medico. Del resto, quelli che adesso sono considerati strumenti predittivi di supporto alle decisioni cliniche stanno diventando nella pratica dei veri e propri software con potere decisionale, che indirizzano la diagnosi e il percorso terapeutico dei pazienti.

Tra le innovazioni normative più significative, a partire dal 2025 i fornitori di cartelle cliniche elettroniche, che utilizzano sempre più di frequenti tecnologie basate sull’intelligenza artificiale, dovranno essere trasparenti in merito alle metodologie di lavoro che hanno portato alla realizzazione del prodotto finale, specificando i risultati dei test condotti, i passi compiuti durante tutto il processo realizzativo e gli sforzi effettuati per ridurre al minimo tutti i potenziali rischi. Per esempio, gli sviluppatori saranno tenuti a informare gli organi deputati al controllo se emergeranno criticità sui dati demografici dei pazienti, sui determinanti sociali della salute o su altri aspetti relativi all’equità.

Insomma, dall’addestramento dei software ai sistemi di controllo dei processi decisionali, passando per gli strumenti di verifica, le aziende che producono tool digitali in ambito medico dovranno avere sempre più attenzione e rigore. Dovranno dimostrare di non incidere negativamente sull’equità sanitaria, di essere davvero imparziali nelle scelte e che i processi decisionali che li contraddistinguono siano efficaci e giusti in tutti i casi, senza alcuna eccezione. Del resto, a maggiore ragione quando si parla di salute, le conseguenze di errori commessi durante gli screening diagnostici, così come l’adozione di una terapia clinica al posto di un’altra, potrebbero avere conseguenze molto negative (o potenzialmente anche letali) sulla salute della persona.

Dal punto di vista regolatorio, questa norma rafforza ancora di più le disposizioni del 21st Century Cures Act diventato legge nel dicembre 2016 e aggiorna il programma di certificazione ONC Health IT, un programma che include standard, specifiche di implementazione e criteri di certificazione per le società di software di cartelle cliniche elettroniche (EHR) e gli sviluppatori di dispositivi sanitari intelligenti.

Anche se la nuova normativa potrebbe apparire come limitante per lo sviluppo e la diffusione di tecnologie basate sull’intelligenza artificiale, lo scopo perseguito dall’HHS e dalla FDA è l’esatto opposto, almeno stando agli annunci ufficiali. Si mira infatti a realizzare una nuova generazione di modelli di AI in grado di essere integrati rapidamente nelle strutture sanitarie pubbliche e private, migliorando il processo di inserimento e di accettazione da parte dei sistemi regolatori delle cliniche e degli ospedali.

Una spinta verso interoperabilità e trasparenza

Avere a disposizione una legge chiara, e dovere rispettare precise regole di trasparenza e affidabilità per realizzare software con algoritmi di intelligenza artificiale, dovrebbe semplificare il processo decisionale in ambito sanitario. Gli enti regolatori, infatti, intendono garantire maggiore interoperabilità tra i software intelligenti, permettendo una più facile gestione dei dati e l’adozione di standard clinici chiari e condivisi. Diventerà, infatti, più immediato scambiare e condividere dati tra realtà sanitarie differenti, espandendo le potenzialità dei nuovi algoritmi e migliorando la precisione delle decisioni cliniche finali. L’obiettivo, infatti, è rendere ogni cartella clinica, ogni diagnosi e ogni percorso terapeutico una fonte di informazioni e dati utili da dare in pasto agli algoritmi. Questo diventa possibile, ça va sans dire, omologando le applicazioni tecnologiche digitali su tutto il territorio.

Da non sottovalutare, infine, il tema economico: una maggiore trasparenza durante i processi di creazione e sperimentazione dei software permette di aumentare la fiducia da parte dei cittadini (e soprattutto degli investitori) verso queste nuove tecnologie, facilitandone la penetrazione nella pratica clinica quotidiana.

Keypoints

  • Il Dipartimento della Salute e dei Servizi Umani (HHS) degli Stati Uniti ha approvato un nuovo regolamento sull’intelligenza artificiale
  • L’obiettivo è rendere gli algoritmi di intelligenza artificiale applicati alla sanità più trasparenti e sicuri
  • I fornitori di software dovranno specificare anche iter sperimentali, test simulativi e caratteristiche dei sistemi di apprendimento
  • Dovrà essere dimostrata attenzione all’equità e verso i rischi più frequenti dei sistemi automattizati
  • Standard di digital health chiari e uguali per tutti favoriscono l’interoperabilità dei dati e la condivisione di informazioni
  • Creare una generazione di modelli di AI fondata su regole comuni favorisce la penetrazione di queste tecnologie nelle strutture sanitarie

Ti è piaciuto questo articolo?

Share

Registrati per commentare l’articolo

Pills

Raccolte

Articoli correlati