Policy

Verso un utilizzo responsabile dell’IA nello sviluppo di un farmaco: l’EMA traccia la roadmap dei prossimi cinque anni

Perché ne stiamo parlando
L’EMA presenta le iniziative che metterà in campo nei prossimi cinque anni riguardo l’uso dell’Intelligenza Artificiale nel ciclo di vita dei medicinali. A partire da un documento di cui ha discusso la bozza con i principali stakeholders, tra cui le grandi aziende di farmaci e di dispositivi medici.

Verso un utilizzo responsabile dell'IA nello sviluppo di un farmaco: l'EMA traccia la roadmap dei prossimi cinque anni

La complessità dei modelli di Intelligenza Artificiale applicati agli strumenti per la salute e la loro mancanza di trasparenza potrebbero rappresentare una minaccia alla sicurezza dei pazienti e alla validità degli studi clinici se non gestiti correttamente. Ecco perché è fondamentale garantire che l’AI sia affidabile e priva di pregiudizi. Di questo è convinta L’agenzia Europea dei Farmaci, l’EMA, che ha pubblicato la bozza di un documento su come individuare i rischi legati all’utilizzo dell’IA in tutto il ciclo di vita di un medicinale, in particolare negli studi clinici sull’uomo e sugli animali e la farmacovigilanza, e ha organizzato un convegno per fare sintesi insieme a tutti gli attori del sistema, al fine di favorire, anziché frenare, l’innovazione con l’IA. E l’EMA ha anche in mente una serie di azioni da qui al 2028, che comprendono la creazione di sandbooks, pubblicazioni, gruppi di lavoro e training sull’IA e le sue implicazioni regolatorie.

Ogni utilizzo dell’IA deve risultare conforme a standard etici, tecnici e normativi

Il documento di riflessione di cui è stata discussa la bozza offre indicazioni rispetto ai passaggi che sono necessari nella richiesta dell’autorizzazione all’immissione in commercio di un prodotto che abbia utilizzato IA e l’apprendimento automatico (machine learning) ossia: assicurare che tutti gli algoritmi, i modelli, i set di dati e le pipeline di elaborazione dei dati utilizzati siano idonei allo scopo e siano in linea con gli standard etici, tecnici, scientifici e normativi.

Particolarmente significativo il punto di vista delle aziende farmaceutiche, che si stanno confrontando concretamente già da tempo con il nuovo strumento. Diversi i grandi nomi dell’industria che dichiarano di apprezzare la coerenza del documento con il quadro regolatorio esistente, perché facilita la conformità e la comprensione dei limiti di ciò che è permesso fare, fornendo una base solida su cui costruire e innovare senza ambiguità.

Dalle aziende la richiesta di aiuto sulla gestione dei bias e sulla mitigazione del rischio

Le aziende hanno sollevato osservazioni rispetto i bias nei dati, l’affidabilità degli strumenti, e la definizione di rischio: c’è bisogno, dicono, di porre maggiore enfasi su come gestire il bias, che può emergere in modo inaspettato e talvolta essere difficile da mitigare completamente.

Stephen Pyke dell’Association of Clinical Research Organizations (ACRO) ricorda che “gli strumenti e i dati utilizzati nell’IA saranno sempre potenzialmente imperfetti. Vorremmo comprendere meglio come questi fattori interagiscono e come si possono mitigare i rischi associati. C’è bisogno di maggiore chiarezza nella definizione di rischio, in particolare distinguendo tra i rischi regolatori e quelli che appartengono esclusivamente al promotore”.

Includere nel documento i fattori che possono mitigare il rischio

Rispetto ai dispositivi con sistemi di IA che vengono utilizzati negli studi clinici “essi”, sostiene Jesus Rueda Rodriguez di MedTech Europe “finiranno per essere dispositivi medici o IVD. E una delle cose che distingue i dispositivi medici e gli IVD dalla farmaceutica è che non c’è esclusività dei dati. Come possiamo fare per non compromettere ulteriormente lo sviluppo dei sistemi AI?” E aggiunge: “Sarebbe utile includere nel documento i tipi di fattori mitiganti che si considererebbero quando si valuta il rischio complessivo di un sistema AI. Sarebbe un aiuto per capire che cosa può e non può essere utilizzato per la mitigazione del rischio perché forse ci possono effettivamente essere sostanziali differenze di opinione.”

L’uso dell’IA per valutare i rischi ambientali nel ciclo dei farmaci

Una riflessione è stata posta dall’uso dell’IA anche per la valutazione dei rischi ambientali. Sostiene Ricardo Carapeto di dell’agenzia spagnola dei medicinali e dispositivi medici (AEMPS): “Il documento di riflessione si concentra di più sulla parte clinica, ma i rischi preclinici e ambientali potrebbero trarre grande beneficio da questi nuovi strumenti. Stiamo già utilizzando modelli matematici per prevedere il comportamento delle sostanze nell’ambiente e l’uso potenziale delle tecnologie di apprendimento automatico è molto promettente”.

La Roadmap dell’EMA in tema di IA fino al 2028

Quattro saranno le aree tematiche su cui l’EMA lavorerà nei prossimi 5 anni rispetto all’IA, anche con lo scopo di armonizzare tutte le legislazioni che toccano e toccheranno l’IA: la prima è la guida e il supporto continuo allo sviluppo e alla valutazione dell’IA nel ciclo di vita dei medicinali. “Elaboreremo linee guida in tutta la Rete Regolatoria Europea dei Medicinali sull’uso di modelli di linguaggio, per assicurare che il loro uso sia sano eticamente e legalmente”, spiega Luis Pinheiro, epidemiologo e data scientist che lavora alla Data analytics task force dell’EMA. “Da metà 2024 si inizierà a lavorare in preparazione dell’entrata in vigore dell’AI ACT: creeremo un osservatorio per un monitoraggio costante sia dell’impatto dell’IA che dell’emergere di nuovi sistemi. E stiamo valutando la possibilità di sviluppare una sandbox regolatoria per l’IA”.

Sul percorso di strumenti e tecnologia, l’EMA lavorerà per assicurare la piena conformità con la legislazione sulla protezione dei dati.

In termini di formazione e collaborazione, si creerà un percorso con diversi partner sull’intelligenza artificiale, incluso l’International Coalition of Medicines Regulatory Authorities (ICMRA) e altre agenzie dell’Unione Europea, mentre la Comunità di Esperti Specializzati Europei, che opera sotto il Working Party, stabilirà un’area di interesse speciale sull’IA e creerà un forum per collaborare e condividere conoscenza. L’EU Network Training Centre continuerà ad espandere l’offerta della Digital Academy dedicata all’IA per il personale che si occupa di regolamentazione. Infine, la sperimentazione: “abbiamo pianificato cicli di sperimentazione fino a sei mesi da condurre nei prossimi anni. E ci saranno approfondimenti tecnici che riguardano in dettaglio strumenti e tecnologie a cui si applica la IA specifici”.

In questo percorso si inseriscono poi le collaborazioni con gli altri enti regolatori, in particolare con l’FDA, con cui si stanno creando tavoli di discussione per trovare una convergenza sulle regole che riguardano l’IA.

E il tutto si articola in uno scenario in continuo cambiamento ed evoluzione dove, avvertono gli stakeholders, linee guida e regole poco fluide e aggiornate rischiano di bloccare anziché rendere chiari i percorsi.

Keypoints

  • L’EMA discute una bozza di documento sulla regolamentazione dell’IA nel ciclo di vita dei medicinali con principali stakeholder, tra cui industrie farmaceutiche e di dispositivi medici
  • Lo scopo è garantire che l’IA sia affidabile e senza pregiudizi per la sicurezza dei pazienti e la validità degli studi clinici
  • L’EMA programma azioni fino al 2028 per includere la creazione di sandboxes, pubblicazioni, gruppi di lavoro e formazione sull’IA e le sue implicazioni regolatorie
  • Le aziende chiedono maggiore aiuto nella gestione dei bias e nella definizione e mitigazione del rischio, evidenziando la necessità di chiarezza tra i rischi regolatori e quelli aziendali
  • La roadmap dell’EMA prevede la collaborazione con altre autorità regolatorie, come la FDA, per armonizzare le legislazioni sull’IA e tenere il passo con il suo rapido progresso

Ti è piaciuto questo articolo?

Share

Registrati per commentare l’articolo

Articoli correlati