|
Getting your Trinity Audio player ready... |
Molti degli strumenti di AI più avanzati, come i Large Language Models, restano black-box, cioè strutturalmente imperscrutabili nei loro processi decisionali. «Sebbene sia essenziale garantire trasparenza sull’uso di questi sistemi e molta ricerca viene condotta in questo settore della cosiddetta “spiegabilità” (explainability), è improbabile che riusciremo a spiegare completamente i processi decisionali dei modelli di AI», dice Luigi De Angelis, medico in formazione specialistica in Igiene e medicina preventiva all’Università di Pisa e presidente Siiam (Società italiana intelligenza artificiale in medicina). Si conosce il funzionamento di questi modelli in generale, ma spesso non si è in grado di spiegare sulla base di quali dati il modello produce un risultato.
Quanto deve essere prioritaria questa spiegabilità?
«In medicina, utilizziamo già farmaci, come ad esempio il litio per il disturbo bipolare, il cui meccanismo di azione non è del tutto chiaro, ma che si basa su numerose evidenze scientifiche consolidate di sicurezza ed efficacia. Forse dovremmo applicare i principi della medicina basata sulle evidenze (evidence-based medicine) anche all’AI, riconoscendo che, in alcuni casi, l’efficacia e la sicurezza sono più importanti della completa comprensione del funzionamento del sistema».
AI Act: quali sono le sfide da affrontare e le opportunità da cogliere nell’ambito sanitario?
«Tra le principali sfide c’è la necessità di implementare un quadro normativo che, pur garantendo la sicurezza e la trasparenza, non soffochi l’innovazione. In ambito sanitario, la regolamentazione di sistemi AI classificati come ad alto rischio implica una sorveglianza rigorosa e processi di valutazione del rischio molto dettagliati. Questo può rappresentare un ostacolo soprattutto per le piccole realtà che sviluppano soluzioni AI, poiché i costi di conformità potrebbero essere elevati. Un’altra sfida riguarda l’armonizzazione delle normative in un contesto internazionale, sarà necessario assicurare che il regolamento europeo sia declinato in modo uniforme tra i vari paesi europei, poiché esempi come il GDPR ci ricordano che questo passaggio non è automatico né scontato. Sul fronte delle opportunità, l’AI Act offre la possibilità di creare un ambiente di fiducia per l’adozione di tecnologie AI in sanità. Con regolamenti chiari e standard condivisi, gli sviluppatori di soluzioni AI possono operare in un mercato più prevedibile e accessibile. Inoltre, il rispetto di questi standard auspicabilmente migliorerà la qualità e la sicurezza dei modelli di AI, riducendo rischi di bias e di errori, con un impatto positivo sulla fiducia dei pazienti e dei professionisti della salute».
Quali impatti per gli operatori sanitari?
«Molti professionisti sanitari non dispongono degli strumenti adeguati ad affrontare il cambiamento portato dall’AI. Questi strumenti non riguardano solo competenze tecniche, ma soprattutto un’apertura mentale verso l’innovazione. Spesso, la formazione universitaria non riflette la rapida trasformazione in atto nel mondo della sanità. L’AI sta accelerando questo cambiamento, richiedendo al settore sanitario, tradizionalmente più lento nell’adattarsi, di rispondere rapidamente. Gli operatori sanitari devono diventare protagonisti attivi di questa trasformazione, contribuendo allo sviluppo di soluzioni AI che si integrino efficacemente nella pratica clinica, piuttosto che subirle passivamente, come è accaduto con altre tecnologie in passato. Questo richiede non solo formazione continua (upskilling) e riqualificazione (reskilling), ma anche un vero e proprio cambiamento culturale, basato sull’apertura all’innovazione».
Le organizzazioni sanitarie devono adottare adeguate misure tecniche e organizzative per garantire la sicurezza e l’integrità dei dati sanitari, prevenendo qualsiasi rischio di violazione della privacy. Quali possibili soluzioni?
«Il livello di cybersecurity nelle organizzazioni sanitarie è spesso insufficiente rispetto alle necessità attuali. Purtroppo, spesso l’approccio alla tutela della privacy sembra essere più legato alla forma che alla sostanza. Le soluzioni tecnologiche per garantire la sicurezza dei dati esistono già, e le aziende tech offre ottimi esempi da seguire. Tuttavia, è necessario trovare un equilibrio tra la protezione dei dati e il loro utilizzo in sanità, superando l’attuale tendenza a chiudere l’accesso ai dati in nome della privacy. Una rigidità come quella riscontrata nell’interpretazione del GDPR in Italia, ha creato ostacoli significativi per i ricercatori, e c’è il timore che l’AI Act possa presentare sfide simili. Fortunatamente la recente modifica dell’articolo 110 del codice privacy sembra protendere verso un maggiore equilibrio tra tutela e valorizzazione dei dati. Solo un approccio integrato, che bilanci tutela e innovazione, potrà garantire la sicurezza e l’integrità dei dati sanitari, senza bloccare il progresso tecnologico.
In che stato di salute si trova l’architettura infrastrutturale digitale italiana ed europea?
«Sul fronte della digitalizzazione delle cartelle cliniche, per esempio, il sistema sanitario italiano ha compiuto importanti progressi, anche se permangono differenze tra regioni. Il passaggio successivo è l’interoperabilità dei dati sanitari, un obiettivo cruciale ma complesso da raggiungere ed è proprio in questa direzione che si pongono il Fascicolo Sanitario Elettronico (FSE 2.0) e con l’Ecosistema dei Dati Sanitari (EDS). Senza interoperabilità, diventa difficile far dialogare i vari sistemi e sfruttare appieno il potenziale dell’AI e delle nuove tecnologie. Una volta raggiunta l’interoperabilità, la migrazione al cloud rappresenta un’opportunità significativa per la gestione dei dati. I vantaggi sono molteplici ma questa transizione deve essere accompagnata da adeguate misure di sicurezza e conformità normativa, garantendo che i dati sensibili dei pazienti siano protetti e che le infrastrutture siano resilienti».
Piattaforma Nazionale di Telemedicina (PNT): a che punto siamo? L’Italia è pronta al cambiamento?
«Tra i risultati più promettenti degli investimenti del PNRR (Piano Nazionale di Ripresa e Resilienza) c’è la PNT, progettata per uniformare l’offerta di servizi di telemedicina su tutto il territorio nazionale. A ottobre 2024 è iniziata la fase di popolamento dei dati, coinvolgendo inizialmente alcune regioni pilota. La piattaforma si basa su un coordinamento strategico tra il livello centrale e locale, e su un partenariato pubblico-privato. Questo approccio offre spunti importanti per l’integrazione di soluzioni basate sull’AI, poiché i principi di interoperabilità e collaborazione richiesti per la telemedicina sono simili a quelli necessari per l’AI. L’Italia ha gettato solide basi, ma la vera sfida sarà garantire che tutte le regioni e strutture sanitarie si allineino al cambiamento, evitando disparità territoriali».
L’Explainable AI (XAI) sta rivoluzionando il mondo della tecnologia e del machine learning. Tuttavia, insieme alle sue immense potenzialità, sorgono anche importanti questioni etiche che richiedono attenzione e riflessione: trasparenza e accountability; bias e fairness; privacy e sicurezza. Non bisogna sottovalutare l’importanza di una governance efficace quando si tratta di incorporare l’XAI nella nostra vita quotidiana.


