Uno degli elementi centrali dell’AI Act – regolamento dell’Unione europea sull’intelligenza artificiale approvato nel marzo scorso – è il sistema di classificazione del rischio. L’obiettivo è spingere lo sviluppo dell’Intelligenza artificiale garantendo che i rischi potenziali siano gestiti in modo adeguato. Nell’ambito medico, le principali criticità riguardano soprattutto i diritti fondamentali dei soggetti coinvolti: i pazienti.
«Le problematiche riguardano tre aspetti – spiega in questa intervista Piercosma Bisconti, ricercatore del Laboratorio Nazionale di Artificial Intelligence and Intelligent System (AIIS) del CINI (Consorzio Interuniversitario Nazionale per l’Informatica) – e cioè la presenza di bias all’interno dei dataset di addestramento dei sistemi di AI, la loro accuratezza nello svolgere il proprio compito, solitamente di classificazione, e l’interazione AI-utente nel supportare la decisione medica». Sul tema, ha aggiunto, «nelle scorse settimane è stato presentato l’Osservatorio Accredia in collaborazione con il CINI, una novità importante per il monitoraggio e la regolamentazione dell’AI. L’Osservatorio si concentra sul ruolo della conformità accreditata e degli standard tecnici nello sviluppo di sistemi di AI, soprattutto quelli ad alto rischio, come previsto dall’AI Act. In ambito medico, l’applicazione di sistemi di AI rientra tra gli utilizzi che prevedono l’intervento di un organismo notificato. L’Osservatorio, in tale ambito, sviluppa due casi di studio: uno sulla detection del melanoma e uno per la stratificazione dei pazienti con sclerosi multipla simulando una verifica della conformità alla linea guida ISO/IEC TR 24027:2021 per la gestione dei bias».
Quali sono le principali sfide nella standardizzazione dell’AI?
«Quelle connesse ai requisiti orizzontali per settori molto differenti, alla complessità di gestire la regolazione dell’AI come quella di un prodotto, alla gestione dei trade-off tra requisiti, ad esempio, tra privacy e accuratezza; oltre alle sfide connesse alla gestione dell’interazione tra AI Act e regolamenti verticali di settori come dispositivi medici, il mondo assicurativo o altro».
Quale sarà il ruolo dell’Intelligenza Artificiale spiegabile (XAI)?
«Innanzitutto, bisogna fare una distinzione tra AI spiegabile e AI interpretabile. Nel primo caso gli sviluppatori sono in grado, all’interno di un qualunque modello, di comprendere il motivo tecnico che ha portato ad un certo output. L’interpretabilità, invece, riguarda il fatto che il sistema è in grado di fornire una spiegazione comprensibile per il suo utente. La differenza è estremamente importante».
Quanto può influenzare l’assenza di una normativa unica tra gli stati dell’Ue?
«Molto».
Per esempio?
«C’è un rapporto complesso tra i diversi regolamenti: non è ancora chiaro in che modo si relazioneranno l’AI Act e il regolamento sui dispositivi medici. Attualmente ci sono delle sovrapposizioni problematiche. Alcuni requisiti dei due regolamenti possono entrare in conflitto.
Altre problematiche?
«Una seconda riguarda le autorità di vigilanza, in particolare l’applicazione delle sanzioni. Anche qui c’è ancora poca chiarezza su come queste autorità entreranno in rapporto tra loro. Infine, il modo in cui l’UE si posiziona rispetto agli altri attori internazionali. In questo senso, l’Europa può giocare il solito ruolo di “Brussels effect”. L’AI Act è il regolamento più completo e specifico che esiste a livello mondiale. Quello americano è essenzialmente risk management, che non ha requisiti specifici dal punto di vista tecnico. Nell’AI Act, invece, ad esempio, c’è scritto che i log dei sistemi ad alto rischio devono essere mantenuti per almeno sei mesi o che la robustezza va testata soprattutto per i sistemi in continuous learning. In sintesi, l’AI Act pone le basi per un utilizzo responsabile e sicuro dell’AI in ambito medico, ma le sue implicazioni pratiche richiederanno un’attenta implementazione e un costante monitoraggio per affrontare le sfide e le incertezze che ancora sussistono».