L’eXplainable Artificial Intelligence, abbreviata in XAI, può avere un impatto significativo nell’ambito sanitario. I ricercatori stanno esplorando diverse sue applicazioni nel comparto. Un esempio è l’utilizzo di sistemi di AI per supportare la diagnosi di condizioni mediche. In questo caso, XAI potrebbe fornire ai medici una spiegazione chiara e trasparente del ragionamento del sistema di AI, consentendo loro di prendere decisioni più informate sulla cura dei pazienti. Tuttavia, XAI è ancora nella fase di ricerca e la sua implementazione nel mondo reale richiederà una attenta considerazione delle sue limitazioni e dei potenziali rischi.
Ad esempio, il rapporto tra le spiegazioni dell’XAI e la fiducia nei sistemi di IA è ancora una questione aperta. Infatti, seppur sia vero che le spiegazioni fornite da queste tecniche possono aiutare a capire meglio come mai l’AI ha preso una decisione, possono anche portare ad una riduzione della capacità di giudizio critico e a una maggiore probabilità di accettare decisioni errate (questo fenomeno è noto anche come “automation bias”).
Nell’era dell’AI, le decisioni prese dagli algoritmi possono avere un impatto significativo sulle nostre vite. Tuttavia, l’opacità e la mancanza di comprensibilità delle decisioni dell’AI sollevano questioni fondamentali riguardo alla fiducia, all’equità e alla responsabilità. È qui che l’eXplainable AI entra in gioco.
Cos’è e quali sono i benefici dell’XAI
L’Intelligenza Artificiale spiegabile si riferisce alle tecniche utilizzate per spiegare il processo decisionale dei modelli di Intelligenza Artificiale (AI) in modo comprensibile agli esseri umani. Questo campo di studio ha una lunga storia, ma negli ultimi anni ha ricevuto un’attenzione crescente a causa dell’importanza sempre maggiore dei sistemi di IA nella nostra vita quotidiana. Le spiegazioni fornite dalle metodologie di XAI possono aiutare a fare chiarezza sulle motivazioni dietro le decisioni prese da modelli di AI complessi, che spesso risultano incomprensibili anche ai loro stessi sviluppatori. Oltretutto, XAI può supportare la supervisione umana dei modelli di IA e aumentarne la trasparenza, componente essenziale dell’AI affidabile.
Per gli sviluppatori e i ricercatori che creano sistemi di Intelligenza Artificiale, XAI può supportare l’esplorazione dei modelli di IA, consentendo loro di perfezionare e migliorare le loro prestazioni. Per gli utenti, XAI offre un elemento cruciale per la trasparenza dei modelli che utilizzano, consentendo loro di comprendere e verificare il ragionamento alla base delle decisioni AI e costruire un livello appropriato di fiducia in questi sistemi. Infine, per i regolatori e i policymaker, XAI può essere uno strumento potente per garantire che i sistemi di AI siano equi, affidabili e trasparenti.
Un framework standard per spiegare l’accuratezza e l’attendibilità delle decisioni dei modelli di AI
Mentre l’AI spiegabile (XAI) ha il potenziale di rivoluzionare il modo in cui comprendiamo e interagiamo con l’Intelligenza Artificiale, è ancora un campo in via di sviluppo con molte sfide da superare. La maggior parte delle soluzioni XAI sono ancora nella fase sperimentale e i ricercatori stanno lavorando per affrontare diverse limitazioni, tra cui la mancanza di robustezza e affidabilità delle spiegazioni. Inoltre, c’è bisogno di un framework standard per valutare le spiegazioni, che aiuterebbe a garantire che le spiegazioni delle decisioni dei modelli di IA siano accurate e attendibili. Inoltre, gli scienziati stanno studiando la relazione tra le spiegazioni delle decisioni prese da un IA e la fiducia nei suggerimenti dell’IA, al fine di sviluppare strategie per prevenire fenomeni di fiducia eccessiva (fenomeno noto come “automation bias”).
AI e GDPR
L’Ue ha dimostrato un’attenzione particolare ai problemi etici connessi all’AI, introducendo nel 2018 il GDPR (Regolamento generale sulla protezione dei dati). In maniera indiretta viene toccata la questione di poter ottenere spiegazioni: in modo più esplicito, l’articolo 22 pone dei divieti alla valutazione personale basata esclusivamente su sistemi automatici, quando da questa scaturiscano effetti legali. Avere informazioni su come funziona un sistema software complesso è importante. Ci si pone, adesso, la domanda su “quanto rischi di diventare pretesa indebita quando assunto come unico requisito per sistemi AI”.
Il GDPR prevede diversi obblighi informativi in merito al processo decisionale individuale automatizzato, compresa la profilazione (articolo 22 GDPR). Secondo gli articoli 13, 14 e 15, l’interessato deve essere informato dell’esistenza del processo decisionale automatizzato, compresa la profilazione di cui all’articolo 22 e, almeno in questi casi, informazioni significative sulla logica utilizzata, nonché sulla rilevanza e le conseguenze previste di tale trattamento per l’interessato.
Queste disposizioni non si limitano a software complessi o sistemi di AI, ma sono formulate in modo neutrale rispetto alla tecnologia. L’AI Act integra questi obblighi introducendo un dovere di fornire informazioni significative riguardo ai sistemi di AI ad alto rischio, come delineato ad esempio nell’articolo 13 dell’AI Act. Poiché gli obblighi del GDPR sono limitati al processo decisionale automatizzato che produce effetti legali (o di analoga significatività) e gli obblighi dell’AI Act riguardano principalmente i sistemi di AI ad alto rischio, essi sono proporzionali rispetto ai rischi associati.
XAI può dare un supporto importante ai medici, per esempio, fornire una spiegazione chiara e trasparente del ragionamento del sistema di AI. La maggior parte delle soluzioni di Intelligenza Artificiale spiegabile sono in fase sperimentale e molti sono ancora i limiti. Nel frattempo, c’è bisogno di un framework standard per valutare le spiegazioni, che aiuterebbe a garantire che le spiegazioni delle decisioni dei modelli di IA siano accurate e attendibili.