L’Intelligenza artificiale sta rapidamente ridefinendo il panorama della sanità globale, promettendo rivoluzioni dalla diagnostica alla gestione delle terapie. Ma come si garantisce che questa tecnologia potente sia utilizzata in modo sicuro, etico ed efficace? La risposta si cela nelle normative e nelle linee guida che le nazioni stanno faticosamente tessendo.
Al centro di questo dibattito, emerge un interessante confronto tra l’Unione Europea e il Canada, in particolare per quanto riguarda l’applicazione dell’Ai nella Valutazione delle Tecnologie Sanitarie (Health Technology Assessment – HTA). Sebbene entrambe le giurisdizioni condividano principi fondamentali, le loro strategie attuative rivelano approcci distinti, con l’Europa in posizione di avanguardia normativa grazie al suo pionieristico Ai Act del 2024.
Un terreno comune: principi etici e di sicurezza al centro
Nonostante le differenze strutturali, Ue e Canada mostrano una convergenza notevole sui pilastri etici e operativi che devono sorreggere l’uso dell’Ai in ambito sanitario. Questi principi sono considerati irrinunciabili per salvaguardare la sicurezza dei pazienti e l’integrità delle decisioni mediche e politiche. In primo luogo, la centralità dell’umano (human in the loop): entrambe le entità sottolineano con forza che l’Ai deve fungere da strumento di supporto, non di sostituzione, per l’intervento umano. Nel contesto sanitario, ciò significa che le decisioni cliniche, così come quelle regolatorie e strategiche, devono rimanere saldamente nelle mani di professionisti qualificati.
Questo principio è cruciale per mantenere il controllo sulla complessità e le implicazioni etiche delle applicazioni Ai. Secondo principio, trasparenza e responsabilità: la chiarezza è un imperativo. Sia l’Agenzia del Canada per i Medicinali (CDA-AMC) che l’Ai Act europeo esigono che l’impiego dell’Intelligenza artificiale sia esplicitamente dichiarato e facilmente comprensibile, specialmente quando l’Ai contribuisce alla produzione di evidenze scientifiche o influenza scelte cliniche e politiche sanitarie. L’Ai Act eleva questo principio a un vero e proprio “obbligo di trasparenza”, con un’enfasi particolare sui sistemi ad alto rischio, dove le conseguenze di un errore potrebbero essere più gravi.
Infine, la valutazione e la mitigazione dei rischi: la cautela è d’obbligo. Entrambe le normative evidenziano la necessità imperativa di identificare e mitigare proattivamente i rischi connessi all’uso dell’Ai. Tra le preoccupazioni principali rientrano i bias nei dati, gli errori algoritmici e le interpretazioni errate, che potrebbero portare a diagnosi imprecise o a decisioni sanitarie inique o inefficaci.
Le grandi differenze: dalla legge vincolante alla linea guida orientativa
Nonostante i principi condivisi, le modalità di implementazione tra Ue e Canada rivelano divari significativi, che ne delineano percorsi regolatori molto diversi. Il livello di normatività e dettaglio legale: qui risiede la differenza più marcata. L’Ue ha tradotto questi principi in una normativa vincolante e dettagliata: l’Ai Act. Questa legge definisce categorie di rischio chiare (minimo, limitato, alto e inaccettabile), impone obblighi legali precisi ai soggetti coinvolti e prevede sanzioni e meccanismi di enforcement per chi non rispetta le norme. Al contrario, la posizione della CDA-AMC in Canada è, per ora, una Linea Guida o una dichiarazione politica, priva del carattere vincolante di una legge.
Questo la rende più flessibile ma anche meno immediatamente cogente. L’ambito di applicazione: l’AI Act europeo è una norma trasversale, il cui raggio d’azione copre tutti i settori (incluso, ovviamente, quello sanitario) e si applica a qualsiasi sistema Ai che venga immesso sul mercato europeo. La CDA-AMC, invece, ha un focus molto più specifico e ristretto: si concentra sull’uso dell’Ai nella generazione e nel reporting di evidenze per l’HTA. Questa differenza di portata riflette approcci diversi alla regolamentazione dell’innovazione tecnologica.
Infine, la regolamentazione degli strumenti contro l’uso dell’Ai: l’Ai Act europeo si estende non solo agli utilizzatori finali, ma anche ai fornitori e sviluppatori di Ai, come le software house, imponendo loro requisiti tecnici stringenti. La CDA-AMC, per contro, si rivolge principalmente agli utilizzatori finali dell’Ai, come ricercatori, enti di HTA o professionisti clinici. Questo significa che l’Europa sta cercando di regolare l’intera catena di valore dell’Ai, dalla sua concezione al suo impiego, mentre il Canada si concentra sull’applicazione pratica della tecnologia.