Assistere gli Stati membri nel mappare i benefici e le sfide associate all’utilizzo degli LMM (Large Multi-Modal Models, modelli multimodali di grandi dimensioni) per la salute. Non solo. Sviluppare politiche e pratiche per un loro sviluppo e utilizzo appropriati. L’Organizzazione Mondiale della Sanità mette nero su bianco le linee guida con il documento “Ethics and governance of artificial intelligence for health” (scarica il documento qui). Una versione aggiornata rispetto al documento già pubblicato nel 2021, non tanto da nuovi utilizzi dell’AI in sanità, quanto dall’emergere di una nuova tecnologia, quella degli LMM. Oggi sono diventati il prodotto commerciale adottato più velocemente nella storia umana e affascinano perché facilitano l’interazione uomo-computer. Una rivoluzione tecnologica che porta con sé rischi e benefici. In Italia, il documento (scaricalo qui) è stato tradotto e commentato dalla SIIAM (Società Italiana Intelligenza Artificiale in Medicina), in collaborazione con l’editore medico-scientifico Zadig, con l’obiettivo di calare le indicazioni dell’OMS nel contesto italiano.
I sei principi guida generali per governi, sviluppatori e fornitori
Grandi aziende tech, startup e governi. Tutti sono affascinati dagli LLM che, nel giro di pochi mesi, hanno conquistato i consumatori. Per questo motivo, fanno gola a molti investitori. Il punto di forza dei modelli di Intelligenza Artificiale è il loro aspetto rivoluzionario. Facendo un salto indietro di tre anni, nel 2021 l’OMS ha pubblicato le linee guida complete sull’etica e la governance dell’AI per la salute. L’Organizzazione ha consultato venti esperti che hanno identificato rischi e benefici connessi all’uso delle nuove tecnologie nell’assistenza sanitaria. Inoltre, hanno elaborato, con il metodo del consenso, sei principi guida generali che rappresentano i pilastri delle politiche e delle pratiche di governi, sviluppatori e fornitori che utilizzano l’AI: proteggere l’autonomia; promuovere il benessere umano, la sicurezza umana e l’interesse pubblico; garantire trasparenza, spiegabilità e intelligibilità; promuovere la responsabilità e l’accountability; assicurare inclusività ed equità; promuovere un’AI che sia responsiva e sostenibile.
Applicazioni, sfide e rischi dei modelli multimodali di grandi dimensioni
Le applicazioni degli LLM nel comparto sanitario sono simili a quelle di altre forme di Intelligenza Artificiale. Cinque sono i principali rischi che possono derivare dal loro utilizzo. Innanzitutto, gli aspetti legale e regolatorio, compresi gli obblighi internazionali sui diritti umani e le normative nazionali sulla protezione dei dati. I modelli di AI potrebbero non essere conformi alle leggi sulla protezione dei consumatori. Gli algoritmi, spesso, sono sviluppati e distribuiti dalle big tech e sono dovuti, in parte, alla significativa mole di risorse informatiche, umane e finanziarie richieste per il loro sviluppo. Questo fattore potrebbe rafforzare le grandi aziende a discapito delle piccole. Inoltre, preoccupazioni legate al potenziale dominio di mercato dei grandi players riguardano un possibile insufficiente loro impegno sui temi dell’etica e della trasparenza. Ma c’è di più. Preoccupano gli aspetti legati all’impronta di carbonio e idrica o al rischio di minare l’autorità epistemica umana, inclusi i domini dell’assistenza sanitaria, della scienza e della medicina.
Etica e governance degli LMM nell’assistenza sanitaria e nella medicina
Gli LLM sono programmati e sviluppati da uno o più attori. La prima fase spetta allo sviluppatore, che spesso coincide con una grande azienda tecnologica. Può anche essere un’università, una piccola azienda, un sistema sanitario nazionale o un consorzio pubblico-privato. Un modello base per finalità generali può essere utilizzato da una terza parte (chiamata “fornitore”) attraverso un’interfaccia di programmazione attiva per uno scopo o un uso specifico. In seguito, il fornitore può commercializzare un prodotto o un servizio sugli LMM a un cliente (o “implementatore”), come un Ministero della Salute, un sistema sanitario, un ospedale, un’azienda farmaceutica o una singola persona. In questo percorso, è importante soffermarsi su tre aspetti: il primo è legato alla tipologia di rischi che possono sorgere in ogni fase della catena di valore e quali attori sono meglio posizionati per affrontarli, il secondo riguarda ciò che può fare un attore rilevante per affrontare i rischi e quali principi etici devono essere rispettati, infine, qual è il ruolo dei governi.
Etica e governance dell’AI per la salute: modelli multimodali di grandi dimensioni
Sviluppo, fornitura e implementazione sono le tre fasi che portano alla “nascita” degli LMM. Gli algoritmi offrono grandi opportunità per migliorare l’healthcare, ma è importante gestire al meglio i rischi. Nello specifico, quali sono i rischi da affrontare e cosa può essere fatto e da chi? Alcuni focus che meritano particolare attenzione riguardano la privacy, l’impronta idrica e di CO2, l’occupazione, la cyber-sicurezza, la qualità del paziente-professionista e l’inaccuratezza o le false risposte. Questi fattori chiamano in causa da una parte gli sviluppatori, dall’altra i governi. Servono risposte chiare e immediate, con regolamentazioni adeguate, formazione continua e un impegno verso l’innovazione responsabile per proteggere la sicurezza dei pazienti e l’integrità dei sistemi sanitari. Gli sviluppatori dovrebbero puntare su salari equi e sostegno ai lavoratori, migliorare l’efficienza energetica dei modelli, comunicare rischi, errori e danni noti con avvertenze chiare o evitare l’uso degli LMM in contesti impropri. I governi dovrebbero applicare leggi forti sulla protezione dei dati, istituire un’agenzia regolatoria per valutare e approvare i Large Multi-Modal Models per la salute, richiedere prove di performance e conformità con le normative sui dispositivi medici e coinvolgere il pubblico per comprendere la condivisione dei dati, valutare l’accettabilità sociale e culturale, migliorare l’alfabetizzazione sull’AI e valutare gli usi accettabili degli algoritmi di Intelligenza Artificiale.
È necessaria una governance internazionale per garantire che le aziende sviluppino e implementino sistemi basati sugli LMM, capaci di soddisfare adeguati standard di sicurezza ed efficacia, e guidare lo sviluppo e l’uso delle tecnologie emergenti in modo sostenibile e inclusivo per tutta l’umanità.