Medicina di Genere: Enzo Grossi, anche per l'IA il sesso conta

Medicina di Genere: Enzo Grossi, anche per l’IA il sesso conta

Picture of Simona Regina

Simona Regina

Perché ne stiamo parlando
I bias di genere possono influenzare l’accuratezza dell’IA applicata alla medicina e perpetuare disparità nell’accesso alle cure e nelle prestazioni.

«I risultati dell’applicazione dell’Intelligenza Artificiale in ambito medico sono sempre più promettenti». Enzo Grossi, Direttore Scientifico della Fondazione VSM di Villa Santa Maria e Advisor Scientifico di Fondazione Bracco, si riferisce a come l’uso di sistemi di machine learning stia rivoluzionando screening, diagnosi e gestione dei pazienti, attraverso l’analisi di quantità enormi di dati che sono al di fuori della portata della statistica classica.

Garbage in, Garbage out

Parliamo di sistemi di apprendimento automatico di supporto alle decisioni umane e, in quanto tali, la qualità e la rappresentatività dei dati su cui si addestrano è fondamentale. Come recita infatti lo slogan “Garbage in, Garbage out”, la qualità del risultato prodotto da un algoritmo non può prescindere dalla qualità dei dati su cui opera. Ecco perché è importante che i dati siano disaggregati per sesso e genere e che le donne e le minoranze siano ben rappresentate nei set di dati.

«Se questo non avviene, il sistema di apprendimento automatico generalizza male. In altre parole, se nei dati usati per il training del sistema c’è uno sbilanciamento, una prevalenza di esempi relativi a individui di sesso maschile, questo può indurre poi errori quando al sistema viene presentato un caso di un individuo femminile». Errori di classificazione o di prognosi: perché, come spiega Grossi, la massa enorme di informazione che il sistema ha disposizione (dati genetici, epidemiologici, etc.) viene meglio modellizzata conoscendo anche l’età, gli stili di vita del soggetto, se è uomo o donna, etc.

Il limite dei bias di genere

Ormai è noto che il sesso e il genere, quindi le caratteristiche biologiche e quelle socioculturali, impattano sul nostro stato di salute e di malattia. «L’impatto delle differenze di genere sono state descritte in molte malattie croniche, come il diabete, nelle malattie cardiovascolari e neurologiche, nelle neoplasie… quindi le informazioni su sesso e genere sono significative per la qualità dei modelli predettivi generati dall’Intelligenza Artificiale, affinché possano assistere al meglio i medici e gli operatori sanitari nel processo decisionale. Se i sistemi di AI non ne tengono conto, c’è il rischio di peggiorare le disparità di salute».

Uno studio pubblicato sul Journal of Biomedical Informatics – che analizza la presenza di bias nei modelli di machine learning usati per la predizione delle malattie cardiovascolari – per mitigare questa criticità suggerisce non solo di utilizzare dati rappresentativi della popolazione per addestrare il modello, ma anche di valutare attentamente i modelli di apprendimento automatico per identificare eventuali pregiudizi.

Come spiega Grossi nella newsletter del Centro Studi Nazionale su Salute e Medicina di Genere, Gruppo Italiano Salute e Genere (GISeG) e Centro di Riferimento per la Medicina di Genere dell’Istituto Superiore di Sanità, «Se questi algoritmi non vengono attentamente valutati per verificare la presenza di bias, il miglioramento atteso delle cure sarà limitato solo a un sottoinsieme di pazienti e questo provocherà di conseguenza l’aumento delle disuguaglianze nell’assistenza sanitaria».

Do artificial neural networks love sex?

«Anche per le reti neurali il genere conta» così Grossi sintetizza i risultati di un’analisi illustrata sulla rivista Clinical and Experimental Rheumatology. Do artificial neural networks love sex? How the combination of artificial neural networks with evolutionary algorithms may help to identify gender influence in rheumatic diseases: questo il titolo dell’articolo.

Le reti neurali artificiali sono sofisticati sistemi statistici in grado di imparare dai dati, attraverso il processo di apprendimento automatico, e di elaborare previsioni, sulla base di complessi modelli matematici. «Sono in grado di computare informazioni molto complesse, apprendono per esperienza e i dati stessi generano il modello». Hanno per esempio la capacità di riconoscere pattern e correlazioni nei dati e per questo sono state usate con successo nell’ambito dell’imaging diagnostico, per la diagnosi di melanomi, malattie cardiovascolari, etc..

«Ebbene, dalla nostra analisi abbiamo riscontrato che le reti neurali artificiali considerano rilevanti le informazione relative a sesso e genere per costruire modelli predittivi» puntualizza Grossi.

Grossi ha analizzato 21 data set usati per l’analisi e la stesura di articoli pubblicati su riviste scientifiche internazionali inerenti l’applicazione dell’IA in campo medico e ha valutato quante volte il genere sia stato salvato dai sistemi di machine learning come parte del sottoinsieme di variabili informative utili per addestrare le reti neurali. «Tutti gli studi scientifici presi in esame hanno usato l’algoritmo evolutivo TWIST, sviluppato dal Centro Ricerche Semeion. Questo algoritmo è un sistema di selezione automatica delle variabili: seleziona cioè autonomamente le variabili contenenti informazioni utili e quelle da scartare perché ridondanti e senza un valore aggiunto».

Dall’infarto alla trombosi venosa, dall’Alzheimer all’AIDS, i set di dati riguardavano un ventaglio molto ampio di malattie e tutti includevano informazioni relative al genere. «Il software quindi poteva valutare se questa informazione era rilevante per il modello predittivo che sviluppava. Ebbene, 19 volte su 21 il genere è risultato essere parte del modello predittivo euristico. Questo significa – commenta Grossi – che anche per strumenti altamente adattivi e potenti come le reti neurali, l’informazione sul genere ha un valore specifico per un’elevata accuratezza previsionale».

«Per esempio – conclude -, in uno studio relativo all’artrite psoriasica, avevamo a disposizione una serie di variabili in base alle quali cercavamo di predire la diagnosi. Abbiamo confrontato la performance dei modelli predittivi togliendo e lasciando la variabile di genere e abbiamo constatato che la presenza di questa informazione portava a una maggiore accuratezza del modello nella predizione diagnostica (da 87,7% a 94,4%)».

Keypoints

  • L’uso di sistemi di machine learning sta rivoluzionando screening, diagnosi e gestione dei pazienti
  • La qualità e la rappresentatività dei dati su cui si addestrano è fondamentale affinché siano dei validi sistemi di supporto alle decisioni dei professionisti della salute
  • I dati devono essere disaggregati per sesso e genere e le donne e le minoranze devono essere ben rappresentate nei set di dati
  • Enzo Grossi, Direttore Scientifico della Fondazione VSM di Villa Santa Maria e Advisor Scientifico di Fondazione Bracco, illustra i risultati di un’analisi pubblicata sulla rivista Clinical and Experimental Rheumatology
  • Dall’analisi emerge che gli algoritmi evolutivi come TWIST, che è un sistema di selezione automatica delle variabili, considerano rilevanti le informazione relative a sesso e genere per costruire modelli predittivi

Altri articoli