La progressiva diffusione nei diversi ambiti della società ci sta permettendo di conoscere sempre meglio l’Intelligenza Artificiale (IA). Fra gli aspetti che di recente hanno galvanizzato l’interesse degli esperti, anche la presenza di bias (non solo di genere), potenzialmente correlata a serie conseguenze personali, sociali e politiche. Ne abbiamo parlato con Lydia Mendola, Partner e Head of Intellectual Property Practice di Portolano Cavallo.
Avvocato Mendola, la diffusione dell’Intelligenza Artificiale ci ha messi di fronte al rischio che le sue applicazioni siano penalizzate dal pregiudizio: i bias di genere erano così inaspettati?
Non direi inaspettati. Forse difficili da intercettare e prevenire dal punto di vista tecnico, e poi si scontrano con fattori culturali e socio-economici che non sono omogenei in tutto il mondo. Man mano che ci immergiamo più a fondo nelle capacità e nelle applicazioni dell’IA diventa evidente che gli algoritmi riflettono e possono persino amplificare i pregiudizi esistenti nella società: i modelli di IA, infatti, apprendono dai dati che rispecchiano la realtà in cui viviamo, con tutte le sue contraddizioni. Il processo di training dei modelli di IA ne rende l’output potenzialmente intriso di bias, eventualmente introdotti anche inconsapevolmente nei dataset utilizzati per l’addestramento dei modelli o nei software che li elaborano. Le faccio un esempio: Amazon ha smesso di utilizzare un algoritmo di assunzione, nei sistemi di tracciamento dei candidati, dopo aver scoperto che favoriva i candidati in base a parole come “eseguito” o “catturato”, più comuni nei curriculum degli uomini.
Quali ritiene siano le conseguenze potenzialmente più rischiose?
Le conseguenze possono essere profonde e pervasive e influenzare significativamente l’output dei modelli di IA. Si possono verificare discriminazioni sistematiche a danno di gruppi specifici, basate su genere, razza, età o altre caratteristiche. Dette discriminazioni possono manifestarsi in momenti delicati della vita di un individuo, come la ricerca di un impiego o di un prestito bancario o l’accesso alle cure mediche, tutti ambiti in cui le decisioni influenzate dai bias degli algoritmi possono negare opportunità e trattamenti equi a individui e gruppi, perpetuando le disuguaglianze esistenti. L’inserimento di dataset “corrotti” da bias nei sistemi di IA può addirittura amplificare pregiudizi esistenti creando cicli di feedback di rinforzo e amplificazione. La presenza di bias può erodere la fiducia del pubblico nelle decisioni prese con il supporto dell’IA. Quando le persone percepiscono che le tecnologie sono ingiuste o prevenute, diminuisce la loro fiducia non solo nell’IA stessa ma anche nelle istituzioni che la adottano. Da ultimo i bias possono restringere il potenziale di innovazione e creatività nell’IA. Sistemi addestrati su dati non diversificati tendono a produrre risultati che riflettono visioni del mondo ristrette, datate e parziali, limitando la capacità dell’IA di generare soluzioni innovative o di considerare prospettive alternative.
D’altra parte, nel rapporto “I’d blush if I could” che l’Unesco ha pubblicato nel 2019, viene sottolineato come la connotazione prevalentemente femminile degli assistenti vocali rischi di rafforzare gli stereotipi di genere: questi fenomeni dipendono, a suo parere, dalla composizione dei team di progettazione e quali fattori limitano la presenza femminile in questo settore?
Il rapporto dell’UNESCO “I’d blush if I could” solleva effettivamente preoccupazioni significative riguardo alla prevalenza di assistenti vocali con voce e personalità femminili, evidenziando come questa scelta possa perpetuare stereotipi di genere dannosi. Come dicevo, questa tendenza riflette e rafforza l’idea stereotipata che i ruoli di servizio e assistenza siano naturalmente adatti o preferibili per le donne. La relazione tra la connotazione di genere degli assistenti vocali e la composizione dei team di progettazione è profondamente interconnessa con questioni più ampie di diversità e inclusione nel settore tecnologico. La presenza limitata di donne e altre minoranze di genere nei team di progettazione e sviluppo tecnologico è un fattore chiave che contribuisce a questo problema. Questa mancanza di diversità può portare a un ambiente di eco-camera, dove le prospettive e i pregiudizi predominanti del gruppo vengono riflessi nei prodotti creati. Se i team sono composti principalmente da uomini, è probabile che le loro esperienze, bias e prospettive influenzeranno le decisioni di progettazione, compresa la scelta del genere degli assistenti vocali. Diversi fattori limitano la presenza femminile nel settore tecnologico. Ad essi si aggiunge il fatto che anche i processi di assunzione e promozione sono spesso intrisi di bias di genere, rendendo più difficile per le donne accedere a ruoli di leadership o a opportunità di sviluppo professionale. In conclusione, aumentare la diversità nei team di progettazione potrebbe essere fondamentale per ottenere soluzioni tecnologiche prive di bias. Ciò richiede un impegno a lungo termine per cambiare le dinamiche culturali e strutturali che attualmente si possono riflettere nelle soluzioni di IA.
Il problema riguarda anche la salute: quanto può impattare una migliore formazione degli operatori sanitari in termini di medicina di genere?
La presenza di bias nell’IA ha un impatto significativo sulla medicina di genere, e affrontare questa sfida è essenziale per garantire una pratica medica efficace in modo equo. Come noto, la medicina di genere studia l’influenza del sesso e del genere sulla salute e sulle malattie degli individui, il che significa che studio l’influenza non solo delle caratteristiche biologiche con cui una persona nasce, come cromosomi, gonadi e ormoni, ma anche gli aspetti sociali e culturali associati al maschile e femminile. I gender bias sono pregiudizi o distorsioni legate al genere che possono influenzare la pratica medica. Gli algoritmi di IA utilizzati in medicina possono ereditare pregiudizi dai dati di addestramento. Se questi dati riflettessero disuguaglianze di genere, gli algoritmi potrebbero perpetuare tali disuguaglianze. L’esempio che ho fatto in apertura è riconducibile proprio a questo tipo di bias. Con specifico riferimento al genere, per esempio, è stato rilevato che la ricerca sulle patologie cardiovascolari è stata inficiata in passato da bias di genere, posto che i dati sulla base dei quali si svolgevano le ricerche riguardano prevalentemente gli uomini. Oggi studi scientifici hanno dimostrato che esistono differenze nel fenotipo tra uomini e donne, che riguardano le caratteristiche anatomiche e funzionali del sistema cardiovascolare. E queste differenze, tra le tante, vengono ora opportunamente valorizzate negli studi scientifici. In un contesto come questo è molto importante che gli operatori sanitari siano resi edotti circa gli stereotipi di genere e il rischio di bias nell’IA e sugli effetti che possono produrre nonché sul modo in cui mitigarli. Sarà poi importante aumentare la consapevolezza circa il modo in cui funzionano gli algoritmi di IA e come possono influenzare le decisioni cliniche. Devono essere critici nell’interpretare i risultati e considerare il contesto di genere. Sarà poi prioritario investire nella ricerca sull’IA etica e sulla medicina di genere sviluppando algoritmi che tengano conto delle differenze di genere e che siano trasparenti e spiegabili. In sintesi, affrontare i bias di genere nell’IA richiede un impegno collettivo da parte degli operatori sanitari, dei ricercatori e dei responsabili delle politiche. Solo attraverso un approccio consapevole e inclusivo possiamo garantire una medicina di genere equa e di alta qualità.