È possibile costruire un’intelligenza artificiale che sia allo stesso tempo rispettosa dei diritti fondamentali dell’uomo e utile per il progresso dell’umanità? È stato questo l’oggetto del panel dal titolo “AI Act” che si è tenuto lo scorso 24 maggio al Festival dell’Economia di Trento, moderato dal giornalista Luca De Biase. A discutere dell’argomento, Rita Cucchiara, Professore Ordinario di Ingegneria Informatica presso l’Università di Modena e Reggio Emilia, Giorgio Metta, Direttore Scientifico dell’Istituto Italiano di Tecnologia, Ferruccio Resta, Presidente della Fondazione Bruno Kessler e Roberto Viola, Direttore Generale per le politiche digitali della Commissione Europea (DG Connect), che ha scritto con De Biase un libro sull’argomento (La legge dell’intelligenza artificiale, edito dal Sole 24 Ore) che uscirà il 27 giugno.
Lo spunto di discussione nasce dalla stretta attualità. Il 13 marzo L’AI Act, il regolamento che mira a fornire un quadro giuridico uniforme per l’utilizzo dell’Intelligenza Artificiale nell’Unione Europea, è stato approvato dal Parlamento Europeo, diventando legge. Si tratta del primo ambizioso tentativo a livello globale di regolamentare questo tipo di tecnologia che, se da una parte è in grado di apportare una vasta gamma di benefici in numerosi settori dell’attività umana, dall’altra può pregiudicare i diritti fondamentali tutelati dalla legislazione dell’Unione.
L’attenzione è puntata sui cosiddetti “rischi inaccettabili”
Nelle 458 pagine del regolamento i sistemi di Intelligenza Artificiale sono classificati in base al livello di rischio che rappresentano per le persone e la società: inaccettabile, alto, limitato e minimo. La Commissione Europea li ha raffigurati con una piramide, che ha al vertice i rischi “inaccettabili”, per i quali è previsto un divieto assoluto di immissione sul mercato, e sui quali oggi si concentra maggiormente l’attenzione. Si tratta per esempio 1) dei sistemi che utilizzano tecniche subliminali, cioè che agiscono sulle persone senza che ne siano consapevoli, “per distorcerne il comportamento, pregiudicando la capacità di prendere una decisione informata”. Oppure 2) i sistemi che utilizzano lo scraping, cioè la raccolta di immagini facciali da Internet o da telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. O ancora 3) quelli che deducono le emozioni delle persone nei luoghi di lavoro o nelle scuole. «Casi che riportano alla mente tanti film che in maniera visionaria hanno anticipato questi temi, e che raccontiamo nel libro» ha spiegato Roberto Viola. Chi non ricorda la scena di 2001 Odissea nello Spazio (1968), in cui i due umani per non farsi sentire da HAL 9000, il calcolatore “con l’occhio rosso” che tiene sotto controllo le operazioni di bordo, entrano nella capsula, per poi scoprire che la macchina interpreta le emozioni e legge il labiale? «Stessa cosa per Minority Report» continua Viola «un film del 1983 (tratto dall’omonimo romanzo di P.K. Dick, ndr) che racconta di una società in cui le persone vengono arrestate prima di commettere un crimine, sulla base di un sistema di predizione di reati futuri. Nel regolamento è vietata proprio questa eventualità, la cosiddetta polizia predittiva, cioè i sistemi che unicamente sulla base della profilazione di una (singola) persona o della valutazione delle caratteristiche della personalità sono in grado di prevedere la probabilità che commetta un reato».
Alto, limitato e minimo: gli altri tre livelli di rischio
Scendendo lungo la piramide, si trovano i sistemi a rischio “elevato”, soggetti a rigorosi obblighi e requisiti prima di poter essere immessi sul mercato. Si tratta di sistemi di AI utilizzati per la selezione e il reclutamento del personale, l’ammissione all’istruzione, l’erogazione di servizi sociali essenziali come la sanità, la sorveglianza biometrica a distanza (non in tempo reale). Seguono i sistemi a rischio limitato, soggetti a requisiti di trasparenza: tra essi, quelli che servono a generare o manipolare contenuti audiovisivi (come i deepfake), o a fornire suggerimenti personalizzati (chatbot). «Gli utenti devono essere consapevoli del fatto che interagiscono con un sistema di intelligenza artificiale e comprenderne le caratteristiche e le limitazioni» spiega De Biase. I sistemi che invece presentano un rischio minimo o nullo (alla base della piramide) sono invece liberi da qualsiasi obbligo normativo. Rientrano in questa categoria quelli utilizzati per scopi ludici, come i videogiochi, o per scopi puramente estetici, come i filtri fotografici.
I vantaggi di una regolamentazione
«Il fatto di avere dei vincoli permette di capire cosa si può fare e cosa no» interviene Cucchiara, esperta di visione artificiale. «Un esempio? Stiamo lavorando con aziende meccaniche interessate a esaminare il grado di affaticamento delle persone quando sollevano pesi: per fare questa operazione non importa sapere chi è la persona. Si possono progettare sistemi “privacy by design”, cioè per definizione indipendenti dal volto, perché quello che interessa è lo scheletro. E si possono realizzare anche con sistemi addestrati da videogiochi o di tipo sintetico, che non hanno bisogno del volto per essere efficaci».
L’Europa e l’Italia possono giocare un ruolo importante. Anche in campo della sanità e delle scienze della vita
Il Regolamento apre nuove strade per sperimentare e progettare, e l’Europa e l’Italia possono giocare un ruolo importante. «Abbiamo messo dei vincoli ragionevoli al tipo di AI che vogliamo sviluppare: ora dobbiamo realizzare degli algoritmi che incorporino questi vincoli» è il commento di Giorgio Metta. «Algoritmi più spiegabili, che ci raccontino essi stessi perché prendono certe decisioni piuttosto che altre o perché riconoscono certe immagini piuttosto che altre. Dobbiamo dotarci di infrastrutture, portare persone brave a lavorare insieme, costruire carriere che funzionino e creare ambienti stimolanti. Non è impossibile farlo in Italia e, a maggior ragione, non è impossibile in Europa». Aggiunge Resta: «Se la partita dei Large Language Models è stata persa, quella sui verticali che si aprono a partire da oggi è ancora aperta».
Quali le implicazioni per il settore della sanità e delle scienze della vita? «Quando gli esperti propongono esempi sulle applicazioni dell’Intelligenza Artificiale che avranno effetti positivi sulla società ricorrono sempre al caso della sanità» afferma De Biase. «In effetti le applicazioni, per esempio nella diagnostica, appaiono dense di opportunità. E ancor più si osserva che possono esserlo in generale nelle scienze della vita per quanto riguarda la ricerca, i test, la progettazione di nuove tecniche di cura per le malattie rare, la medicina personalizzata, le terapie geniche. L’AI Act cerca di limitare i rischi peggiori e di guidare lo sviluppo dell’intelligenza artificiale in modo che rispetti i diritti umani. Nei due anni che abbiamo davanti per la piena applicazione del regolamento usciranno molti chiarimenti anche per ciò che attiene questo settore così importante».