Business

Si può pensare in futuro un AI Act mondiale? Zanotti (UniPv): «Impossibile»

Perché ne stiamo parlando
Per l’avvocata non ci sarebbero abbastanza obiettivi comuni. Inoltre, servirebbe un organo superiore al quale tutti i Paesi aderiscono, come l’ONU. Ma l’organizzazione intergovernativa ha perso forza negli ultimi anni.

Si può pensare in futuro un AI Act mondiale? Zanotti (UniPv): «Impossibile»
Helga Carlotta Zanotti, Tutor, Master International Business Entrepreneurship, Università di Pavia

«Ci sono parametri troppo diversi sul tavolo: mentre il focus del diritto europeo è sulla persona, quello degli Stati Uniti è sul business». Regolare sì, spiega Helga Carlotta Zanotti, Tutor del master International Business Entrepreneurship dell’Università di Pavia, ma ogni Paese, o gruppi di Paesi, come l’Unione Europea, ad esempio, dovrà avere la sua normativa. «Non escludo che in futuro gruppi di Paesi possano adottare norme comuni», aggiunge. Ad oggi, non ci sono abbastanza obiettivi comuni. Volendo auspicarlo, servirebbe un organo superiore al quale tutte le nazioni aderiscono, come l’ONU (Organizzazione delle Nazioni Unite): «Ma quest’ultimo ha perso forza negli ultimi anni – sottolinea l’avvocata – è riuscita a fare sentire la propria voce in ambito ESG (Environmental, social, and governance), non è detto che riesca a farla sentire in ambito robotica».

È stata approvata la prima legge al mondo sull’Intelligenza Artificiale. Possiamo considerarla un buon punto di partenza?

«Si, è un ottimo punto di partenza, soprattutto in considerazione del fatto che pochi mesi prima, a fine 2023, Joe Biden ha emanato una norma che aveva lo stesso nome: si chiamava AI Act, ma solo formalmente paragonabile all’AI Act europeo, in quanto focalizzato sul business. Come direbbe un avvocato, con un differente approccio regolatorio».

In che senso?

«L’Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence di Joe Biden, è uscito il 30 ottobre del 2023. Si occupava prevalentemente del business, del ruolo dell’AI nello sviluppo dell’impresa. Quello europeo, invece, si basa sulla persona, come tutto il diritto europeo. Ritengo che sia un ottimo punto di partenza sostanzialmente per tre motivi fondamentali».

Quali?

«Il passaggio dell’etica da soft law a hard law. Cosa significa? Che all’interno dell’AI Act noi leggiamo una norma che prevede che ci sia un comportamento etico relativamente all’uso dell’AI. L’etica non è più una linea guida, è una norma. Il secondo elemento è la visione antropocentrica, che è il focus proprio della norma europea. Il terzo è l’attenzione alla graduazione del rischio sulla base dell’impatto sui diritti fondamentali, quindi, di un’intelligenza artificiale che sia affidabile. Cosa vuol dire affidabile? Che consenta di evitare pregiudizi fisici, psicologici, sociali, ma anche economici, in linea con la carta e i valori su cui si basa l’Unione Europea».

AI Act e responsabilità: quali sono gli sviluppi?

«Secondo me l’atto ha risolto una serie di dubbi e incertezze in modo brillante. Pone grande attenzione a individuare una specifica persona fisica o giuridica, quindi un essere umano o una società, che sia considerabile come fornitore di quel sistema di AI e poi, a catena, sul distributore, l’acquirente e sull’utilizzatore finale».

Qualche esempio?

«Il fornitore di un esoscheletro per un malato che abbia difficoltà a reggersi sul proprio corpo o di braccia robotiche che effettuano interventi di alta precisione guidati dall’essere umano, per evitare il tremore inconsulto del chirurgo. Quindi punto di partenza è la responsabilità in capo al fornitore che mette sul mercato oppure che mette in servizio il sistema di AI soprattutto quando è ad alto rischio. A prescindere dal fatto che la persona, cioè la persona fisica o giuridica che l’ha messo in commercio, sia anche la persona che l’ha progettato e sviluppato. In altre parole, il regolamento sull’AI prevede una responsabilità a catena. Ha responsabilità: il produttore, il distributor e l’acquirente. Perché deve rispettare tutta una serie di procedure per garantire che quel sistema di Intelligenza Artificiale sia sempre aggiornato. Perché adesso siamo nel mondo dell’Intelligenza Artificiale generativa. La responsabilità a catena fa sì che non venga mai meno la responsabilità di qualcuno, per ciò che lui o lei ha può fare relativamente al sistema di AI in suo possesso».

Privacy e AI: quanto siamo tutelati?

«Una delle strategie messe in atto per tutelare la riservatezza in ambito sanitario è la corretta redazione dell’informativa relativa al trattamento dei dati, cioè quel documento che firmiamo quando andiamo da un medico oppure in ospedale a sottoporci agli esami. Un documento che precisa le finalità del trattamento dei nostri dati con due focus: cura e sperimentazione. Altri punti prevedono l’impiego dei dati a fini di marketing o per finalità generiche, come l’autorizzazione a divulgare quei dati a soggetti terzi. Qui, secondo me, è molto importante, svolgere un’attività di alfabetizzazione del malato. In secondo luogo, la protezione dei dati dall’abuso del settore commerciale, per il quale lo stesso malato potrà accettare che i suoi dati siano trattati per eseguire il contratto di cura e per il legittimo interesse dei ricercatori a studiare nuove cure sulla base dell’esito di quelle odierne».

In che modo?

«Le case farmaceutiche potrebbero incrementare il costo dei farmaci proporzionalmente ai dati di consumo stimati dall’AI o fare ricerche soltanto nei settori indicati dall’Intelligenza Artificiale come particolarmente redditizi».

Ci si pone, adesso, il problema dell’uso secondario dei dati. In che modo si può tutelare?

«Questo, a mio avviso, è un tema caldissimo. Mi riallaccio a quanto detto prima. La redazione dell’informativa al trattamento dei dati, che dovrà presentare come uniche finalità la finalità di cura e la finalità di miglioramento del servizio di cura, ma non assolutamente quella di cessione dei dati ai terzi».

Chi sono questi terzi?

«Le grandi case farmaceutiche o le grandi big tech, per esempio, che sviluppano la robotica impiegata in ambito medico le quali, viceversa, dovrebbero seguire le indicazioni che vengono da autorità, a mio parere, di tipo pubblico. In buona sostanza, l’uso secondario dei dati mirerei a escluderlo. Dobbiamo puntare almeno ad arginarlo perché c’è scarsa sensibilità verso il trattamento dei dati».

Gli States sul business, l’Europa sulla persona. Quali aspetti possiamo prendere di buono dagli USA?

«Quella americana è una normativa più a maglie larghe, consente maggiore libertà e, si sa, che la sperimentazione ha bisogno di libertà. Però, devo ammettere che nell’AI Act europeo si fa espresso riferimento a una maggiore libertà in ambito di sperimentazione, ad esempio, anche nel settore medico-sanitario. Dall’altro lato, gli Stati Uniti sono il Paese delle big tech che lavorano con un focus sull’interesse economico estremamente marcato. Questo è in contrasto con la volontà europea».

Affidabilità vuol dire che la persona si può affidare all’Intelligenza Artificiale. Questo si traduce che l’AI ne rispetta i diritti fondamentali, valori su cui si basa l’AI Act europeo. I prossimi mesi saranno fondamentali per l’Ue. La mission è sempre la stessa: garantire un utilizzo sicuro, etico e trasparente delle nuove tecnologie.

Keypoints

  • L’AI Act è una proposta di regolamento presentata dalla Commissione Europea il 21 aprile 2021
  • L’obiettivo è creare un quadro normativo armonizzato e proporzionato per l’AI nell’Unione Europea
  • Il nuovo regolamento europeo è stato approvato il 13 marzo 2024 dal Parlamento Europeo
  • Il 21 maggio ha ottenuto il via libera all’unanimità dal Consiglio Europeo
  • Il 30 ottobre 2023 è stato emanato l’Executive Order on the Safe, Secure, and Trustworthy Artificial Intelligence
  • A differenza di quello europeo, l’approccio è orientato a favorire le imprese e lo sviluppo dei sistemi di IA

Ti è piaciuto questo articolo?

Share

Registrati per commentare l’articolo

News

Raccolte

Articoli correlati