Luciano Floridi (SEPAI) e la sfida etica dell’IA: «Serve una governance inclusiva per evitare una pandemia digitale»

Luciano Floridi: «L’IA non è un oracolo». L’uso inconsapevole? «Una pandemia digitale». SEPAI e la sfida etica

di Cristina Bellon
Immagine di Cristina Bellon

Cristina Bellon

Perché ne stiamo parlando
Il filosofo Floridi è il presidente onorario della nuova Società europea per l’etica e la politica dell’intelligenza artificiale, che vuole guidare l’Europa verso un’IA equa, trasparente e al servizio delle persone. L’IA in sanità? «Uno strumento potente richiede professionisti all’altezza, non improvvisazione».

Getting your Trinity Audio player ready...

L’intelligenza artificiale non è neutrale: oggi più che mai serve scegliere come vogliamo usarla.

L’Europa ha una nuova piattaforma per affrontare questa sfida: si chiama SEPAI – Società europea per l’etica e la politica dell’intelligenza artificiale, e alla sua guida, come presidente onorario, è stato eletto Luciano Floridi, tra le voci più autorevoli della filosofia contemporanea. Professore di sociologia della cultura e della comunicazione all’Università di Bologna e professore e direttore del Digital Ethics Center della Yale University, Floridi è un osservatore acuto della trasformazione digitale.

Con lui parliamo della necessità di una governance responsabile dell’IA, dei rischi da evitare, del ruolo dell’Europa e degli effetti concreti sulle scienze della vita, tra cui la crescente (e talvolta inconsapevole) adozione dell’IA da parte del personale medico.

Professor Floridi, quali sono le priorità etiche e politiche che l’Europa deve affrontare per rendere l’IA davvero utile alle persone?

«L’intelligenza artificiale può essere un’occasione per costruire una vera sovranità digitale europea, capace di affermare autonomia, diritti e fiducia. Ma serve una voce unita, non frammentata su base nazionale. Abbiamo perso occasioni nel digitale – pensiamo al web o alla telefonia mobile – ma l’IA ci offre la possibilità di non sprecare un’altra crisi. È necessario decidere quali tecnologie adottare, da chi, come e secondo quali standard, altrimenti non possiamo nemmeno parlare seriamente di legge, governance o fiducia. L’Europa ha le risorse per essere una guida globale, ma deve agire come squadra».

Quali rischi dobbiamo prevenire per evitare che l’IA diventi uno strumento di controllo o disuguaglianza?

«Distinguiamo tra rischi vecchi, che l’IA aggrava, e rischi nuovi. I primi includono privacy, sorveglianza e disuguaglianza: l’IA non li ha creati, ma li amplifica. I nuovi riguardano l’allocazione della responsabilità – oggi distribuita in modo talmente complesso da renderla quasi inafferrabile – e la persuasione opaca, ovvero la capacità dell’IA di influenzare decisioni e comportamenti in modo non trasparente. C’è poi un rischio più ampio, legato all’innovazione tecnologica in sé: l’elasticità sociale. Ogni nuova tecnologia crea disuguaglianze temporanee tra chi ha accesso e chi no. L’IA non fa eccezione».

Come affrontare questi rischi?

«Con tre parole chiave: educazione, formazione, regolamentazione. Alcuni problemi si attenueranno col tempo – pensiamo alla disuguaglianza tecnologica – ma per altri serve agire. Dobbiamo abbandonare la falsa alternativa “innovazione o regolamentazione”. È un inganno: una buona regolamentazione favorisce l’innovazione, non la blocca. Come con l’aeronautica o l’energia, anche l’IA richiede regole chiare, condivise e capaci di proteggere. Lo abbiamo già visto in altri ambiti: non si può volare senza controlli, né accendere una centrale nucleare senza licenze. L’Europa sta facendo passi avanti – AI Act, il Digital Services Act, il Digital Markets Act – ma serve accelerare».

Nel campo delle scienze della vita, come conciliare innovazione e tutela dei diritti?

«Serve un rapporto proficuo tra ricerca e mercato, non una fusione indistinta. Quando il mercato guida da solo l’innovazione, si finisce per investire solo in ambiti ad alta profittabilità, come per esempio i farmaci per dimagrire, trascurando patologie rare, ma gravi, poco “redditizie”. Il benessere delle persone è soprattutto una questione sociale, non solo economica. E servono regole per garantire equità, perché le stesse cure non funzionano su tutti, specie se basate su dati parziali. L’IA deve essere testata su popolazioni rappresentative, altrimenti rischia di escludere».

Oggi molti medici usano l’IA senza sapere come funziona. È una deriva pericolosa?

«Sì. Parliamo di una vera pandemia digitale. Oggi, secondo l’American Medical Association, due medici su tre negli Stati Uniti usano strumenti generici come ChatGPT, spesso senza formazione adeguata. Anche nel Regno Unito un medico di famiglia su tre si affida all’IA. Ma l’IA non è un oracolo. Se non è addestrata su dati clinici specialistici, se non è usata con competenza, crea enormi rischi. Serve formazione, corsi seri e autorevoli, perché non si tratta di cercare una ricetta per il risotto: qui si lavora sulla salute delle persone. Uno strumento potente richiede professionisti all’altezza, non improvvisazione. E di cialtroni, oggi, ce ne sono molti».

Qual è il ruolo della SEPAI in questo contesto?

«La Società Europea per l’Etica e la Politica dell’Intelligenza Artificiale nasce per rafforzare la cultura etico-politica dell’IA e tradurla in policy. Non si occupa solo del “dover essere”, ma anche del “come fare”. È un’iniziativa per dare all’Italia un ruolo più da protagonista e meno da spettatore. Serve contrastare l’improvvisazione, dare visibilità a chi ha competenze reali e aiutare cittadini, aziende e istituzioni a trovare riferimenti affidabili e competenti. L’etica è una bussola che deve guidarci in questa veloce evoluzione tecnologica».

Keypoints

  • L’Europa deve costruire una vera sovranità digitale, investendo in tecnologie etiche e accessibili.
  • L’IA amplifica rischi vecchi (privacy, disuguaglianza) e ne crea di nuovi (responsabilità diffusa, persuasione opaca).
  • Solo educazione, regolamentazione e consapevolezza possono evitare derive gravi.
  • Nelle scienze della vita, l’IA va usata con attenzione, testata in modo equo e regolata con rigore.
  • SEPAI vuole offrire una guida etica e politica seria, per contrastare disinformazione e incompetenza.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Altri articoli

Iscriviti alla nostra newsletter

Rimani aggiornato su tutte le novità