Digital Health

Camisani Calzolari: «Non dobbiamo delegare alle varie AI la maggior parte della nostra vita»

Perché ne stiamo parlando
Come garantire che l’AI venga utilizzata in modo sostenibile ed etico nella sanità? Secondo Marco Camisani Calzolari i dati sanitari delle persone hanno rappresentato da sempre un problema. Quali sono i rischi per l’uomo e quando un algoritmo fallisce, chi sta fallendo?

Camisani Calzolari: «Non dobbiamo delegare alle varie AI la maggior parte della nostra vita»
Marco Camisani Calzolari, Divulgatore scientifico

Intelligenza Artificiale, etica, democrazie a rischio e lavori rubati dai robot. Che cosa fare per tenere sempre l’uomo al centro? Chi è responsabile quando un algoritmo fallisce e quanto dovremmo affidarci all’AI per decisioni cruciali, soprattutto nell’ambito sanitario? A queste domande Marco Camisani Calzolari cerca di rispondere nel suo ultimo libro Cyberumanesimo. «Il comparto sanitario è stato uno dei primi settori in cui è stata introdotta e adottata l’AI, parliamo di circa cinquant’anni fa. Poi si è sviluppata nella diagnosi per immagini. Oggi, invece, l’AI va a lavorare su tantissime altre informazioni e dati sulle persone che prima non erano “interessanti” perché non esistevano i LLM (Large Language Models).

Come garantire che l’Intelligenza Artificiale venga utilizzata in modo sostenibile ed etico nella sanità?

«I dati sanitari delle persone hanno rappresentato da sempre un problema».

In che senso?

«Si pensi alla ricerca scientifica. Da sempre ha faticato ad accedere a quei dati perché il Garante impediva l’accesso, in alcuni casi, anche per scopi di ricerca. Immaginati, oggi, con l’AI, quante possibilità si sono aperte ma, allo stesso tempo, quanti limiti ci sono. Si tratta di una scelta filosofica, è un approccio che può essere diverso e su cui è giusto ci sia un confronto. Per cui, la risposta non è difficile. Ognuno può avere la propria la legalità ma, a volte, le regole troppo stringenti possono rendere difficile muoversi con elasticità, soprattutto in un mondo in cui altre nazioni sono più veloci».

Quali possono essere i rischi per l’uomo?

«Delegare alle varie AI la maggior parte della nostra vita. Oggi l’uomo si affida sempre di più agli algoritmi: dal navigatore alle ricerce fatte su ChatGPT. I sistemi di AI Generativa addestrati cancellano i dati che hanno utilizzato per l’addestramento e non si sa nemmeno da dove hanno preso le fonti. Sono delle scatole nere e dentro non sappiamo cosa c’è. Però, dal punto di vista dell’output, sono perfettamente in grado di applicare censure (cose che non si possono chiedere, fare o dire). Fino ad ora generano testi e immagini e poco più, ma immaginiamoci quando tutto questo diventa parte delle scelte di vita: la selezione per un lavoro o la traduzione di qualcosa, fino ad arrivare a oggetti fisici. Pensiamo, ad esempio, ai robot topomorfi che entreranno presto nella vita di tutti».

Quando un algoritmo fallisce chi sta fallendo?

«Gli output della rete neurale, per natura, essendo basati sulle probabilità, hanno una percentuale di errore che a volte diventa macroscopica. Se chiedi chi sono io, ti dà più o meno il 99% di informazioni corrette. Se l’errore avviene nelle piccole cose, fallisce l’azienda che dà il servizio. Se l’errore dovesse essere più vasto, come la probabilità per cui sia il momento giusto o meno di sferrare un attacco atomico, ecco che fallisce l’umanità intera».

A che punto siamo dal punto di vista normativo?

«Parto da un presupposto. Nel mondo ci sono Paesi cui non interessa questo grande tema, ad altri sì, come l’Italia con la pubblicazione della Strategia italiana per l’Intelligenza Artificiale 2024-2026 e, in generale l’Europa, con l’approvazione dell’AI Act. Gli Stati Uniti, invece, sono quelli che hanno i benefici più evidenti, perché lì ha sede la maggior parte di aziende che sviluppano gli algoritmi. A differenza della visione umano centrica europea, qui, l’approccio è orientato a favorire le imprese e lo sviluppo dei sistemi di AI, poiché solo così può essere mantenuta la leadership americana».

Quindi l’Europa è partita con il piede sbagliato?

«No, è stato un grande punto di partenza. E il punto qual è? Che l’AI Act limita una serie di attività e limiterà sempre di più i vari Garanti europei. L’italiano è stato precursore in questo nel bloccare, nel chiedere e nell’approfondire che cosa è stato fatto di tutti i nostri dati. Quindi, in qualche modo, regolamentiamo e cerchiamo di mettere ordine ad una giungla».

Quanto è alto il rischio di rimanere indietro?

«Molto».

Condivide le regole e limitazioni imposte dall’Europa?

«Sì, preferisco vivere in un posto dove non si pensa soltanto ai vantaggi e ai profitti, ma anche alla legalità finalizzata alla creazione di una buona civiltà. Preferisco un mondo dove esiste il “codice stradale” e non ci “investiamo” tra noi».

Secondo Camisani Calzolari c’è bisogno di un nuovo tipo di umanesimo, quello cyber, ovvero quello che interconnette uomo e macchina. Il cyberumanesimo è un richiamo a riaffermare il nostro ruolo predominante nell’era digitale, a garantire che la tecnologia sia uno strumento nelle nostre mani, e non noi nelle sue.

Keypoints

  • Cyberumanesimo è il titolo del libro di Marco Camisani Calzolari
  • Nella sua opera, il divulgatore scientifico si pone una serie di domande sulla nuova relazione tra l’uomo e tutto ciò che è connesso
  • Il comparto sanitario è stato uno dei primi settori in cui è stata introdotta e adottata l’AI
  • In seguito, si è sviluppata nella diagnosi per immagini
  • Secondo il docente universitario c’è bisogno di un nuovo tipo di umanesimo, quello cyber, che interconnette uomo e macchina
  • Per Camisani Calzolari, l’AI Act limita tutta una serie di attività e limiterà sempre di più i vari Garanti europei

Ti è piaciuto questo articolo?

Share

Registrati per commentare l’articolo

News

Raccolte

Articoli correlati