“L’Intelligenza Artificiale è ormai imprescindibile. Non si torna indietro. Perché questi sistemi hanno capacità di analisi che sono imparagonabili a quelle umane. È come voler tornare al tempo in cui non si era scoperto il microscopio elettronico. Non avrebbe senso”. A dire senza mezzi termini quanto sia importante oggi l’IA per il sistema paese è Gianluigi Greco, Ordinario all’Università della Calabria, Presidente dell’Associazione Italiana Intelligenza Artificiale (AIIA) e neo coordinatore del Comitato di Coordinamento per l’aggiornamento delle strategie sull’utilizzo dell’intelligenza artificiale, voluto dal Sottosegretario per l’innovazione tecnologica e la digitalizzazione, Alessio Butti. Si tratta di un comitato composto da 13 esperti con l’obiettivo di elaborare una strategia nazionale sull’IA. Il governo conta di attivare anche un fondo da 800 milioni per l’intelligenza artificiale. Già nel 2018 era stata istituita una commissione per una strategia nazionale sull’AI. Per questo motivo abbiamo voluto capire meglio con il Professor Greco a cosa servirà esattamente questo organo.
Professor Greco, quali sono in concreto gli obbiettivi del comitato?
Il nostro mandato è definire la strategia italiana per l’intelligenza artificiale con un orizzonte almeno triennale. Il gruppo è formato da professori universitari, esperti intelligenza artificiale, ci sono giuristi, esperti di comunicazione, legali, ed esperti etici. Perché la capacità di lavorare in modo interdisciplinare è cruciale in un settore come questo.
Come lavorerà in concreto la commissione?
Questa è una Commissione che in realtà guarda ai macro ambiti italiani, quindi formazione, ricerca, pubblica amministrazione, imprese, ma in un’ottica assolutamente trasversale: si tratta di definire quali siano le iniziative fondamentali, cioè dove vogliamo andare, cosa vogliamo dispiegare per essere competitivi nel panorama internazionale. Stiamo lavorando in modo operativo. Ci incontriamo tutti i giorni, è un lavoro continuativo. E lo facciamo con il supporto di AGID, Agenzia per l’Italia Digitale, e del Dipartimento per la trasformazione digitale.
Nello specifico produrrete protocolli, linee guide? Quali saranno i vostri output?
In Italia c’erano già delle strategie per l’intelligenza artificiale, nel 2018 erano state delineate anche da AGID, specifiche per la pubblica amministrazione, poi nel 2020 c’è stata una strategia sviluppata dal MISE, con un aggiornamento nel 2021. Quindi il nostro gruppo di lavoro non affronta aspetti di regolamentazione come quelli che si stanno già definendo in ambito Ue con l’Ai ACT che dovrebbe essere approvato a breve. Noi lavoriamo sulle azioni concrete: vogliamo avere non solo linee di indirizzo, ma implementare azioni strategiche, con indicatori misurabili. Vogliamo adottare un approccio di estrema concretezza.
E per farlo cercate quindi cercate di potenziare le attività già esistenti in Italia nell’ambito dell’IA?
Evidentemente le esperienze che già esistono non devono essere abbandonate, ma consolidate. Per quanto riguarda la salute, ad esempio, bisogna ragionare sul ruolo strategico che l’intelligenza artificiale può avere sulla salute in generale, andando oltre il concetto di medicina, ma semmai di benessere della popolazione, quindi a partire dalla prevenzione.
Dal suo punto di vista, le preoccupazioni che sentiamo sulla possibilità che l’IA prenda il sopravvento sugli umani sono condivisibili?
Purtroppo, la discussione su questi temi è molto inquinata da tanta disinformazione che causa una sbagliata percezione di cosa sia veramente l’intelligenza artificiale, di quali siano i suoi confini, i suoi ambiti di applicazione, di dove sia quella zona oltre alla quale l’intelligenza artificiale tecnicamente non riesce ad andare. C’è molta enfasi oggi su questi sistemi generativi, ma si tratta di sistemi che producono informazioni che forniamo noi. Non possono inventare nulla.
Intende dire che la capacità creativa è solo appannaggio dell’essere umano?
La capacità di creazione nel senso più puro del termine non è alla portata delle macchine, non lo può essere strutturalmente. Le faccio un esempio: se lei chiede a Chat GPT perché una mela cade da un albero, Chat GPT le spiegherà tutti i fenomeni fisici collegati all’attrazione gravitazionale, ma immagini di fare la stessa domanda prima di Newton, cioè prima che l’uomo avesse scoperto e avesse ragionato su questo fenomeno. ChatGPT non potrebbe rispondere, perché non ci sarebbero i testi dove attingere le informazioni. Il vero tema è che questi sistemi sono in grado di manipolare enormi mole di informazioni e sono in grado di manipolare la nostra attuale conoscenza, ma non di produrre conoscenza nuova. Sono manipolazioni simboliche di conoscenze che noi già abbiamo.
Quindi niente allarmismi?
No, anche perché questi sistemi sono assolutamente imprescindibili, hanno delle capacità di analisi che sono imparagonabili a quelle umane. È come voler tornare al tempo in cui non si era scoperto il microscopio elettronico. Non avrebbe senso. Oggi l’intelligenza artificiale è un nuovo e più potente microscopio che ci aiuta a identificare lesioni tumorali, interpretare TAC, radiografie, risonanze magnetiche. Abbiamo tantissimi dispositivi medici che usano l’intelligenza artificiale. La Food and Drug Administration ha aperto un capitolo specifico per i dispositivi medici che utilizzano elementi di intelligenza artificiale, soprattutto in ambito radiologico, che è proprio l’ambito più maturo, perché sull’analisi delle immagini ormai le performance dei sistemi di intelligenza artificiale hanno superato quelle umane.
Sul tema sicurezza, come possiamo essere sicuri che l’AI in ambito salute si alleni con fonti validate e corrette scientificamente?
Nei sistemi che utilizzano i Large Language Models, non sappiamo come sono stati allenati, non sappiamo se i dataset sono accurati, questo è un tema strategico. Possiamo decidere di continuare a usare strumenti che non conosciamo, che neanche i tecnici sono in grado di conoscere, oppure decidiamo che in Italia vogliamo dare il via ad un’IA che sia veramente trasparente. Questo non significare eliminare le “allucinazioni”, non si può perché si tratta di sistemi statistici che non capiscono quello che stanno manipolando. Ed ecco quindi il nostro ruolo, diventare consapevoli nell’utilizzare questi sistemi. Possiamo addestrare chatbot su specifici domini applicativi e quindi evitare allucinazioni più ampie, ma il rischio che le IA scrivano delle cose che non hanno alcun fondamento resta sempre altissimo, il rischio che non siano in grado di fare dei ragionamenti che per noi sono banali è altissimo, anzi non è un rischio, è la concretezza. Questi sistemi non ragionano nel senso nostro del termine, mettono assieme statisticamente una serie di informazioni.
Quindi l’unica strada è formare gli utenti di AI sui limiti di questi sistemi e sul saper riconoscere gli errori?
Esattamente. È importante che le persone che li usano, ne conoscano i limiti. Occorre formare gli utenti a utilizzare l’IA in modo corretto e a riconoscere le allucinazioni.
La strada è quindi tracciata, dall’AI non si torna indietro, come dice Greco, si può solo cercare di governarla per aiutare a far evolvere la nostra società. Il comitato che presiede avrà quindi il ruolo di definire meglio questo perimetro e le azioni concrete per usare al meglio questa tecnologia.