Digital Health

Algoritmi in medicina: tra limiti e opportunità

Perché ne stiamo parlando
Quanto conosciamo del nostro universo? Su cosa stanno lavorando gli scienziati e le scienziate del CERN? Reti neurali, Intelligenza Artificiale, Machine Learning e tecniche computazionali stanno rivoluzionando la nostra quotidianità con un grosso scoglio: il deployment.

Algoritmi in medicina: tra limiti e opportunità
Maurizio Pierini, Fisico, CERN

Viviamo in un universo di cui conosciamo solo il 5%. Scoprire di cosa è fatto il restante 95% è un’impresa davvero difficile e da anni gli scienziati del CERN (l’Organizzazione europea per la ricerca nucleare) sviluppano tecniche di Intelligenza Artificiale per analizzare i dati prodotti dagli esperimenti all’LHC (Large Hadron Collider, un acceleratore di particelle situato al CERN di Ginevra, utilizzato per ricerche sperimentali nel campo della fisica delle particelle). Reti neurali, Intelligenza Artificiale, Machine Learning e tecniche computazionali stanno rivoluzionando la nostra quotidianità. Ne abbiamo parlato con Maurizio Pierini, fisico del CERN e tra i relatori della nuova edizione di “Dal CERN alla scuola”, ciclo di webinar per ripensare l’insegnamento delle scienze in chiave multidisciplinare, organizzato da Fondazione Golinelli, in collaborazione con l’Italian Teacher Programme del CERN di Ginevra.

Le reti neurali come stanno rivoluzionando, oggi, l’Intelligenza Artificiale?

«Nel secondo Dopoguerra, tra gli anni Cinquanta e Sessanta, la ricerca sulle reti neurali ha dato il via a quella sull’Intelligenza Artificiale. Un’idea poi abbandonata».

Più volte ripresa e altrettanto abbandonata…

«Adesso stiamo assistendo ad una “quarta ondata”. L’obiettivo era emulare l’intelligenza umana e ottenere un modello matematico della rete. In un secondo momento ci si è accorti che tutto ciò non era fattibile. Nonostante ciò, si sperava in progressi tecnologici futuri. Questa disciplina viene denominata Machine Learning (ML). Si tratta di un sottoinsieme dell’Intelligenza Artificiale che si occupa di creare sistemi che apprendono o migliorano le performance in base ai dati che utilizzano».

Circa quindici anni fa abbiamo assistito ad un’evoluzione tecnologica enorme. Qual è stato l’impatto sul ML?

«Si è capito come allenare queste reti usando lo stesso tipo di hardware che viene utilizzato per i videogiochi: le carte grafiche delle playstation funzionavano benissimo. In poche parole, la matematica che c’è dietro un videogioco 3D è sostanzialmente una matematica fatta di moltiplicazione di matrici per fare le rotazioni, la stessa matematica usata per descrivere le reti neurali».

Qual è stata la prima applicazione?

«Il computing vision, il riconoscimento di immagini. In America era stato creato un algoritmo che permetteva di riconoscere i codici di avviamento postale automaticamente. Un altro esempio è il riconoscimento visivo per sbloccare il telefono. Tutto ciò ha avuto un grande e immediato impatto sulla società. Di conseguenza, compagnie private hanno iniziato ad investire ingenti somme. Tutto ciò ha postato all’esplosione di ChatGPT».

Quali sono le sfide future nel settore medico?

«Secondo me c’è un grosso scoglio in questo momento: il deployment, cioè la diffusione di questi algoritmi in oggetti commerciali che possono essere poi disturbi di nei vari ospedali. Credo che lo scoglio più grande in questo momento non sia nella tecnologia in sé, ma nella capacità della società da un punto di vista legale e commerciale».

Tutto ciò che ruota attorno alla responsabilità del medico nel caso in cui operi con l’AI?

«Esatto. Quello di adattarsi a questa realtà. E poi c’è un altro problema».

Quale?

«Adesso si parla molto di medicina personalizzata, “cucita” sul singolo paziente. Noi in questo momento stiamo parlando con un consorzio che lavora sulla medicina personalizzata e vorrebbero usare l’Intelligenza Artificiale. L’obiettivo di un’ipotetica collaborazione è creare un device che permetta di fare analisi non distruttiva delle cellule cresciute laboratorio».

Si potrebbero accelerare diversi processi?

«Sì. L’idea è creare una tecnica non distruttiva parallelizzabile che usi l’efficienza artificiale per arrivare prima alla soluzione. In questo modo, l’intervento è mirato e non generalizzato. Un altro aspetto importante è il concetto di monitoraggio real time del paziente. Un fenomeno che sta spingendo la medicina nell’area dei Big Data. Qui bisogna fare attenzione a due argomenti: privacy e sicurezza».

Quale potrebbe essere una soluzione ideale?

«Non muovere mai i dati del paziente ed eseguire l’analisi tramite il device. Questi dati dovrebbero restare in loco ed essere analizzati con un hardware specifico. I costi dell’apparecchio, però, sarebbero alti. Bisognerebbe avere reti complesse che possano essere eseguite in hardware locali. Un’idea fattibile prendendo la rete neurale e togliendo le parti che non servono. In questo modo avremo un prodotto più piccolo, compatto e meno costoso».

In che modo si può muovere con velocità una grande quantità di dati?

«Noi dobbiamo circa 40 milioni di collisioni al secondo. Ogni collisione fa 1 MB. È una quantità di dati troppo grande per essere spostata. Quindi siamo obbligati a processare questi dati in locale. Tradizionalmente lo facevamo con delle versioni semplificate e veloci degli algoritmi che usiamo normalmente. E questa cosa ci portava a perdere performance. La cosa su cui abbiamo lavorato dal 2018 ad oggi è sostanzialmente utilizzare le reti neurali per processare i dati senza perdere performance. Per fare ciò, dobbiamo comprimere le reti per riuscire ad eseguirle entro 100 nanosecondi. Questo stesso tipo di tecnologia potrebbe essere utilizzato per sviluppare device medici. Ma anche per automotive e per tutto ciò che necessita il processamento dei dati in locale».

Quali possibili sviluppi in medicina?

«Si potrebbero eseguire analisi dati molto avanzate sul paziente, con strumenti a basso costo e basso consumo di energia. Noi ad esempio stiamo lavorando su processori chiamati FPGA, che hanno tutte le caratteristiche giuste per servire a questo scopo».

Il supporto dal punto di vista normativo quale potrebbe essere?

«Secondo me il contrasto è inevitabile. La ricerca corre veloce e in questo caso il sistema legale deve adattarsi alla scienza. Non è possibile il contrario».

C’è il rischio di un’altra Los Alamos?

«Secondo me sì, con una comunità di ricercatori che però non ha quel tipo di background. Noi veniamo da lì, da quel peccato originale: il Progetto Manhattan. Di conseguenza, non abbiamo bisogno di commissioni etiche perché siamo cresciuti con la consapevolezza di quanto successo alla fine della Seconda Guerra Mondiale. La comunità che sviluppa l’Intelligenza Artificiale non ha ancora avuto il suo Progetto Manhattan. Sono molto perplesso sul fatto che si riesca a mettere un freno al processo tecnologico. Storicamente è una cosa con cui si può vivere, non è una cosa che si indirizza».

Come tutte le tecnologie d’avanguardia, anche l’Intelligenza Artificiale porta benefici per la collettività. Uno dei settori che maggiormente ha beneficiato dell’AI è il settore medico. Ma le normative faticano a tenere il passo con i progressi tecnologici. Adesso serve stabilire un quadro normativo specifico.

Keypoints

  • Reti neurali, Intelligenza Artificiale, Machine Learning e tecniche computazionali stanno rivoluzionando la nostra quotidianità
  • Maurizio Pierini è fisico del CERN
  • L’esperto è tra i relatori della nuova edizione di “Dal CERN alla scuola”
  • Si tratta di un ciclo di webinar per ripensare l’insegnamento delle scienze in chiave multidisciplinare
  • L’evento è organizzato da Fondazione Golinelli, in collaborazione con l’Italian Teacher Programme del CERN di Ginevra
  • Una delle difficoltà future del settore medico è il deployment, cioè la diffusione degli algoritmi in oggetti commerciali

Ti è piaciuto questo articolo?

Share

Registrati per commentare l’articolo

Pills

Raccolte

Articoli correlati