Digital Health

Salute mentale: IA ancora inaffidabile per diagnosi e cure, utile solo in contesti sperimentali

Perché ne stiamo parlando
Le applicazioni dell’Intelligenza Artificiale nella diagnosi e cura della salute mentale sono state al centro del congresso nazionale della Società Italiana di Psichiatria, che ha celebrato i suoi 150 anni al Palazzo della Gran Guardia di Verona.

Salute mentale: IA ancora inaffidabile per diagnosi e cure, utile solo in contesti sperimentali

Ancora non ci siamo. Per quanto i recenti sviluppi dell’Intelligenza Artificiale hanno generato grande entusiasmo anche nel campo della salute mentale, gli algoritmi sono ancora poco affidabili e sicuri per entrare nella pratica clinica. Carenze e semplificazioni ne riducono quindi le opportunità di utilizzo sui pazienti, confinandoli ai soli contesti accademici e sperimentali. Almeno per il momento. Queste sono le conclusioni a cui è giunta una review tutta italiana appena pubblicato sulla rivista Italian Journal of Psychiatry, che è stata anche al centro del congresso nazionale della Società Italiana di Psichiatria (SIP), che si è chiuso di recente a Verona. «La ricerca sulle possibili applicazioni dell’Intelligenza Artificiale in ambito sanitario non è mai stata così vivace come in questo momento», afferma la Presidente della SIP, Liliana Dell’Osso. «C’è in particolare un crescente interesse nel settore della salute mentale, nell’ambito del quale sono stati sviluppati e studiati numerosi algoritmi. È dunque facile – continua – lasciarsi trascinare dall’entusiasmo, ma c’è ancora molta strada da fare prima che queste tecnologie possano dare il loro contributo nella pratica clinica».

Un’analisi dell’attuale utilizzo dell’Intelligenza Artificiale

Più che bocciare “Dr. IA”, la review ne individua le criticità e suggerisce possibili vie per migliorarne l’affidabilità e, quindi, l’applicabilità clinica. «L’IA ha oggi una grande importanza sulla ricerca clinica, che si sta completamente innovando», sottolinea Emi Bondi, Presidente uscente SIP. «Negli ultimi anni sono state effettuate numerose analisi e metanalisi che esplorano l’uso dell’IA nel campo della salute mentale, sempre focalizzate su singoli disturbi mentali, su algoritmi specifici o su metodiche strumentali precise. Questa nuova review – continua – è importante perché non si concentra su uno specifico algoritmo o su un singolo disturbo mentale, ma ha l’obiettivo di esaminare l’utilizzo attuale di questa tecnologia digitale nel campo della salute mentale». In particolare, i ricercatori hanno preso in considerazione tre tipologie di algoritmi: il Natural Language Processing (NLP), il machine learning e il deep learning. NLP è una branca dell’Intelligenza Artificiale che aiuta i computer a capire, interpretare e manipolare il linguaggio umano. Un celebre esempio è ChatGpt. Il machine learning è invece un sottoinsieme dell’Intelligenza Artificiale alimentato da dati e da algoritmi, affinché le macchine imparino e diventino sempre più capaci. Il deep learning impiega le reti neurali, algoritmi progettati per imitare il cervello umano, che devono essere addestrate mediante grandi set di dati affinché apprendano modelli e possano restituire previsioni accurate.

Per funzionare bene l’IA ha bisogno di tanti dati di qualità

«L’obiettivo della nostra review è stato quello di indagare le prestazioni della maggior parte degli algoritmi, analizzando in particolare i metodi più frequentemente utilizzati per raccogliere i dati per addestrarli», spiega Antonio Vita, Vice Presidente SIP, Professore di Psichiatria all’Università di Brescia e Direttore del Dipartimento di Salute Mentale ASST Spedali Civili di Brescia. «Per funzionare in modo ottimale, l’Intelligenza Artificiale richiede una grande quantità di dati: da parametri neurobiologici a registrazioni audiovideo fino a database nazionali, anche assicurativi, o di dati di soggetti appositamente reclutati per testare uno specifico algoritmo. È dunque evidente – continua – che l’affidabilità di un algoritmo IA dipende in gran parte dalla qualità dei dati utilizzati per elaborarlo. Le banche dati utilizzate non sono state create appositamente per questo scopo, dunque potrebbero esserci errori, carenze o semplificazioni che riducono l’affidabilità dell’Intelligenza Artificiale». Per far funzionare correttamente l’IA nel campo della salute mentale bisogna dunque mettere la “benzina”, cioè i dati, giusta.

Se l’IA sbaglia, di chi è la responsabilità?

Inoltre, l’uso dell’IA in campo clinico presenta ancora altri problemi, oltre a quelli relativi allo sviluppo di algoritmi efficienti e affidabili. «Questi problemi includono l’attribuzione di responsabilità e il rischio che dati sensibili finiscano nelle mani sbagliate», spiega Vita. «Attualmente manca una legislazione adeguata e in caso di errore dell’IA, non è chiaro chi dovrebbe essere ritenuto responsabile: lo psichiatra che ha convalidato il risultato, il paziente che l’ha accettato, gli sviluppatori dell’algoritmo, il sistema sanitario che lo ha implementato, o nessuno? Inoltre, raccogliendo dati sensibili e monitorando le attività quotidiane, gli studi affrontano il rischio di mettere a repentaglio la privacy dei soggetti», aggiunge. Dunque, siamo ben lontani dall’essere curati dalle macchine, anche se intelligenti. «Nonostante i servizi di salute mentale abbiano subito una trasformazione importante verso la medicina digitalizzata, utilizzando la tecnologia a vari livelli, dalla diagnosi all’assistenza, ad oggi nessun metodo di Intelligenza Artificiale può dirsi pienamente promosso e adatto per essere utilizzato nella diagnosi, assistenza e cura dei pazienti», sottolinea Vita. «Tuttavia, essendo un settore in continua evoluzione, sono necessarie ulteriori ricerche per monitorare i progressi e gli algoritmi che potranno effettivamente essere di grande aiuto nella pratica clinica», aggiunge.

L’IA sarà in futuro un prezioso alleato dello psichiatra

Nel futuro più prossimo l’Intelligenza Artificiale potrà rivelarsi un prezioso alleato degli psichiatra. Sarà utile poter elaborare dati ambientali, biologici, ambientali per poter, ad esempio, pensare a una terapia farmacologica o a un trattamento di psicoterapia. «Ma potrà rivelarsi estremamente utile anche per monitorare il paziente nel tempo», sottolinea Vita. Sappiamo che le visite si fanno a distanza di giorni. Con la tecnologia, ogni persona potrà descrivere il proprio comportamento, il proprio stato d’animo e la terapia. Così l’Intelligenza Artificiale potrà così tenere aggiornato lo specialista in continuazione e tenerlo al coerente di quello che accade negli intervalli fra i vari controlli medici.

Keypoints

  • Gli algoritmi sono ancora poco affidabili e sicuri per entrare nella pratica clinica
  • Carenze e semplificazioni riducono le opportunità di utilizzo dell’Intelligenza Artificiale, limitato ai soli contesti accademici e sperimentali
  • I ricercatori hanno preso in considerazione tre tipologie di algoritmi: il Natural Language Processing (NLP), il machine learning e il deep learning
  • Per funzionare in modo ottimale, l’Intelligenza Artificiale richiede una grande quantità di dati
  • L’affidabilità di un algoritmo AI dipende in gran parte dalla qualità dei dati utilizzati per elaborarlo
  • Attualmente manca una legislazione adeguata e in caso di errore dell’IA, non è chiaro chi dovrebbe essere ritenuto responsabile
  • L’IA sarà in futuro un prezioso alleato dello psichiatra
  • L’IA potrà rivelarsi estremamente utile anche per monitorare il paziente nel tempo

Ti è piaciuto questo articolo?

Share

Registrati per commentare l’articolo

News

Raccolte

Articoli correlati