Dottor ChatGPT: la nuova frontiera della salute? Gli esperti invocano cautela

Dottor ChatGPT: la nuova frontiera della salute? Gli esperti invocano cautela

di Mario Catalano
Immagine di Mario Catalano

Mario Catalano

Perché ne stiamo parlando
OpenAI ha appena lanciato ChatGPT Health. Dietro l’entusiasmo si celano rischi concreti di allucinazioni mediche e dubbi sulla sicurezza dei dati che spingono gli esperti a invocare estrema cautela prima di affidare la nostra salute a un algoritmo.

Getting your Trinity Audio player ready...

ChatGPT Health è l’ultima scommessa di OpenAI, ma il suo impatto reale potrebbe essere molto diverso dalle promesse. «Si sta giocando sull’onda dell’entusiasmo, ma senza un serio studio di validazione io farei molta attenzione a utilizzarlo» avverte Eugenio Santoro, ricercatore all’Istituto Mario Negri di Milano esperto di digital health. Questa nuova funzionalità, che consente di collegare cartelle cliniche e app di benessere per ottenere analisi personalizzate, si muove in un territorio critico dove le opportunità di empowerment del paziente si scontrano con rischi non banali di allucinazioni e violazioni della privacy.

Che cos’è ChatGPT Health

OpenAI presenta così la nuova funzione di ChatGPT. «Stiamo introducendo ChatGPT Salute, un’esperienza dedicata che integra in modo sicuro le informazioni sanitarie con l’intelligenza di ChatGPT, per aiutare a sentirsi più informati, preparati e sicuri nella gestione della propria salute». Stando a ciò che dichiara OpenAI, permette di integrare le proprie cartelle cliniche elettroniche e i dati provenienti da app di benessere (come Apple Salute, Function o MyFitnessPal), trasformando informazioni spesso frammentate in approfondimenti chiari e personalizzati.

Sviluppato in stretta collaborazione con oltre 260 mediche e medici attivi in 60 Paesi e in decine di specialità per comprendere cosa renda una risposta a una domanda sulla salute utile o potenzialmente dannosa, il sistema è ottimizzato per aiutare gli utenti a interpretare i risultati degli esami, prepararsi alle visite mediche e ricevere consigli su nutrizione, attività fisica, ecc.

ChatGPT Salute, chiarisce però OpenAI, è progettato per affiancare il personale sanitario e non sostituirlo per diagnosi o trattamenti. E per garantire la massima riservatezza, opera in uno spazio isolato e crittografato: le conversazioni rimangono private e, a differenza delle chat standard, non vengono utilizzate per l’addestramento dei modelli di base.

Al momento, il servizio è disponibile solo per un piccolo gruppo di utenti e le integrazioni con le cartelle cliniche elettroniche e alcune app sono disponibili solo negli Stati Uniti, ma l’accesso sarà progressivamente ampliato.

Lo scetticismo degli esperti: rischi di inaffidabilità 

Santoro guarda a questa novità con estremo scetticismo, paragonandola ai precedenti tentativi di giganti come Google e Microsoft, i cui progetti “Health” sono ormai caduti nel dimenticatoio. L’iniziativa, secondo il ricercatore, manca di una solida base metodologica. Inoltre, evidenzia come questi strumenti non siano deterministici e possano fornire soluzioni diverse davanti a casi identici, rendendoli intrinsecamente inaffidabili per scopi medici in assenza di prove scientifiche.

«A me stupisce ogni volta il lancio di un’iniziativa senza un minimo di studio di validazione» dichiara con fermezza, sottolineando come il rischio di fornire informazioni scorrette possa danneggiare concretamente cittadini e cittadine. Inoltre, esprime forti dubbi sulla sicurezza dei dati, temendo che dare «in pasto i dati clinici» a sistemi non conformi a tutte le normative possa essere un azzardo legato più alla moda del momento che a una reale utilità clinica. Un altro profilo di analisi, che emerge dal dibattito tecnico, definisce ChatGPT Health un “passaggio simbolico” che però nasconde insidie profonde, legate soprattutto al basso livello di alfabetizzazione digitale in Italia.

“Nuova democrazia” o “tecno-feudalismo” della salute?

Di fatto, ChatGPT già viene interpellata su questioni inerenti la salute. Secondo OpenAI, oltre 230 milioni di persone in tutto il mondo pongono domande su salute e benessere, ogni settimana. In Italia, stando ai dati dell’Osservatorio Sanità Digitale del Politecnico di Milano, l’11% della popolazione ha già utilizzato strumenti di IA generativa in ambito salute, soprattutto per cercare informazioni su malattie (47%) e farmaci e terapie (39%). Per la facilità d’uso (44%) e la rapidità con cui si ottengono le risposte (50%). E ChatGPT Health è progettato proprio per questo: rispondere a domande mediche integrando dati clinici personali.

Giorgia Zunino, membro del consiglio scientifico dell’Associazione Italiana Sanità Digitale e Telemedicina (AiSDeT), osserva che bisogna «dare un significato e uno scenario per interpretare l’impatto potenziale di un sistema privato conversazionale (al momento in Italia non accessibile: bisogna iscriversi alla lista di attesa) in un contesto – quello dei dati sanitari – regolato, centralizzato e dominato da architetture pubbliche».

E, di fronte a 40 milioni di persone che già utilizzano quotidianamente ChatGPT per quesiti sulla salute e, per contro, alla diffusa sfiducia nei confronti del Fascicolo sanitario elettronico (Fse) che, insieme alla complessità d’accesso, ne limita l’adozione, Zunino evidenzia: «ChatGPT Health punta su interazione conversazionale, semplicità e accesso naturale all’informazione», a differenza di un Fse ancora troppo focalizzato sul controllo amministrativo.

Il rischio concreto, a suo parere, è che l’efficienza delle piattaforme private superi quella dei sistemi pubblici. «Se i sistemi pubblici non ammodernano le loro interfacce e il modo in cui si relazionano con le persone, rischiamo di spostare il cuore cognitivo della salute digitale fuori dalle istituzioni pubbliche, verso pochi attori tecnologici globali».

Per Zunino, la partita per la sovranità digitale e l’equità resta dunque aperta, oscillando tra la minaccia di un «tecno-feudalismo» e la possibilità di costruire una «nuova democrazia a valore distribuito» attraverso una governance condivisa.

Serve un’intelligenza artificiale sanitaria nazionale?

L’avvento di ChatGPT Health segna un passaggio cruciale nell’evoluzione della sanità digitale, offrendo agli utenti la possibilità di caricare cartelle cliniche e referti per ottenere analisi personalizzate. «Tuttavia – sottolinea William Nonnis, analista tecnico per la digitalizzazione e innovazione per la Struttura di Missione PNRR della Presidenza del Consiglio dei Ministri – questa innovazione apre un dibattito profondo: in un’Italia dove il 47% della popolazione è classificato come analfabeta funzionale digitale, il rischio di un uso improprio e di una pericolosa delega cognitiva verso strumenti percepiti come autoritari è estremamente reale».

È fondamentale comprendere che ChatGPT non rappresenta “l’intelligenza artificiale” nella sua interezza, ma funge da front-end. «La vera sfida risiede piuttosto nello sviluppo di un LLM sanitario nazionale gestito localmente, che eviti di addestrare modelli di proprietà di terze parti con dati sensibili» aggiunge.

Nonostante il potenziale supporto alla medicina di popolazione e alla prevenzione in contesti frammentati come quello delle Asl italiane, l’IA non possiede empatia e non può cogliere il contesto umano della malattia. Affinché la tecnologia non diventi un mero intermediario algoritmico che oscura la relazione di cura, secondo Nonnis è necessario integrare soluzioni come la blockchain per garantire la sicurezza e la certezza delle informazioni.

In definitiva, il futuro della salute non dipenderà solo dalla potenza di calcolo, ma dalla capacità di usare questi strumenti per rendere le decisioni più umane, assicurando che l’intelligenza artificiale resti un supporto trasparente e regolato al nostro servizio. «L’intelligenza artificiale nella medicina può essere paragonata a un faro di ultima generazione su una costa frastagliata – conclude Nonnis – può illuminare i pericoli nascosti e guidare le navi verso la salvezza con una precisione mai vista prima, ma se il capitano smette di guardare il mare affidandosi solo alla luce, rischia di dimenticare che è la sua sensibilità al vento e alle onde a mantenere davvero la rotta».

Empowerment del paziente e nodi normativi: chi è responsabile delle decisioni cliniche?

Secondo Sergio Pillon, vicepresidente e responsabile relazioni istituzionali AiSDeT, sebbene le informazioni siano ancora limitate, ChatGPT Health potrebbe migliorare l’empowerment dei pazienti, aiutandoli a interpretare referti e terapie con un linguaggio più accessibile. Inoltre vede un potenziale nella riduzione degli attriti organizzativi, garantendo un supporto informativo 24/7 che orienti l’utente e riduca il carico sui servizi.

Tuttavia, Pillon non ignora le zone d’ombra, ponendo un quesito fondamentale sulla governance e la responsabilità clinica. «Quando un consiglio influenza scelte di cura, chi risponde: utente, clinico, fornitore?». I rischi di allucinazioni e misinformazione sono considerati critici, poiché i chatbot possono essere “trascinati” da dettagli medici non rilevanti e produrre spiegazioni errate ma estremamente convincenti, portando a pericolose autodiagnosi o a ritardi nel ricorso a cure urgenti.

Infine, sottolinea la necessità di valutare i tempi per una piena compatibilità con le regole UE e il GDPR, perché, ribadisce, la sicurezza dei dati e la privacy restano un nodo aperto nonostante l’uso della crittografia dedicata.

Keypoints

  • ChatGPT Health permette di integrare cartelle cliniche e app salute per fornire analisi personalizzate
  • Mancano studi di validazione scientifica che confermino l’attendibilità e la sicurezza clinica dello strumento
  • La natura non deterministica dell’IA può generare risposte diverse e potenzialmente errate per lo stesso caso medico
  • L’elevato analfabetismo digitale in Italia espone gli utenti al rischio di una pericolosa delega cognitiva alla macchina
  • È emersa la proposta di creare un LLM sanitario nazionale gestito localmente per proteggere la privacy dei dati sensibili
  • Restano incertezze critiche sulla governance, la responsabilità legale e la piena conformità alle normative europee GDPR

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Altri articoli

Iscriviti alla nostra newsletter

Rimani aggiornato su tutte le novità