Digital Health

Intelligenza artificiale empatica, alleata o rivale dei medici veri?

Perché ne stiamo parlando
L’Intelligenza Artificiale può sostituirsi ai medici? È una domanda che negli ultimi mesi ricorre frequentemente, a cui però non si riesce a dare ancora una risposta chiara. Recenti studi sembrano propendere per il sì e questo solleva numerose questioni etiche. Ne abbiamo parlato con Claudio Cricelli, presidente della Società italiana di medicina generale e delle cure primarie (Simg), e Sergio Pillon, vicepresidente e responsabile delle relazioni istituzionali dell’Associazione Italiana della Sanità Digitale e Telemedicina (AiSDeT).

Intelligenza artificiale empatica, alleata o rivale dei medici veri?
Immagine generata utilizzando l'intelligenza artificiale

Che siano in grado di definire e spiegare un disturbo medico o che siano in grado addirittura di diagnosticarlo quanto un medico in carne ossa, come hanno dimostrato alcuni recenti studi, lo potevamo pure già immaginare. Ma che un sistema di intelligenza artificiale fosse in grado di stabilire un rapporto con i pazienti addirittura migliore di quanto faccia un medico vero ha sorpreso non pochi. Bisogna però saper sempre interpretare i contesti. “È normale che un paziente valuti le risposte di una ‘macchina’ più gentile perché sono semplicemente più condiscendenti” afferma Cricelli. E Pillon gli fa eco: “L’empatia è altro. L’empatia è fatta dal medico che ti sorride, che ti guarda negli occhi, che ti tocca e che ti fa domande”. Parlare di AI empatica è una grande contraddizione, in poche parole. Eppure in tanti ci stanno credendo e studiando.

ChatGPT può mostrare più empatia di un medico vero

Per certi versi può sembrare inquietante che un’intelligenza artificiale sia in grado di trasmettere più empatia di un medico vero. Ma è proprio quello che emerso da un recente studio condotto un gruppo di ricercatori dell’Università della California e pubblicato sulla rivista Jama Internal Medicine. Nella ricerca sono stati analizzati e confrontati 195 slot di domande e risposte, postate su un apposito forum online che offre uno spazio per porre domande a carattere clinico e assistenziale e ricevere risposta da clinici verificati. Questo forum conta un bacino di ben 474.000 utenti.

La prima indagine è stata svolta ad ottobre 2022, in cui sono state raccolte le risposte date dai medici. Le medesime domande sono poi state rilanciate a dicembre su ChapGPT e le risposte salvate. Tutte queste risposte sono state poi analizzate, celando l’identità umana o digitale dell’autore, da un gruppo di 3 clinici con esperienza lavorativa in diverse aree (pediatrica, geriatrica, medicina interna, oncologica, malattie infettive e medicina della prevenzione). A questo gruppo è stato chiesto di valutare tutte le risposte, senza conoscerne l’appartenenza, e di giudicare la loro qualità, in termini dell’informazione erogata (molto scarsa, scarsa, accettabile, buona, molto buona) e dell’empatia che veniva trasmessa (non empatica, poco empatica, abbastanza empatica, empatica, molto empatica). Le risposte prevedevano una scala da 1 a 5, dove punteggi elevati indicavano maggiore qualità ed empatia. I risultati dei valutatori sono poi stati confrontati. Ebbene, dalla valutazione dei clinici è emersa una indubbia preferenza verso le risposte dell’Intelligenza artificiale nel 78% dei casi, su un totale di 585 valutazioni effettuate. Le risposte date da ChatGPT sono state giudicate complessivamente di qualità migliore. La media dei “voti” è stata infatti dichiarata come buona mentre quelle dei clinici come accettabile. Le risposte giudicate di qualità “meno che accettabile”, quindi scarse o molto scarse, sono state maggiori nel gruppo dei clinici (37% vs 2%), mentre la proporzione di risposte buone o molte buone era decisamente più alta per ChatGPT (22% vs 78%).

La relazione medico-paziente è più complessa di quella fra uomo e macchina

Non solo. Le risposte date dall’Intelligenza artificiale sono state considerate anche più empatiche, nello specifico il 41% delle risposte dei clinici era meno empatico di quelle fornite dall’intelligenza artificiale, e la proporzione di risposte giudicate come poco empatiche era più alta nelle risposte dei medici (80% vs 15%). Le risposte dei medici erano, infine, mediamente più brevi rispetto a quelle fornite da ChatGPT. Questi risultati hanno sollevato non pochi interrogativi. Fanno ad esempio riflettere sull’attuale qualità del rapporto medico-paziente. “Francamente questi risultati non mi stupiscono affatto”, commenta Claudio Cricelli, presidente della Società italiana di medicina generale e delle cure primarie (Simg). È normale che un paziente valuti le risposte di una ‘macchina’ più gentile perché sono semplicemente più condiscendenti. Una macchina non lo contraddice e non lo infastidisce come invece può e fa un medico”, aggiunge. Insomma, secondo Cricelli, la relazione umana è necessariamente più complessa, e per certi versi anche più conflittuale, rispetto a quella che si può avere con un’intelligenza artificiale.

Pillon: “Intelligenza artificiale è brava nel customer care”

“E’ fuori dubbio che l’Intelligenza artificiale sia davvero brava nel customer care, ma è sbagliato parlare di empatia”, evidenzia Sergio Pillon, vicepresidente e responsabile delle relazioni istituzionali dell’Associazione Italiana della Sanità Digitale e Telemedicina (AiSDeT).

“Dire che l’Intelligenza artificiale è empatica è come parlare di una supposta per via orale: non ha senso”, ironizza. Secondo Pillon, l’empatia è altro. “Non puoi valutarla con dei messaggi testuali, che sappiamo essere ingannevoli”, sottolinea Pillon. “Pensiamo a tutte le volte che in qualche chat di WhastApp – quella del gruppo della scuola, del condominio, del lavoro – si litiga inutilmente perché si fraintendono i contenuti. Che siano chat, mail, sms, post si fa più fatica a comprendersi – continua Pillon – perché le relazioni umane sono più complesse di un testo scritto”. L’empatia, quella vera secondo Pillon, è altro.

Guai a fidarsi dell’IA per una diagnosi o terapia

“L’empatia è fatta dal medico che ti sorride, che ti guarda negli occhi, che ti tocca e che ti fa domande”, dice Pillon. “Se un paziente scrive a una chatbot che ha un mal di pancia, allora riceverà una risposta del tipo ‘mi dispiace che tu stia soffrendo’ e gli propinerà le prime parole sensate collegate al ‘mal di pancia’ ritrovate in chissà quali banche dati. Non fa domande. Non chiede al paziente, l’età, l’altezza e il peso, l’abc di un’anamnesi”, aggiunge. “Eppure, a un medico può bastare anche solo stringere la mano di un paziente per notare piccoli cambiamenti rilevanti, come la secchezza della pelle, il colorito del viso, ecc., per capire un problema. Il medico è colui che conosce – continua – il suo paziente, il contesto in cui vive… Qualcosa che un’Intelligenza artificiale non può certamente fare”. Quindi, guai a considerarla uno strumento alternativo in grado di diagnosticare una malattia. Secondo Pillon, bisogna dunque diffidare da strumenti che vengono definiti “affidabili quanto un medico vero”. Come nel caso di Med-PaLM 2, il modello linguistico di grandi dimensioni di Google, specializzato in ambito medico e clinico. In uno studio pubblicato qualche settimana fa sulla rivista Nature dai ricercatori della Google Research è emerso che un gruppo di medici ha giudicato scientificamente valide il 92,6 per cento delle risposte Med-PaLM, alla pari con le risposte generate di medici veri. Pillon continua a essere molto scettico. “L’IA è come una nuova versione di enciclopedia medica, utile al massimo per organizzare e mettere in evidenze determinate informazioni”, dice. “Il medico, quindi, rimane certamente l’unica figura professionale in grado di fare una diagnosi o anche solo di mostrare al proprio paziente la giusta e soprattutto vera empatia”, conclude.

Quando l’Intelligenza artificiale viene messa alla prova in campo medico i risultati sollevano quasi sempre accese discussioni. In particolare, quest’ultima ricerca che sembra aver segnato una netta vittoria dell’Intelligenza artificiale sul medico in carne ossa sul fronte dell’empatia ha certamente stimolato approfondite riflessioni. Ad esempio: il fatto che in una relazione umana, anche se molto delimitata, l’IA possa essere più “brava” del medico ci suggerisce che la classe medica può e deve ancora fare tanto per migliorare il rapporto con i pazienti. Tuttavia, non dovremmo tanto soffermarci sulla dicotomia tra IA e medico, quanto ai loro possibili punti di incontro e collaborazione. L’Intelligenza artificiale potrebbe, ad esempio, assistere i medici sia sul lavoro strettamente clinico sia nel rapporto con i pazienti. Non è un nemico o un rivale dell’operatore sanitario, ma un potenziale e prezioso “alleato”.

Keypoints

  • L’Intelligenza artificiale può essere percepita più empatica rispetto a un medico in carne e ossa
  • Quando l’Intelligenza artificiale viene messa alla prova in campo medico i risultati sollevano accese discussioni
  • La classe medica deve fare ancora tanto per migliorare il rapporto con i pazienti
  • L’Intelligenza artificiale potrebbe assistere i medici sia sul lavoro strettamente clinico sia nel rapporto con i pazienti
  • È sbagliato considerare l’IA come uno strumento alternativo al medico

Ti è piaciuto questo articolo?

Share

Registrati per commentare l’articolo

News

Raccolte

Articoli correlati