|
Getting your Trinity Audio player ready... |
Un’omissione clinica rilevante o, peggio, una negazione trasformata in affermazione: “il paziente non presenta febbre” che diventa “presenta febbre”. È questo uno dei rischi associati agli AI medical scribe, programmi di intelligenza artificiale progettati per supportare il personale sanitario nella redazione della documentazione clinica. Se utilizzati senza un’adeguata supervisione, questi strumenti possono introdurre errori con potenziali conseguenze cliniche e medico-legali.
Nonostante i passi avanti della tecnologia, l’accuratezza informativa rimane infatti un nodo critico. E la supervisione umana – come sottolineano la chirurga Sarah A. Mess, la linguista Alison J. Mackey e l’informatico David E. Yarowsky – imprescindibile. Per limitare il rischio di omissioni, allucinazioni (contenuti che appaiono plausibili ma non hanno alcun fondamento reale), bias, confusione terminologica o riferimenti a farmaci non più in commercio o non effettivamente citati dal medico durante la visita.
L’assistente che ascolta e prende nota
Gli AI medical scribe registrano l’audio del colloquio medico-paziente e, attraverso tecnologie di riconoscimento vocale e natural language processing, producono una nota clinica strutturata.
Sono assistenti digitali.
«Dobbiamo immaginare modelli addestrati proprio sul linguaggio medico, in grado di comprendere il significato di ciò che viene detto», spiega Francesco Branda, ricercatore dell’Unità di Statistica medica ed epidemiologia molecolare dell’Università Campus Bio-Medico di Roma e membro della Società Italiana Intelligenza Artificiale in Medicina (SIIAM).
Il sistema è in grado di riconoscere sintomi, durate e prescrizioni, inserendoli automaticamente nelle sezioni appropriate della cartella clinica.
Tuttavia Branda chiarisce che «l’AI medical scribe non prende decisioni e non sostituisce il medico: serve a ridurre il tempo dedicato alla burocrazia». E proprio questa natura puramente documentale e non decisionale – focalizzata cioè sulla trascrizione e il riassunto dei colloqui clinici e non sull’erogazione di diagnosi o raccomandazioni terapeutiche – definisce il perimetro normativo entro cui operano tali tecnologie.
Strumenti amministrativi, non decisionali
Nella maggior parte dei casi, gli AI medical scribe sono classificati infatti come strumenti amministrativi e non come dispositivi medici. Negli Stati Uniti, per esempio, i principali prodotti in commercio vengono offerti come servizi conformi ai requisiti HIPAA – il quadro normativo che regola uso, protezione e condivisione dei dati sanitari personali – e non come medical device, evitando così i processi formali di valutazione della FDA.
Questa classificazione si basa sulla dichiarazione d’uso del produttore: gli AI scribe non forniscono diagnosi, ma si limitano alla trascrizione della conversazione clinica. Tuttavia, errori nella documentazione possono influenzare indirettamente il processo decisionale, rendendo il confine regolatorio meno netto di quanto appaia.
Secondo linee guida internazionali (TGA e NHS England), questi sistemi smart di trascrizione rientrano nell’ambito non medicale solo finché non incidono direttamente sulle decisioni cliniche.
Efficienza e rischio cognitivo
L’obiettivo principale degli AI scribe è ridurre il carico amministrativo, una delle cause principali di burnout tra i professionisti sanitari. Le evidenze disponibili in merito indicano un beneficio concreto: uno studio pubblicato su JAMA Network Open ha osservato che il loro uso è associato a una riduzione del burnout, dal 51,9% al 38,8% dopo 30 giorni di utilizzo, oltre a un recupero del tempo lavorativo extra-orario. E liberando medici e mediche dalle “scartoffie”, si libera tempo da dedicare alla relazione di cura, al rapporto con il paziente.
Accanto ai benefici, però, permangono limiti tecnici e insidie. Il riconoscimento vocale può risultare impreciso in presenza di accenti marcati, ambienti rumorosi o sovrapposizione di voci. Esiste inoltre un rischio che Branda definisce di natura cognitiva: l’abitudine a risultati generalmente affidabili può ridurre il livello di controllo critico del medico.
«Il pericolo è una forma di pigrizia cognitiva. Dobbiamo quindi educare, formare il personale medico» avverte, sottolineando che una revisione superficiale della nota generata aumenta la probabilità che errori clinicamente rilevanti passino inosservati.
Privacy e responsabilità clinica
Oltre ai limiti tecnici, l’adozione di questi strumenti solleva anche questioni giuridiche ed etiche complesse. I dati sanitari richiedono elevati standard di sicurezza, protocolli rigorosi sulla localizzazione dei server e il controllo degli accessi. E una violazione della sicurezza non sarebbe solo un problema tecnico, ma porterebbe a una grave perdita di fiducia da parte dei pazienti.
Dal punto di vista medico-legale, «la responsabilità clinica rimane sempre del medico», chiarisce Branda, aggiungendo che l’uso di un supporto tecnologico non trasferisce l’onere decisionale al fornitore del software. Il medico deve, quindi, validare ogni nota prima che diventi parte ufficiale della cartella clinica, stabilendo criteri di qualità e tempi di revisione certi.
Uno studio della Columbia University evidenzia in proposito che, sebbene le prime evidenze mostrino vantaggi in termini di efficienza, l’adozione degli Ai medical scribe sta procedendo più velocemente dei processi di validazione e di supervisione e la corsa all’implementazione dovrebbe tener conto dell’accuratezza e dell’affidabilità delle informazioni cliniche generate dall’IA. La questione chiave, sostengono gli autori, non è se adottare questi strumenti, ma come farlo in modo responsabile, assicurando che migliorino l’assistenza senza erodere la fiducia.
Enrico Coiera e David Fraile-Navarro, in un editoriale sulla rivista JMIR Medical Informatics, evidenziano inoltre che quando un medico riassume le informazioni nella nota clinica, elabora attivamente le informazioni, dà priorità a ciò che conta e formula ipotesi in tempo reale. La nota clinica, cioè, non è solo una registrazione della consultazione, ma un artefatto cognitivo che supporta il ragionamento clinico.
Il mercato globale e il contesto italiano
Il mercato globale dei software di trascrizione medica ha raggiunto circa 2,59 miliardi di dollari nel 2024. Gli AI medical scribe sono oggi utilizzati soprattutto negli Stati Uniti e in Canada: nel Nord America si concentra circa il 42% del mercato globale, con gli Stati Uniti responsabili da soli di circa il 45% delle adozioni regionali. L’Europa invece rappresenta circa il 24% del mercato, con la Germania in testa (22% delle unità europee nel 2024) e a seguire il Regno Unito (18%).
L’Italia, spiega Branda, si muove in un contesto frammentato. La maturità digitale non è ancora uniforme, ma non mancano esperienze rilevanti. A Bologna, per esempio, nell’ambito delle attività del Centro nazionale di ricerca in High Performance Computing, Big Data and Quantum Computing, finanziato dai fondi PNRR, è stato sviluppato EngGPT, un sistema di intelligenza artificiale generativa che supporta i medici nella compilazione delle schede di dimissione ospedaliera, riducendo il carico amministrativo.
Anche Reggio Emilia si distingue come laboratorio di sperimentazione, avendo raggiunto livelli avanzati di digitalizzazione dei processi sanitari: «è tra le aziende ospedaliere più digitalizzate d’Italia».
«I dati sono il petrolio dei nostri giorni», osserva Branda, citando anche il progetto EmergInsight, realizzato in collaborazione con l’Università di Salerno per digitalizzare i dati del pronto soccorso. Esempio di come l’Italia stia sperimentando strumenti avanzati di digitalizzazione sanitaria. L’analisi algoritmica in questo caso ha permesso di ottimizzare i flussi dei pazienti mostrando, per esempio, che circa il 75% dei cosiddetti “codici verdi” non avrebbe dovuto accedere ai percorsi di emergenza.
La sfida principale, conclude il ricercatore, resta la qualità dei dati. «Gli algoritmi funzionano bene se alimentati con informazioni di valore, se gli dai in pasto dati qualitativamente importanti; se invece gli dai in pasto spazzatura, non possono generare intuizioni utili: garbage in, garbage out».


