Marta Bertolaso, docente di Filosofia della Scienza e responsabile dell’Unità di ricerca di Filosofia della Scienza e Sviluppo Umano dell’Università Campus Bio-Medico di Roma riflette su come l’Intelligenza Artificiale sia un’opportunità per rimettere in discussione la relazione medico-paziente con la tecnologia. Secondo la filosofa, un inserimento ben pensato dell’IA nei sistemi sanitari può riaffermare il rapporto di fiducia reciproco. Serve però un “reskilling”, ossia un aggiornamento di competenze da parte dei medici, e una vera alfabetizzazione alla tecnologia per i cittadini.
Ottimista nei confronti delle future implicazioni della sua adozione, Bertolaso invita però a rimettere fin da ora l’IA al posto che le compete: un’estensione, non una sostituzione, del sistema sanitario, per aumentare il benessere collettivo.
Quali criteri dovrebbero guidare l’adozione dell’Intelligenza Artificiale nel settore sanitario, specialmente alla luce del rapporto costo-efficacia? C’è il pericolo di concentrarsi troppo sulle nuove tecnologie a discapito dei servizi essenziali?
Il valore dell’Intelligenza Artificiale (IA) nel sistema sanitario non può essere misurato solo in termini di costi e tecnologia avanzata. Piuttosto, dovremmo riconsiderare come l’IA possa migliorare il benessere complessivo e l’organizzazione dei servizi sanitari. Le aspettative sono alte: l’IA promette miglioramenti a vari livelli, dalla gestione organizzativa all’assistenza, dalla diagnostica alla terapia, e nello sviluppo di nuovi farmaci. Tuttavia, è essenziale mantenere al centro dell’attenzione gli obiettivi civili e umani della sanità. L’innovazione tecnologica dovrebbe essere un mezzo per migliorare il servizio al paziente, mantenendo la connessione umana e la personalizzazione del servizio.
Quindi, come possiamo equilibrare l’integrazione dell’IA senza perdere il focus sulla persona?
È essenziale adottare un approccio olistico che valorizzi sia la tecnologia sia l’uomo. I medici dovrebbero ricevere una formazione mirata sulle nuove tecnologie, come la telemedicina, e su come utilizzarle efficacemente a beneficio dei pazienti. Inoltre, è fondamentale stabilire un sistema efficace di gestione dei dati. L’obiettivo è evitare un uso frammentario e non sistematico dell’IA. Senza un’accelerazione nel processo di implementazione delle infrastrutture necessarie, il rischio è che l’utilizzo di questi strumenti rimanga frammentario e non sistematico.
Come possiamo prevenire un’ulteriore disparità nell’accesso alle cure sanitarie considerando l’impatto dell’IA?
Superare le disuguaglianze implica un investimento nell’alfabetizzazione tecnologica. Nonostante la diffusione di internet e smartphone, è essenziale che le persone imparino a usarli responsabilmente. Questo richiede anche un impegno nell’educare il personale sanitario per fornire assistenza più personalizzata e distribuita sul territorio.
Se le nuove tecnologie ci permetteranno di fornire assistenza più personalizzata e distribuita sul territorio – un obiettivo auspicabile – avremo bisogno di professionisti altamente qualificati e ben formati che possano operare efficacemente nella comunità. È un campo che dobbiamo ancora costruire e sviluppare.
Quanto incide l’uso dell’IA sulla fiducia reciproca tra pazienti e professionisti sanitari?
L’IA non dovrebbe essere in contrasto con la fiducia tra pazienti e medici. È importante che gli strumenti di IA servano come facilitatori del benessere e non come sostituti delle decisioni umane. La tecnologia deve rafforzare, non sostituire, la relazione medico-paziente. L’uso degli strumenti IA dovrebbe basarsi sulla fiducia e sull’empatia, non solo sulla tecnologia. Il rischio è che le aspettative elevate – spesso non basate su dati concreti – verso la tecnologia possano portare a una fiducia maggiore nelle macchine piuttosto che negli esseri umani. Questo è evidente quando i pazienti cercano diagnosi su internet prima di consultare un medico e poi mettono in dubbio le opinioni professionali se differiscono da quello che hanno letto online.
Con l’ingresso dell’IA in diversi processi, in che modo secondo lei evolverà il ruolo dei professionisti sanitari?
L’IA dovrebbe essere vista come un’estensione dei sistemi sanitari, che modella e potenzia alcune funzioni dell’intelligenza umana. Ciò richiede un “reskilling”, ovvero un aggiornamento delle competenze dei professionisti della salute, per utilizzare efficacemente l’IA nel contesto del controllo delegato, dove i sistemi IA gestiscono e automatizzano specifiche attività, mentre il controllo finale e le decisioni rimangono nelle mani degli esseri umani. Da parte del medico ci deve essere una chiara comprensione delle esigenze (la domanda), delle capacità delle tecnologie in uso (cosa succede in mezzo), e del valore dei dati prodotti dall’IA, che dovrebbero poi essere utilizzati per informare la decisione medica e la relazione col paziente.
Se l’Intelligenza Artificiale non prende decisioni, qual è l’impatto filosofico di un possibile bias sistematico nell’uso dell’IA in sanità?
Il problema del bias nelle tecnologie di Intelligenza Artificiale è, innanzitutto, una questione pratica di conoscenza e competenza. I professionisti del settore sanitario, sia attuali che futuri, devono essere in grado di valutare il contesto e il peso specifico dei dati forniti dall’IA, riconoscendo che nessun dato è neutrale e che il bias non è necessariamente negativo, ma un aspetto intrinseco di qualsiasi dato scientifico.
È un rischio filosofico e antropologico pensare che le macchine possano agire o addirittura fare di più senza di noi; in realtà, senza l’intervento umano, le loro capacità sono limitate. Le macchine operano entro i limiti che noi stabiliamo e, in nostra assenza, si fermano.
Quali raccomandazioni può offrire agli sviluppatori di Intelligenza artificiale e ai policy makers?
È importante per gli sviluppatori integrare nella loro formazione anche gli studi umanistici per una maggiore consapevolezza verso la sostenibilità dei processi. Per i policy makers, invece di creare regole dettagliate che rischiano di diventare obsolete, ci si dovrebbe concentrare sui principi fondamentali, riflettendo sui diritti umani e sulla dignità nell’era digitale. Questo approccio decentrato permette di assumersi responsabilità specifiche e di creare esperienze di arricchimento collettivo che possono diventare linee guida flessibili.
Evitare un’impostazione top-down rigida consente di lasciare spazio all’innovazione e di valutare dove e come la tecnologia sia più efficace senza imporre limitazioni premature.