L'intelligenza artificiale ha già diversi utilizzi nell'ambito sanitario e supporta il ciclo decisionale dell'operatore sanitario. Ma come funzionano realmente le tecnologie di AI? Sono sicure e certe? Il problema dei dati alla "fonte" del processo di analisi è cruciale per evitare distorsioni (bias) a danno di determinate categorie di pazienti.

Autore: Dott.ssa Alessandra Aita (pagina personale)

La Tutela della Salute degli individui e della collettività (diritto costituzionalmente riconosciuto in Italia dall’art. 32) è oggi garantita dal Sistema Sanitario anche grazie alla digitalizzazione crescente dei servizi sanitari e all’evoluzione della ricerca scientifica e tecnologica, che conduce alla creazione di strumenti utili a perseguire questo interesse collettivo.

La digitalizzazione del Sistema Sanitario – avviata già da alcuni decenni e tutt’ora in corso – ha comportato una rapida progressione nello sviluppo terapeutico, nei rapporti tra medico e paziente, nei rapporti tra paziente e struttura sanitaria, ma anche nella gestione e organizzazione del sistema stessi, a favore di un efficientamento di risorse, energie investite e di un miglioramento del servizio offerto. Il paziente, favorito dal diffondersi della digitalizzazione dei sistemi di informazione e comunicazione, dispone oggi di maggiore conoscenza, capacità e consapevolezza sul proprio status di salute: l’autodeterminazione del paziente, ovvero la facoltà di esercitare una scelta consapevole dei trattamenti sanitari, viene supportata anche grazie all’innovazione e la digitalizzazione della Sanità.

Tra le varie innovazioni oggi in uso nel Sistema Sanitario, l’Intelligenza Artificiale (IA) domina il dibattito scientifico. Nel mondo sanitario, ad esempio, viene impiegata per controllare grandi apparecchiature di diagnostica per immagini (Tomografia Computerizzata, TC o Risonanza Magnetica, RM), per ridurre i tempi di acquisizione degli esiti delle immagini; la creazione di algoritmi per l’identificazione delle patologie ha contribuito a ridurre notevolmente gli errori di percezione dell’uomo/medico, consentendo il miglioramento delle diagnosi, anche attraverso l’analisi delle immagini e delle informazioni disponibili, e permettendo di addentrarsi in angoli più nascosti del corpo umano, grazie a riproduzioni in 3D del sistema corpo. L’IA contribuisce, inoltre, allo sviluppo della medicina predittiva, con l’obiettivo di individuare il rischio della persona di manifestare determinate patologie e definire una prognosi, in tempi più brevi, supportando e favorendo il medico nella conseguente decisione terapeutica.

Sempre più ricerche testimoniano che l’uso dell’IA nella diagnosi e nella definizione terapeutica necessita di un bilanciamento degli interessi tra la libertà di cura, la scelta terapeutica e il diritto di accedere a trattamenti sanitari migliori e più efficienti, favoriti anche da un maggiore interscambio di analisi e pareri tra specialisti diversi. Per questa ragione, e per gli impieghi crescenti di questa evoluta tecnologia, è necessario che il paziente sia messo a conoscenza di quali siano, e come funzionano, i sistemi di analisi dati e IA che elaborano le sue informazioni cliniche.

Il futuro della salute è inevitabilmente correlato allo sviluppo delle tecnologie che utilizzano l’Intelligenza Artificiale e dato che la IA si alimenta grazie a mole enormi di dati, due sono le questioni che coinvolgono maggiormente gli studiosi:

  • a. l’analisi sulla qualità dei dati raccolti e messi a disposizione della macchina
  • b. gli obblighi di informazione a carico del medico curante verso il paziente.

RACCOLTA E ANALISI DATI PER MACHINE LEARNING: DISTORSIONI E RICERCA SOLUZIONI AL PREGIUDIZIO

I sistemi di IA possono essere utilizzati dal personale sanitario per formulare ipotesi di diagnosi o proposte terapeutiche mediante i modelli di predizione dell’esito clinico, oppure mediante quelli di anticipazione all’insorgenza di una malattia. Di conseguenza, grazie al loro impiego, i medici possono disporre di maggiori informazioni e fornire risposte più dettagliate ai pazienti sulla base dei dati acquisiti, integrando e ampliando conoscenze e competenze maturate nello studio e con l’esperienza.

Con l’applicazione delle tecnologie di Machine Learning ai dati biomedici e alle cartelle cliniche elettroniche, i medici possono analizzare in tempi più veloci le tante e varie informazioni disponibili, ma per consentire esiti ottimali è necessario che i dati siano raccolti accuratamente. Il sistema, infatti, viene istruito attraverso l’analisi dei molti dati raccolti, il software lavora sulla base di enormi data set, ad esempio costituiti da milioni di immagini digitalizzate (radiografie, fotografie, ECG) per l’interpretazione dei dati clinici, radiologici, istologici, dermatologici.

I dati utilizzati per il training dell’algoritmo potrebbero generare distorsioni (bias), a danno talvolta di determinate categorie di persone, se non sufficientemente rappresentative della popolazione. Esistono diverse tipologie di bias intrinseci ai dati utilizzati (difficoltà a reperire dati da categorie diverse – dovuto al digital divide di alcune fasce, ad esempio, più anziane della popolazione, o per ragioni geografiche), oppure legati alle selezioni effettuate a monte dai membri del team di costruzione dell’algoritmo, che ne possono influenzare l’impostazione (se non venisse garantita l’eterogeneità degli stessi per età, etnia, genere, etc). Non di rado è emerso che i dati sono concentrati per determinate popolazioni (varie minoranze etniche e razziali non risultano ancora oggetto di ricerca genomiche, ad esempio), oppure sul genere maschile (è stato rilevato, ad esempio, che le donne risultano essere sottorappresentate negli studi clinici). Di conseguenza, la mancanza di dati non sempre permette al sistema di disporre di un quadro preciso rispetto alla pluralità di individui e tratti genetici diversi. L’accuratezza dei risultati prodotti da elaborazioni di IA risulta essere proporzionale al numero, alla qualità e alla precisione dei dati inseriti e dalle esperienze immagazzinate su un determinato tema, ma potrebbe non essere adeguata se dovesse emergere un caso non verificatosi in precedenza.

L’IA si evolve grazie alla rielaborazione di dati generati automaticamente (si pensi alle analisi del sangue) oppure dai referti prodotti dai medici. Sebbene la tecnologia sia cristallizzata contro la discriminazione, il comportamento umano, rappresentato dal testo dei referti, influenza indirettamente la macchina nella fase di analisi dei dati. Di conseguenza, ne possono derivare problemi di discriminazione del percepito dell’IA che genera un “pregiudizio” che viene applicato direttamente dal software. Secondo gli sviluppatori dell’IA il software dovrebbe “spersonalizzare” il risultato, rendendolo meno particolare e più universale. Studi americani, ad esempio, hanno rilevato che i dati raccolti dalle cartelle cliniche talvolta riportano un linguaggio negativo associato a popolazioni di minoranze (come le afroamericane), che possono autoalimentare “pregiudizi” nei medici che interagiscono con i referti rilasciati dalle macchine.

Al fine di evitare il generarsi di pregiudizi e perfezionare la raccolta di dati messi a disposizione del software, gli studiosi hanno ipotizzato che la raccolta e la catalogazione dovrebbe:

  • includere informazioni sulla popolazione che fornisce i dati di addestramento, in termini di fonti di dati e principi di selezione della coorte (insieme di individui oggetto di analisi clinica);
  • includere i dati demografici della popolazione da cui è stato appreso il modello, in un modo che consenta un confronto con il proprio gruppo di pazienti o i nuovi gruppi di individui a cui si vuole applicare il modello stesso;
  • fornire dettagli sull’architettura del sistema di calcolo computazionale e sullo sviluppo del modello, in modo che sia chiara la finalità del modello di AI, sia possibile confrontarlo con modelli simili e anche replicare lo studio;
  • riportare in modo trasparente la procedura di valutazione statistica del modello e le procedure impiegate per la stima dei parametri liberi, sempre al fine di poter replicare i risultati.

Alcuni ricercatori americani, ad esempio, hanno proposto l’adozione di procedure standard quale il MINIMAR (MINimum Information for Medical AI Reporting – Informazioni minime per il reporting dell’IA medica), secondo cui è necessario dividere i dati a disposizione in due sottoinsiemi, di cui uno dedicato all’apprendimento del modello (Training Set, in cui l’apprendimento automatico che utilizza algoritmi simula le capacità del cervello umano di ricevere input diversi e di soppesarli) e uno per valutarne le prestazioni (Test Set, mediante l’uso di un dataset di addestramento per effettuare una valutazione oggettiva del modello finale).

OBBLIGHI INFORMATIVI AI PAZIENTI SULL’USO DELL’INTELLIGENZA ARTIFICIALE

I software di IA funzionano secondo diverse modalità: possono essere sottoposti interamente al controllo umano (IA classificata come Human in Command), come ad esempio per l’uso di robotica nelle chirurgie, in cui il medico controlla manualmente la macchina; oppure sottoposti a un controllo parziale (IA classificata come Human in the Loop); oppure le attività sono a totale controllo del software (IA classificata come Human out of the Loop). Nelle ultime due modalità permane la difficoltà di poter controllare, e quindi spiegare taluni aspetti della logica di funzionamento degli algoritmi, che rimangono oscuri anche ai ricercatori stessi. Una critica rivolta ai sistemi di IA – basati su architetture di sistemi di calcolo molto complesse – riguarda la loro caratteristica di poter compiere azioni in autonomia (come riconoscere le immagini o tradurre testi in molte lingue in maniera accurata), mentre il professionista sanitario non è sempre in grado di comprendere il funzionamento del sistema stesso. Questa criticità contrasta con il diritto del paziente a cui è necessario garantire un certo livello di spiegazione dei risultati di un modello di IA, in modo che ne capisca e comprenda la soluzione clinica o terapeutica proposta dal software.

In questo contesto in continua evoluzione, per rendere comprensibile e chiaro all’individuo/paziente il contenuto della soluzione clinica o terapeutica, il sistema prevede che ci sia un diverso approccio da parte del medico curante che, tra gli obblighi in capo, ha quello di una corretta informazione sul trattamento sanitario di cui il paziente è destinatario. Secondo la Legge 219/2017 l’informazione deve avere un alto grado di specificità, accuratezza e, contemporaneamente, essere comprensibile al paziente destinatario della stessa riguardo a diagnosi, prognosi, benefici e rischi, nonché delle possibili alternative. Secondo il Regolamento Europeo della Privacy (GDPR – in vigore dal 2018), il paziente ha il diritto di essere informato in merito all’esistenza di un processo decisionale automatizzato e di ottenere informazioni significative circa la logica utilizzata dal software. A seguire nel 2020 il Comitato Nazionale di Bioetica sostiene che vi è un obbligo etico a capo del medico curante di informazione relativamente ai trattamenti applicati (diagnostici o terapeutici) provenienti da macchine che utilizzano IA e a quali sono gli ambiti, e i limiti, del controllo umano o della sua supervisione della macchina. Ma a oggi i medici hanno, da una parte, l’obbligo di fornire una spiegazione comprensibile al paziente, dall’altra, margini di discrezionalità nella definizione del contenuto informativo rispetto all’eventualità di comunicare o meno l’uso di software intelligenti. Il diritto della piena informazione del paziente incide sull’attività del medico curante nel rendere conoscibile (garanzia di conoscenza esistenza), ma anche comprensibile (a garanzia di comprensione di logiche e rischi) l’algoritmo utilizzato per la diagnosi o definizione della cura. Ne consegue che quei caratteri di opacità che caratterizzano i sistemi di IA (noti come “black-box”) rendono più difficile per il medico coniugare il momento informativo: il medico può non disporre di cognizione completa della procedura di analisi utilizzata dalla macchina. Tanto che si prevede l’impiego di figure professioniste complementari, multidisciplinari, e la formazione per una migliore gestione di questi aspetti più specialistici e innovativi.

Alla base del rapporto medico-paziente resta il rapporto di fiducia, che trova la sua sintesi nell’istituto del consenso informato, volto all’assunzione di decisioni condivise grazie a una proficua comunicazione tra le parti. Le difficoltà in cui oggi, per lo più, incorrono i medici nell’atto di informare i pazienti – in particolare quelli della fascia più anziana -, è quella di spiegare le motivazioni delle soluzioni proposte dall’IA.

COSA SI PREVEDE NEL FUTURO NELL’UTILIZZO DELL’IA

La strada per la personalizzazione della medicina è iniziata anche grazie all’impiego dell’IA, ma è ancora lunga. La disponibilità di dati è essenziale per istruire software intelligenti: però, è necessario che siano rappresentativi di tutte le categorie umane, in modo da poter analizzare le tante variabili esistenti.

La raccolta dei dati messi a disposizione dovrebbe osservare le indicazioni europee su qualità, affidabilità e interoperabilità dei dati (FAIR – Findable, Accessible, Interoperable, Reusable) e convogliare nell’ambito dello Spazio Europeo dei Dati Sanitari (European Health Data Space), il cui regolamento in bozza mira all’armonizzazione dei dati, del loro scambio per un uso secondario a livello europeo.

Il lavoro della ricerca clinica e informatica, ma anche etica, in corso è finalizzata a trovare soluzioni affinché:

  • il sistema di IA venga addestrato con dati adeguatamente rappresentativi delle diverse varietà identitarie del genere umano;
  • il sistema di IA non produca risultati discriminatori;
  • il paziente non subisca le conseguenze della decisione (discriminante) e, quindi, sia supportato al fine di evitare lo sviluppo di atteggiamenti di rifiuto.

Per approfondimenti:  Intelligenza artificiale e diritto: una rivoluzione? AA.VV. 2022; La salute intelligente: eHealth, consenso informato e principio di non discriminazione, AA.VV. 2022 (Federalismi); i sistemi di intelligenza artificiale come strumento di supporto alla diagnostica, 2021 Min. Salute; MINIMAR (MINimum Information for Medical AI Reporting): Developing reporting standards for artificial intelligence in health care; I dati, il futuro della sanità, AA.VV. Edra 2022.

Il futuro della Salute tra dati e IA