L’uso dell’intelligenza artificiale si profila come uno degli strumenti chiave per erogare nuovi modelli di cura e migliorare l’efficienza in sanità. L’uso di questo genere di strumenti non è però privo di rischi. Il Garante della Privacy ha recentemente pubblicato sul suo sito il “Decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di Intelligenza Artificiale” con le indicazioni di base per l’utilizzo dell’IA nella gestione dei dati sanitari. Vi segnalo qui di seguito i principali spunti d’interesse.
Il futuro è qui
L’intelligenza artificiale (IA) si sta diffondendo velocemente nel mondo sanitario e, in particolare, nella diagnostica per immagini, con la prospettiva, per gli operatori, di doversi confrontare, più o meno a breve termine, con sistemi esperti in grado di modificare significativamente i percorsi diagnostici e terapeutici, le modalità decisionali del medico e, in ultimo, anche il rapporto medico-paziente.
Si stima che, nei prossimi tre anni, gli investimenti in IA aumenteranno del 21%, per ottimizzare l‘efficienza operativa (45%) ed effettuare analisi predittive (44%).
Tuttavia, già nel 2021 il Consiglio Superiore di Sanità segnalava che
“Uno sviluppo incontrollato e non governato dell’AI non è scevro da potenziali rischi, derivanti, ad esempio, dall’uso di sistemi di AI privi di una rigorosa validazione scientifica, dalla mancanza di controllo sui dati processati dai sistemi esperti, da possibili violazioni della privacy degli utenti e da discriminazioni introdotte dalla programmazione degli algoritmi; senza dimenticare le aspettative illusorie e fuorvianti per sanitari e pazienti derivanti da un utilizzo improprio dei sistemi di AI”
La proposta di Regolamento Europeo sull’intelligenza artificiale (legge del Parlamento Europeo e del Consiglio sull’IA del 21 aprile 2021, testo non consolidato) e le successive proposte emendative considerano ad alto rischio i sistemi di IA che incidono – tra l’altro – sulla salute, sul diritto alle cure e sulla fruizione di servizi sanitari, di assistenza medica, nonché sui sistemi di selezione dei pazienti per quanto concerne l’assistenza sanitaria di emergenza, auspicando che siano stabilite norme legislative comuni per tutti i sistemi di IA ad alto rischio.
La delicatezza degli interessi in gioco implica la necessità di stabilire delle regole che garantiscano un utilizzo appropriato degli strumenti di IA.
Tre principi cardine
Dal punto di vista della sicurezza nel trattamento dei dati personali, il Garante della Privacy ha individuato tre principi cardine in tema di utilizzo di algoritmi e di strumenti di IA nell’esecuzione di compiti di rilevante interesse pubblico:
- il principio di conoscibilità, in base al quale l’interessato ha il diritto di conoscere l’esistenza di processi decisionali basati su trattamenti automatizzati e, in tal caso, di ricevere informazioni significative sulla logica utilizzata, sì da poterla comprendere
- il principio di non esclusività della decisione algoritmica, secondo cui deve comunque esistere nel processo decisionale un intervento umano capace di controllare, validare ovvero smentire la decisione automatica (c.d. human in the loop)
- il principio di non discriminazione algoritmica, secondo cui è opportuno che il titolare del trattamento utilizzi sistemi di IA affidabili che riducano le opacità e gli errori dovuti a cause tecnologiche e/o umane e ne verifichi periodicamente l’efficacia, anche alla luce della rapida evoluzione delle tecnologie impiegate, delle procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate.
Ciò anche al fine di garantire che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori, visti i potenziali effetti discriminatori che un trattamento inesatto di dati sullo stato di salute può determinare nei confronti di persone fisiche.
Garantire la qualità dei dati
La realizzazione di sistemi di IA impone innanzitutto il rigoroso rispetto di specifiche misure volte a garantire in concreto la qualità dei dati, cioè la loro esattezza, correttezza ed aggiornamento, e di adottare tutte le misure ragionevoli per tutelare gli interessi ed i diritti fondamentali degli interessati.
I requisiti di esattezza, correttezza e aggiornamento del dato appaiono di particolare rilievo considerati i rischi di elaborazione di dati raccolti per finalità di cura che potrebbero essere stati, successivamente alla raccolta, modificati, rettificati o integrati dal personale sanitario che nel tempo è intervenuto nel percorso di cura dell’interessato.
Il dato non aggiornato o inesatto influenzerebbe inoltre anche l’efficacia e la correttezza dei servizi che i suddetti sistemi di IA, che si basano infatti sulla rielaborazione di tali dati, intendono realizzare.
In tale contesto, se si considera che la realizzazione di un sistema di IA per l’erogazione di servizi digitali è volto a supportare, in modo innovativo, il servizio sanitario nazionale, eventualmente anche allo scopo di farne discendere idonei interventi da parte dei decisori pubblici, assume particolare rilievo la circostanza che ogni qualità riferita al singolo interessato, nonché ogni diversa categoria di interessati sia rappresentata allo stesso modo in cui essa è presente nella popolazione.
Essenziale la supervisione umana
Generare contenuti, fare previsioni o adottare decisioni in maniera automatica, come fanno i sistemi di IA, per mezzo di tecniche di apprendimento automatico o regole di inferenza logica e probabilistica è cosa ben diversa rispetto alle modalità con cui queste stesse attività sono svolte dagli esseri umani attraverso il ragionamento creativo o teorico, nella piena consapevolezza della responsabilità e delle relative conseguenze.
Se da una parte, quindi, l’IA amplia significativamente la quantità di previsioni che si possono fare in molti ambiti – a cominciare dalle correlazioni tra i dati-, dall’altra, affidare solo alle macchine il compito di prendere decisioni sulla base di dati, elaborati mediante sistemi di IA, comporta rischi per i diritti e le libertà delle persone.
A tale riguardo, il Comitato europeo per la protezione dei dati (EDPS/EDPB), il Garante europeo e quello italiano hanno sottolineato la centralità del concetto di supervisione umana contenuto nella proposta di Regolamento, ciò, in particolare, nella fase di addestramento degli algoritmi, in quanto sulla base di questo “addestramento”, l’IA è in grado di fare delle previsioni, con diversi gradi di probabilità.
L’IA va addestrata
La correttezza nella predizione della IA, soprattutto qualora correlata al rischio di sviluppare malattie, è proporzionale al numero, alla qualità e all’accuratezza dei dati inseriti e alle esperienze immagazzinate su un determinato tema. Tuttavia, le predizioni possono essere “sbagliate” per l’imprecisione dei dati forniti, per l’addestramento degli algoritmi (ad es. informazioni inesatte non aggiornate) o per l’uso di assunzioni non fondate o non pertinenti.
Al fine di fornire concretezza al concetto di “rischi di discriminazione” che possono derivare da una selezione impropria, incompleta e non accurata dei dati utilizzati dai sistemi di IA, il Garante offre il seguente esempio.
Negli Stati Uniti, un sistema di IA utilizzato per stimare il rischio sanitario di oltre 200 milioni di americani tendeva ad assegnare un livello di rischio inferiore ai pazienti afroamericani a parità di condizioni di salute, con la conseguenza di negare loro l’accesso a cure adeguate.
I ricercatori che hanno svolto l’analisi del caso hanno stabilito che la causa era da attribuire alla metrica utilizzata per stimare il rischio, basata sulla spesa sanitaria media individuale. In questo caso, quindi, l’appartenenza a un gruppo etnico non è una caratteristica utilizzata direttamente dall’algoritmo, ma influenza indirettamente il risultato in considerazione della struttura economica della società americana; ciò rende evidente come sia indispensabile nell’addestramento e nell’utilizzo dell’algoritmo considerare la qualità dei dati che è spesso fortemente condizionata anche dalle caratteristiche socio-economiche della popolazione di riferimento.
È necessario, dunque, che in tale fase di addestramento degli algoritmi sia mantenuto il ruolo centrale dell’uomo e, nel caso di specie, del professionista sanitario e non rimettere in toto la decisione alle macchine, e ciò al fine di ridurre il rischio di “discriminazione algoritmica”, che potrebbe verificarsi relativamente all’accesso alle cure, alla quota di partecipazione al costo in carico all’assistito e addirittura all’appropriatezza dei percorsi diagnostici e terapeutici, potendo potenzialmente aumentare il divario e le disuguaglianze socio-sanitarie.
Per maggiori info sulla materia trovi qui i documenti integrali:
Ci aggiorniamo presto con un nuovo, interessante argomento!
Nel frattempo, resta collegato ed iscriviti alla newsletter per non perdere i prossimi aggiornamenti.