Secondo uno studio della Stanford University, quello sanitario è uno degli otto settori in cui l’impatto dell’intelligenza artificiale sarà maggiormente rilevante nel futuro prossimo.
La conoscenza solo superficiale delle modalità di funzionamento dei sistemi di IA e l’utilizzo indiscriminato degli stessi non è però scevro da rischi.
L’Autorità Garante della Privacy, con il comunicato stampa del 30 luglio scorso, ha lanciato un vero e proprio allarme ed invita gli utenti delle piattaforme a valutare con attenzione i pericoli che possono seguire a comportamenti poco accorti.
Vediamoli insieme.
Un fenomeno in crescita, ma non scevro da rischi
È sempre più diffusa la prassi dei pazienti di caricare analisi cliniche, radiografie e altri referti medici sulle piattaforme di intelligenza artificiale generativa per chiedere interpretazioni e diagnosi.
La valutazione epidemiologica e delle anamnesi fatta dalla AI può ridurre gli errori medici ed evitare esami inutili, accorciando le liste d’attesa, oltre che rendere gli esami già eseguiti molto più dettagliati in senso predittivo: una serie di benefici di non poco conto, evidenziati da oltre 42mila pubblicazioni prodotte negli ultimi due anni dalle riviste mediche sul tema.
Così facendo però – evidenzia l’Autorità Garante della Privacy – il paziente condivide i suoi dati di carattere sanitario con i fornitori di servizi di intelligenza artificiale generativa.
Questo fenomeno è allarmante dal punto di vista di data privacy sotto due macro-profili:
- il rischio di perdita di controllo possibile su dati sanitari di straordinaria importanza per l’interessato (e dunque di potenziali violazioni, diffusione ed altri utilizzi impropri)
- il rischio che soluzioni di intelligenza artificiale – non specificamente progettate allo scopo di fornire le indicazioni richieste e non rese disponibili al pubblico come dispositivi medici, a valle dei necessari test e controlli previsti dalla disciplina di settore – forniscano al paziente indicazioni errate sul suo stato di salute.
I consigli dell’Autorità Garante
Sotto il primo profilo, il Garante:
- invita gli utenti di tali piattaforme a valutare con attenzione l’opportunità di procedere alla condivisione di dati di carattere sanitario con i fornitori di servizi di intelligenza artificiale generativa
- richiama l’attenzione sull’opportunità di leggere le informative sulla privacy, che i gestori delle piattaforme hanno l’obbligo di pubblicare, al fine di verificare se i dati sanitari contenuti negli esami clinici caricati online ai fini della richiesta di interpretazione e/o diagnosi siano destinati a essere cancellati a seguito della richiesta medesima, in un momento successivo o a essere conservati dal gestore del servizio ai fini dell’addestramento dei propri algoritmi.
Molti dei più noti servizi di intelligenza artificiale generativa consentono agli utenti di decidere la sorte dei dati e documenti caricati online nell’ambito dell’utilizzo del servizio: è dunque il paziente a poter decidere in merito. Resta sempre valido il consiglio di buon senso, aggiungeremo noi, di evitare di condividere referti medici su piattaforme IA non certificate e non specificamente dedicate all’uso sanitario.
Le diagnosi online vanno sempre verificate con professionisti medici
In secondo luogo, l’Autorità Garante richiama l’attenzione sull’importanza di garantire sempre un’intermediazione umana qualificata nell’elaborazione dei dati sanitari tramite sistemi di IA.
Le risposte generate automaticamente dai servizi di IA generativa dovrebbero sempre essere verificate con un professionista medico.
L’intervento umano è essenziale per prevenire rischi che potrebbero incidere direttamente sulla salute della persona. Più in generale, la “supervisione umana qualificata” deve essere garantita in tutte le fasi del ciclo di vita del sistema di IA: dallo sviluppo all’addestramento, fino ai test e alla convalida, prima della sua immissione sul mercato o nel suo utilizzo.
Il tema era stato già anticipato dall’Autorità nel suo “Decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di Intelligenza Artificiale”, adottato nel mese di ottobre del 2023, da me commentato qui.
Il Garante richiama infine gli sviluppatori dei sistemi di IA e gli operatori del settore sanitario sui rischi che comporta il fenomeno della raccolta massiva di dati personali dal web per finalità di addestramento dei modelli di intelligenza artificiale generativa, che sono stati evidenziati nel documento pubblicato a maggio 2024 sul web scraping.
Ci aggiorniamo presto con un nuovo, interessante argomento!
Nel frattempo, resta collegato ed iscriviti alla newsletter per non perderti i prossimi aggiornamenti.
A presto!
LEGGI I DOCUMENTI
Autorità Garante della Privacy, comunicato stampa del 30 luglio 2025
Stanford University, “Artificial Intelligence and Life in 2030”