Site icon Salute Digitale

Il nodo della certificazione dell’intelligenza artificiale in medicina – parte prima

Una serie di articoli per esaminare come l’IA si pone rispetto alla privacy – GDPR – e al regolamento europeo dei dispostivi medici che include anche il software – MDR. Iniziamo dai visualizzatori clinici.

Non c’è dubbio che uno degli ambiti di maggiore interesse per l’intelligenza artificiale – IA – sia la medicina. La disponibilità di modelli linguistici di grandi dimensioni, noti anche come LLM, pre-addestrati con il deep learning su grandi quantità di dati, consente l’utilizzo di queste tecnologie in tanti diversi scenari.

L’interesse suscitato è davvero altissimo e coinvolge non soltanto i tecnici dell’’information technology ma gli stessi professionisti sanitari e persino i pazienti che impiegano l’IA per ottenere spiegazioni e consigli sulle terapie e le opzioni terapeutiche. Siamo agli inizi di una rivoluzione iniziata in modo silente già diversi anni fa ma che ora è al centro dell’attenzione di tutti, incluso la politica.

Di fronte a tanto entusiasmo e a così forti aspettative bisogna però domandarsi se e come sia possibile oggi utilizzare l’IA in medicina. Sono diversi gli aspetti da esaminare ma voglio focalizzarmi su due di essi: la privacy – GDPR – e il regolamento europeo dei dispostivi medici che include anche il software – MDR. Ho perciò deciso di scrivere una serie di post su questo argomento, dedicando ogni articolo ad una possibile applicazione dell’IA dal momento che le considerazioni da fare cambiano in funzione dello scopo e delle modalità di utilizzo degli LLM.

I visualizzatori clinici intelligenti

Iniziamo dai visualizzatori clinici intelligenti, ossia dall’uso degli LLM per sintetizzare e mettere in evidenza le informazioni cliniche più rilevanti. Si tratta di un problema molto sentito da parte dei medici, di cui trovate un articolo qui, ossia della sindrome dei troppi documenti, siano essi cartacei o elettronici. La tentazione di utilizzare la capacità di riassumere e di evidenziare degli LLM è davvero forte, sia per ottenere una visione “sistemica” o olistica del paziente, sia una visione specialistica o “riduzionistica” per una singola branca medica o addirittura una singola problematica clinica. Avere insomma in una pagina tutto ciò che è importante sapere sul paziente che devo visitare e a cui devo formulare una diagnosi o prescrivere una terapia.

La privacy

La maggior parte degli LLM oggi disponibili sono soluzioni cloud basate negli Stati Uniti, Cina e, in misura minore, Europa. Nella normativa GDPR rientrano tutti i dati personali e in particolare quelli sensibili, anche in forma pseudo-anonimizzata. Non è dunque possibile trasferire questi dati senza rispettare tutte le norme che sono in vigore. In particolare non è possibile alimentare questi LLM con documenti clinici nominativi, ad esempio i referti che contengono i dati anagrafici del paziente. Può non essere nemmeno sufficiente oscurare questi dati perché l’insieme delle informazioni presenti possono consentire l’identificazione della persona. Si tratta di un tema su cui c’è grande attenzione da parte del Garante della Privacy e sul quale esistono tecniche specifiche di pseudo-anonimizzazione che però sono incompatibili per l’uso di cui stiamo parlando.

Una possibile soluzione potrebbe essere quella di realizzare “in casa” un LLM, partendo magari da qualche open-source, ma si tratta di un percorso difficile sul quale esiste il problema dei dati con cui addestrare gli algoritmi. Non è un caso se nella gara per la piattaforma artificiale per le cure primarie è stata esclusa questa possibilità (vincolo posto dal Garante).

La certificazione MDR

Un secondo aspetto molto importante è quello della certificazione. Un visualizzatore clinico rientra nella definizione di software con finalità di cura e, come tale, rientra nel regolamento europeo MDR. Il visualizzatore sarebbe utilizzato a supporto del processo decisionale del medico, con un livello di rischio medio. Cosa succederebbe se l’LLM non includesse nella sintesi aspetti clinici rilevanti? O se fornisse un’indicazione sbagliata, estrapolando una conclusione sui dati che ha esaminato? Per tutte queste ragioni ritengo che un visualizzatore clinico di questo tipo sia equiparabile a un Clinical Decision Support System che richiede una certificazione di classe II.

Ma cosa andrebbe certificato? L’interfaccia utente o proprio l’LLM? sicuramente il secondo, magari anche la prima. Non mi sembra che nessuno dei big dell’IA stia lavorando in tal senso. Diverso sarebbe il discorso per una soluzione totalmente fatta in casa, ma valgono le considerazioni fatte in precedenza per la privacy.

Cosa fare allora?

Dobbiamo dunque abbandonare l’idea di utilizzare gli LLM per realizzare dei visualizzatori clinici intelligenti? No, i vantaggi sono in teoria davvero tanti e la consultazione dei dati clinici è un aspetto cruciale in molti casi, ad esempio il FSE e l’EDS. Occorre ragionare con pragmatismo e affrontare le problematiche che ho menzionato con rigoroso spirito critico, cercando e condividendo delle soluzioni con le autorità di vigilanza. Passare insomma dagli slogan e dalla propaganda tecnologica ad un serio lavoro di implementazione di queste nuove e affascinanti tecnologie. Abbiamo l’IA, cerchiamo di capire come utilizzarla.

1 – Continua

Exit mobile version