
Esaminiamo come l’MDR e il GDPR impattano sui sistemi di supporto decisionali basati su modelli linguistici su larga scala.
Dopo aver ragionato sulla certificazione dei visualizzatori clinici intelligenti (qui) e sui tools per l’empowerment del paziente (qui), esaminiamo l’applicazione dell’IA nei sistemi di supporto decisionali (CDSS).
I CDSS erano e sono tuttora basati su motori di regole che possiamo definire come una forma di IA degli anni 80 – 90, per la precisione IA simbolica, nella quale la conoscenza è composta da simboli (parole o frasi), di norma comprensibili da un essere umano e da regole che il programma può combinare o elaborare per svolgere il compito assegnato. Lo sviluppo e l’aggiornamento della base di conoscenza e la costruzione delle regole sono molto onerosi e richiedono competenze multidisciplinari – scientifiche e tecniche informatiche. Per contro la certificazione di questi programmi che rientrano nella classe II del regolamento europeo (MDR) è abbastanza agevole in quanto è possibile esaminare regola per regola e verificarne la correttezza confrontandole con le evidenze scientifiche contenute nella base di conoscenza.
La diffusione di modelli linguistici su larga scala – LLM – permette di realizzare CDSS a basso costo di sviluppo dove lo sforzo maggiore è l’articolazione del prompting in modo da ottenere risposte corrette e funzionali alla tipologia di utente e allo scopo. Tornando però un attimo all’aspetto costi bisogna precisare che l’uso degli LLM non è gratuito e può diventare anche molto oneroso, così da avere un basso costo di investimento iniziale ma un alto costo operativo.
Bisogna osservare che i CDSS basati su LLM operano, a differenza di quelli basati su IA simbolica, come delle “scatole nere”. Anche quando forniscono i riferimenti che sono stati utilizzati – explainable AI – è molto difficile comprendere il “ragionamento” che è stato svolto dal programma. È necessario ricordare che in effetti questo modello di IA non esegue dei ragionamenti che in qualche modo simulano le regole dell’IA simbolica ma si basano sul calcolo probabilistico che deriva da una valutazione numerica composta da un serie di pesi su tantissimi nodi di una rete neurale. Meccanismo che, per un essere umano, è pressoché impossibile da valutare a priori.
Ecco dunque che la certificazione di questi programmi deve basarsi su criteri e metodologie completamente differenti da quelli che si utilizzano per l’IA simbolica e per qualsiasi altro software non basato sull’IA. Niente di irrisolvibile ma, come tutte le cose nuove, richiede un periodo di rodaggio e di messa a punto di nuovi meccanismi.
Voglio però sottolineare che l’utilizzo della IA non esenta i produttori di questi programmi dalla certificazione MDR di classe II. È un requisito obbligatorio senza il quale non è possibile utilizzare questi strumenti nella pratica clinica. L’IA, in altre parole, non offre scorciatoie o deroghe dalle norme vigenti.
Meno critico, rispetto ad altri usi dell’IA, è il discorso riguardo la privacy. I modelli LLM non hanno bisogno di sapere di chi sono i dati che compongono il prompt con cui li interrogo. Vale però anche in questo caso il ragionamento sulla quantità e la completezza dei dati clinici che impiego: più sono dettagliati, magari riferiti a patologie rare, più è in teoria possibile ricondurli ad un’identità personale. Il disaccoppiamento dei dati clinici dai dati anagrafici, tipico di questi sistemi che operano solo sui secondi, mentre l’accoppiamento viene svolto dal sistema clinico che invoca il CDSS, permettono di poter considerare la gestione del dato di tipo pseudoanonimizzato o anonimizzato. Rimane però il problema, che abbiamo già discusso negli articoli precedenti, della persistenza dei dati clinici nei sistemi di IA e che vengono utilizzati per l’addestramento dei modelli.
Il campo di applicazione dei CDSS è molto ampio. Le considerazioni fatte fin qui sono a carattere generale. Nel prossimo articolo vedremo in dettaglio gli algoritmi per il supporto alla diagnostica sulle immagini, un campo molto promettente nel quale l’IA può offrire prestazioni di alto livello e precisione.
3 – Continua
Buongiorno, intento volevo ringraziarla e congratularmi per la meticolosità e la ricchezza di questi articoli. Mi occupo di tecnologia e lavoro per un’azienda americana pioniera delle tecnologie citate in questi tre articoli. Sto facendo una ricerca sull’IA utilizzata in campo medico per definire la fattibilità di alcuni casi d’uso. Volevo porle le seguenti domande:
– Tecnologie come OCR (fornito da AWS) o Speech-to-Text, sono anche loro regolamentate nel quadro dell’intelligenza artificiale? Inoltre se implementate per la medicina di base, la piattaforma deve acquisire la certificazione MDR classe II?
– Volevo inoltre avere un suo parere sulla tipologia di cloud database ideale per favorire e implementare casi d’uso che utilizzano l’IA. In altre parole, il caso d’uso specifico influenza l’architettura del database?
– In fine, le volevo chiedere, è possibile utilizzare dati pseudo-anonimizzati o anonimizzati per creare modelli di machine learning (ML) e mettere questi modelli al servizio dei medici tramite software? I dati in questo caso non verrebbero condivisi con terze parti o utilizzati da tecnologie (black box) ma formerebbero i data set utilizzati dalla piattaforma software per fornire CDSS più precisi e più fruibili in termini di UX.
Buonasera,
provo a rispondere alle sue domande.
1. dipende dall’architettura. Le tecnologie come OCR e STT se sono parte integrante di una soluzione che rientra nella classificazione MDR, rientrano nel perimetro software da certificare. Se invece la soluzione è fatta a moduli (componenti), è possibile certificare sono quelli che rientrano nella classificazione MDR (ad esempio fanno calcoli o forniscono suggerimenti).
2. se ben comprendo la domanda la tipologia di database dipende dalle finalità e dai casi d’uso della soluzione
3. si, è possibile utilizzare dati anonimizzati per il ML. In caso di dati pseudo-anonimizzati bisogna valutare diversi aspetti in quanto si ricade sotto la normativa GDPR (al contrario dei dati anonimizzati).