Site icon Salute Digitale

Il nodo della certificazione dell’intelligenza artificiale in medicina – parte terza

Fonte: Diffused responsibility: attributions of responsibility in the use of AI-driven clinical decision support systems – Hannah-Bleher, Matthias Braun

Esaminiamo come l’MDR e il GDPR impattano sui sistemi di supporto decisionali basati su modelli linguistici su larga scala.

Dopo aver ragionato sulla certificazione dei visualizzatori clinici intelligenti (qui) e sui tools per l’empowerment del paziente (qui), esaminiamo l’applicazione dell’IA nei sistemi di supporto decisionali (CDSS).

I CDSS erano e sono tuttora basati su motori di regole che possiamo definire come una forma di IA degli anni 80 – 90, per la precisione IA simbolica, nella quale la conoscenza è composta da simboli (parole o frasi), di norma comprensibili da un essere umano e da regole che il programma può combinare o elaborare per svolgere il compito assegnato. Lo sviluppo e l’aggiornamento della base di conoscenza e la costruzione delle regole sono molto onerosi e richiedono competenze multidisciplinari – scientifiche e tecniche informatiche. Per contro la certificazione di questi programmi che rientrano nella classe II del regolamento europeo (MDR) è abbastanza agevole in quanto è possibile esaminare regola per regola e verificarne la correttezza confrontandole con le evidenze scientifiche contenute nella base di conoscenza.

La diffusione di modelli linguistici su larga scala – LLM – permette di realizzare CDSS a basso costo di sviluppo dove lo sforzo maggiore è l’articolazione del prompting in modo da ottenere risposte corrette e funzionali alla tipologia di utente e allo scopo. Tornando però un attimo all’aspetto costi bisogna precisare che l’uso degli LLM non è gratuito e può diventare anche molto oneroso, così da avere un basso costo di investimento iniziale ma un alto costo operativo.

Bisogna osservare che i CDSS basati su LLM operano, a differenza di quelli basati su IA simbolica, come delle “scatole nere”. Anche quando forniscono i riferimenti che sono stati utilizzati – explainable AI – è molto difficile comprendere il “ragionamento” che è stato svolto dal programma. È necessario ricordare che in effetti questo modello di IA non esegue dei ragionamenti che in qualche modo simulano le regole dell’IA simbolica ma si basano sul calcolo probabilistico che deriva da una valutazione numerica composta da un serie di pesi su tantissimi nodi di una rete neurale. Meccanismo che, per un essere umano, è pressoché impossibile da valutare a priori.

Ecco dunque che la certificazione di questi programmi deve basarsi su criteri e metodologie completamente differenti da quelli che si utilizzano per l’IA simbolica e per qualsiasi altro software non basato sull’IA. Niente di irrisolvibile ma, come tutte le cose nuove, richiede un periodo di rodaggio e di messa a punto di nuovi meccanismi.

Voglio però sottolineare che l’utilizzo della IA non esenta i produttori di questi programmi dalla certificazione MDR di classe II. È un requisito obbligatorio senza il quale non è possibile utilizzare questi strumenti nella pratica clinica. L’IA, in altre parole, non offre scorciatoie o deroghe dalle norme vigenti.

Meno critico, rispetto ad altri usi dell’IA, è il discorso riguardo la privacy. I modelli LLM non hanno bisogno di sapere di chi sono i dati che compongono il prompt con cui li interrogo. Vale però anche in questo caso il ragionamento sulla quantità e la completezza dei dati clinici che impiego: più sono dettagliati, magari riferiti a patologie rare, più è in teoria possibile ricondurli ad un’identità personale. Il disaccoppiamento dei dati clinici dai dati anagrafici, tipico di questi sistemi che operano solo sui secondi, mentre l’accoppiamento viene svolto dal sistema clinico che invoca il CDSS, permettono di poter considerare la gestione del dato di tipo pseudoanonimizzato o anonimizzato. Rimane però il problema, che abbiamo già discusso negli articoli precedenti, della persistenza dei dati clinici nei sistemi di IA e che vengono utilizzati per l’addestramento dei modelli.

Il campo di applicazione dei CDSS è molto ampio. Le considerazioni fatte fin qui sono a carattere generale. Nel prossimo articolo vedremo in dettaglio gli algoritmi per il supporto alla diagnostica sulle immagini, un campo molto promettente nel quale l’IA può offrire prestazioni di alto livello e precisione.

3 – Continua

Exit mobile version