Nonostante l‘hype su ChatGpt, la soluzione di OpenAi, deve fare ancora molti passi avanti per essere influente nel settore sanitario. Il tallone d’Achille non sono tanto gli algoritmi ma l’accesso a dati strutturati e omogenei. Per questo la profezia del 2016 di Geoffrey Hinton, uno dei padri delle tecniche di Deep Learning, appare ancora lontana dalla realtà. “Dovremmo smettere di formare radiologi. È evidente che entro cinque anni il Deep Learning farà meglio dei radiologi”. Non è andata così, come certificato da un paio di studi pubblicati sul British Medical Journal.

L’intelligenza artificiale può facilitare i flussi di lavoro, ma il contributo umano è ancora fondamentale. Questo è il titolo della prima indagine dove si ricorda la vicenda di un robot chiamato Xiaoyi, in cinese piccolo medico, che nel 2017 ha tentato l’esame di abilitazione alla professione medica in Cina. Nel primo esame di prova, il robot ha ottenuto 100 punti su 600; dopo aver studiato 400.000 articoli e milioni di cartelle cliniche, ha ottenuto un punteggio di 456, notevolmente superiore al punteggio minimo necessario di 360. Il robot ha superato brillantemente le domande basate sulla memorizzazione, ma avuto molte difficoltà con i casi dei pazienti.

L’azienda che lo ha sviluppato è stata comunque molto chiara sul fatto che non è destinato a sostituire i medici spiega lo studio ma altri sono stati meno caute riguardo all’effetto dei sistemi di intelligenza artificiale sui medici umani, in particolare nelle aree che richiedono velocità, accuratezza e radiografie. Man mano che i progressi tecnologici acquisiscono immagini a risoluzione sempre più elevata e vengono prodotte sempre più immagini di questo tipo, i vantaggi delle macchine rispetto all’analisi umana sono sempre più forti”.

[Leggi anche: ChatGPT, la soluzione di OpenAI è ancora acerba per il settore sanitario]

Un altro studio ha voluto misurare la capacità dell’intelligenza artificiale per superare l’esame del Fellowship Program al Royal College of Radiologist di Londra. I risultati dicono che, escludendo dall’analisi le immagini non interpretabili, il candidato con intelligenza artificiale ha ottenuto un’accuratezza complessiva media del 79,5% e ha superato due dei dieci esami FRCR simulati. Il radiologo medio invece ha ottenuto un’accuratezza media dell’84,8% e ha superato quattro dei dieci esami simulati. Su 148 radiografie interpretate correttamente da oltre il 90% dei radiologi, il candidato dell’intelligenza artificiale ha sbagliato in casi clinici (9%) e in venti radiografie in cui oltre il 50% dei radiologi ha interpretato in modo errato, il candidato dell’intelligenza artificiale ha risposto in modo corretto in 10 casi (50%). La maggior parte degli errori di imaging riguardava l’interpretazione di radiografie muscoloscheletriche invece che toraciche.

Le conclusioni dello studio dicono che “quando è stata fornita una dispensa speciale (cioè l’esclusione delle immagini non interpretabili), l’I.A è stata in grado di superare due dei dieci esami simulati. Esiste il potenziale per l’I.A di migliorare le sue capacità di interpretazione radiografica concentrandosi su casi muscoloscheletrici e imparando a interpretare le radiografie dello scheletro assiale e dell’addome che attualmente sono considerate non interpretabili”.

Secondo Andrea Cavalli, Vicedirettore Scientifico dell’Istituto Italiano di Tecnologia (IIT), il problema consiste nella mancanza di una piattaforma comune tra mondo medico e informatico. “Sono strumenti che aiutano molto, che offrono un grande valore aggiunto, ma certamente la frase di Hinton attualmente non trova riscontro nella pratica medica”, ha commentato. Ad aver limitato in questi anni la crescita delle I.A non sono stati i miglioramenti tecnologici, ma questioni burocratiche. Le I.A sono dei potentissimi strumenti capaci di analizzare ed estrarre informazioni importanti dai dati, ma se questi sono scarsi o difficili da analizzare, le I.A non possono lavorare: se in pasto hanno dati ‘spazzatura’, producono risultati spazzatura.

A oggi i dati sanitari sono il tallone d’Achille – ha proseguito Cavalli – basta vedere i fascicoli sanitari elettronici. Sono dati poco strutturati e soprattutto troppo eterogenei, abbiamo un sistema sanitario che dovrebbe essere la fonte dei dati troppo frammentato. Ma non si tratta di un problema solo italiano: è così anche nel resto del mondo”. Senza dati, le I.A non hanno carburante, dunque, per ottenere reali progressi esiste una sola soluzione: “dati, dati, dati”, ha concluso.