Sempre alla ricerca di novità, il mondo tecnologico è ora affascinato da ChatGPT (Generative Pretrained Transformer), la soluzione di OpenAI che ha stupito tutti per l’elevato livello delle conversazioni realizzate dalla intelligenza artificiale.  In questo articolo spieghiamo cos’è questo progetto che nei prossimi mesi dalla versione GPT-3.5, l’attuale modello che A.I lo alimenta, passerà a GPT-4 una versione ancora più grande, con una previsione di cento trilioni di parametri. In pratica, la soluzione è stata nutrita con articoli di Wikipedia, libri, milioni di riviste accademiche che gli permettono, attraverso l’utilizzo dei Large Language Model, di rispondere a domande complesse.

I modelli linguistici di grandi dimensioni hanno indubbiamente cambiato per sempre questo settore, in quanto sono in grado di fornire un’assistenza di qualità mai vista prima. Solo poche settimane dopo il rilascio di ChatGPT, Google/DeepMind ha annunciato il rilascio di MedPaLM, un modello linguistico di grandi dimensioni specificamente progettato per rispondere a domande relative all’assistenza sanitaria, basato sul modello PaLM da 540 miliardi di parametri. Questo modello è stato addestrato su sei dataset di domande e risposte mediche esistenti (NedQA, MedMCQA, PubMedQA, LiveQA, MedicationQA e MMLU) e i team di sviluppatori hanno anche creato il proprio HealthSearchQA, utilizzando domande sulle condizioni mediche e i sintomi associati.

I risultati però sono ancora lontani dall’essere ottimali. Per ammissione degli stessi ricercatori la soluzione “ha prestazioni incoraggianti, ma rimane inferiore ai medici”. MedPaLM non regge ancora il confronto con i dottori umani in diverse aree: l’errato recupero delle informazioni infatti è stato del 16,9% per Med-PaLM, rispetto al 3,6% dei medici, il ragionamento non corretto è stato riscontrato nel 10,1% delle risposte di MedPaLM e nel 2,1% delle risposte dei medici e la comprensione errata si è verificata nel 18,7% dei casi per l’algoritmo e nel 2,2% per i medici. La strada però è molto promettente e già si inizia a pensare all’utilizzo di questi strumenti nel campo sanitario.

Alti e bassi nelle risposte

In molti hanno testato ChatGPT per la Sanità e dai test è chiaro che la strada è ancora lunga e al momento non è sicuramente il caso di utilizzarlo per effettuare una diagnosi. Però l’A.I è già stata in grado di superare l’esame di abilitazione alla professione medica negli Stati Uniti, secondo un recente test, ed è diventata anche autore scientifico con un articolo pubblicato su Nurse Education in Practice dal titolo Open artificial intelligence platforms in nursing education: tools for academic progress or abuse?”.

Pur essendo in continuo miglioramento, rispondendo a un’interrogazione ha suggerito articoli scientifici inesistenti, ma di fronte alla richiesta di fornire informazioni sui benefici del cibo biologico rispetto alla chemioterapia nel trattamento del cancro al seno, ha risposto che non sembra esserci letteratura che dimostri questo tipo di benefici, che la chemioterapia è un trattamento consolidato e che comunque era il caso di rivolgersi a un oncologo. Tutto deve essere preso con le pinze, ma alcuni percorsi che potrebbero rivelarsi molto utili già si evidenziano.

I primi suggerimenti degli esperti dicono che lo strumento potrebbe essere utilizzato per riassumere le cartelle cliniche in base all’anamnesi familiare dei pazienti, ai sintomi e ai risultati di laboratorio. Altro possibile utilizzo riguarda il riassunto e l’analisi dei documenti di ricerca: elencare parole chiave in un abstract o riassumere un documento di ricerca lungo e dettagliato per i medici che non lavorano in quell’area di interesse, oppure utilizzarlo per la scrittura di testi generici, come e-mail, o qualsiasi altra cosa che consenta di risparmiare tempo e di personalizzarla ulteriormente in base alle proprie esigenze e al proprio stile personale per gestire la comunicazione con i pazienti.

Il ruolo del chatbot in medicina

ChatGPT è in grado anche di rispondere a domande di ampio respiro. Nei test effettuati sembra rispondere abbastanza bene a domande generali in molti settori, da “Che cos’è il diabete?” a “Come garantire la sicurezza finanziaria in età avanzata?” fino a “Perché i pazienti non sono coinvolti nell’assistenza sanitaria?”. Tuttavia, le risposte che riceverete saranno molto generiche con un riassunto corretto delle nozioni di base, ma senza approfondire gli aspetti specifici. L’algoritmo inoltre spiega bene cos’è e come funziona un pancreas artificiale, ma non è in grado di fornire consigli su dettagli tecnici specifici.

Può lavorare come chatbot per rispondere a domande tipo FAQ per lo studio medico, per gestire gli appuntamenti e rispondere a domande frequenti. Oppure potrebbe essere utilizzato anche per fissare appuntamenti, gestire prenotazioni e svolgere compiti simili per un ambulatorio o un’unità ospedaliera.

Secondo Vince Hartman di Abstractive Health, Società che si occupa di A.I, ChatGPT apre nuovi scenari anche per aziende impegnate nell’Intelligenza artificiale. Grazie alla nuova soluzione i medici potrebbero raccogliere più velocemente informazioni come diagnosi, allergie, risultati delle visite e condensare la tabella in poche frasi. ChatGPT può farlo ora per gli articoli forniti dall’utente, mentre la sua azienda lo farebbe per l’intera storia medica di un paziente. I medici guadagnerebbero tempo per capire più velocemente i loro pazienti.

E qualcosa di simile a ChatGPT potrebbe essere usato per tradurre le note cliniche in versioni più facili per i pazienti. La tecnologia tradurrebbe gli acronimi che comunemente pervadono le note cliniche in parole più comunemente conosciute dai pazienti e le note potrebbero avere informazioni didattiche su ciò a cui il medico si riferiva. Tutti questi servizi potrebbero essere sviluppati in futuro attraverso la tecnologia di ChatGPT, ma bisogna fare attenzione. In primo luogo, l’incredibile fluidità del testo generato non deve essere considerata accurata e fattuale. Per esempio, se chiedete qual è il mammifero marino più veloce, vi risponderà erroneamente, e a volte con molta sicurezza, che si tratta del falco pellegrino, che non è né un mammifero né un animale marino. ChatGPT produce la risposta non reale senza alcun contesto o avvertimento. Ciò che differenzia gli esseri umani dalla soluzione di intelligenza artificiale è il fatto che usiamo il linguaggio per comunicare la nostra fiducia nella risposta e per nasconderci quando pensiamo di poterci sbagliare. ChatGPT è fiduciosamente scorretto senza alcuna indicazione di errore.

Hartman però sostiene che anche con il grande potenziale di queste nuove tecniche di elaborazione del linguaggio naturale, aziende come OpenAI esiteranno a implementare le loro tecnologie nel settore sanitario, visto il recente fallimento dell’A.I con IBM Watson Health. L’innovazione arriverà probabilmente da piccole startup che spingono i confini dell’NlP in ambito sanitario più che dalle big tech. Poiché modelli linguistici di grandi dimensioni come BERT, GPT-2 e BART sono stati messi a disposizione come strumenti open source per la ricerca e l’industria sanitaria, abbiamo già iniziato a vedere un incredibile sviluppo. “Mi aspetto che il futuro sia lo stesso per ChatGPT; l’esplosione nel settore sanitario non avverrà grazie a ChatGPT stesso, ma quando qualcuno scoprirà come replicare GPT-3, spenderà decine di milioni di dollari e fornirà un modello di base alla comunità open source. E poi alcune aziende tecnologiche specifiche per il settore sanitario, con una propensione alla protezione dei dati dei pazienti, sposteranno l’ago della bilancia verso l’innovazione”.