Il Parkinson è una malattia eterogenea nella presentazione dei sintomi, nella progressione e una maggiore comprensione di entrambi gli aspetti può consentire una migliore gestione dei pazienti migliorando la progettazione degli studi clinici.

Partendo da questa considerazione e utilizzando big data, Ai e machine learning Ibm e Michael J. Fox Foundation hanno lavorato su un progetto che ha permesso di individuare gli stati di progressione della malattia nei diversi pazienti e che potrebbe indicare anche quale sarà la progressione del paziente verso un altro strato della malattia. “Abbiamo sviluppato un modello statistico di progressione della malattia di Parkinson precoce che tiene conto della variabilità intra-individuale e inter-individuale e degli effetti dei farmaci. Il nostro modello predittivo ha scoperto traiettorie di progressione della malattia non sequenziali e sovrapposte”. È un esempio recente di utilizzo dei big data che combinati con lo sviluppo dell’AI possono dare un forte sviluppo alla medicina.

Gli investimenti italiani

Proprio i big data sono stati al centro del convegno “Big Data, Good Data, Smart Data nella ricerca e nella pratica cardiovascolare”, primo evento ufficiale della Rete Cardiologica Italiana. Il convegno ha fatto il punto sulla situazione che vede l’Italia premere forte sull’acceleratore stanziando il triplo degli investimenti della Germania e il doppio della Francia per l’informatizzazione della medicina.

Per identificare dei fattori comuni di raccolta e analisi dei dati, è nato infatti già nel 2019 il progetto Health Big Data – Alleanza contro il cancro finanziato dal Ministero della Salute con un investimento pari a 55 milioni di euro.

L’iniziativa coinvolge i 51 Irccs italiani (la rete cardiologica, oncologica, pediatrica, delle neuroscienze e neuroriabilitazione), in collaborazione con il Politecnico di Milano e l’Istituto Nazionale di Fisica Nucleare. Si articola in dieci anni e punta a costruire una piattaforma IT federata, che permetta di valorizzare quanto già presente nei singoli Irccs e nelle loro Reti per raccogliere, condividere e processare i dati clinico-scientifici dei pazienti, codificandoli in modo uniforme.

Oggi la rete cardiologica ha attivato dieci studi clinici, costruiti prevedendo la condivisione dei dati tra i diversi partner. Fra questi ci sono un paio di studi di raccolta dati cardiovascolari su vasta scala. Il primo è il Progetto CardioCovid Risk, partito ad aprile 2020 in dieci Irccs, che mira a studiare le complicanze del virus SARS-CoV-2 a carico del cuore e dei vasi sanguigni, nella fase di ricovero e follow up dei pazienti, offrendo quindi la possibilità di raccogliere informazioni utili a comprendere meglio il long Covid.

Il Progetto CV-Prevital, invece, il più ampio e innovativo programma di prevenzione primaria cardiovascolare nella popolazione italiana, punta ad arruolare 80mila soggetti in condizioni “real life”, coinvolgendo 14 Irccs, medici di medicina generale e farmacie, con l’obiettivo di combattere la cronicità partendo dai fattori di rischio, prima che si sviluppi la patologia.

Non solo grandi numeri

“L’importanza dei Big Data in medicina va oltre l’analisi di grandi numeri”, ha aggiunto Giuseppe Ambrosio, Vice Direttore scientifico Irccs MultiMedica e Ordinario di Cardiologia presso l’Università degli Studi di Perugia.

“Le tecniche di Intelligenza Artificiale permettono di replicare i processi logici del pensiero umano con vantaggi enormi. Analizzare in brevissimo tempo migliaia di informazioni consente risultati altrimenti impossibili, come lo screening di farmaci che possono avere effetti su altri sistemi, quali l’infezione da Covid. Oppure l’analisi agnostica di dati clinici, che fornendo una valutazione oggettiva non influenzata dalle conoscenze dell’operatore consente diagnosi riproducibili e omogenee, applicabili in contesti nei quali non sia disponibile personale esperto (per esempio sul territorio, nelle catastrofi)”.

Come ha sottolineato anche Vincenzo Valentini, Vicedirettore Scientifico del Policlinico Universitario A. Gemelli in occasione della presentazione dell’iniziativa Roche Now dedicata ai big data, non siamo dunque all’anno zero ma nella fase uno. Dove per esempio sono già presenti piccoli robot che segnalano per i pazienti ricoverati nelle chirurgie i rischi di infezione grazie all’esame dei dati di laboratorio. E sono anche in grado di suggerire delle soluzioni.

“Però siamo ancora nella fase uno dove dobbiamo capire cosa significa e cosa è la medicina digitale. Poi dovremo passare attraverso un processo di validazione e creare delle procedure, un sistema di struttura che ne consenta un uso appropriato”. Siamo all’inizio di un percorso che trova subito una barriera nella formazione. Perché qui si tratta di procedere in modo diverso dal passato con un metodo che Valentini definisce “adduttivo”. Si generano delle ipotesi e su queste altre possibili deduzioni. “Questa formazione passa da un percorso non didattico ma esperienziale”.

Altro aspetto importante è quello relativo alla regolamentazione perché di fronte all’innovazione, soprattutto di questa portata, c’è sempre il pericolo di derive poco etiche o che vanno solo in direzione del profitto. Stabilire procedure è dunque fondamentale come ha sottolineato di recente anche Francesco Longo.

Gli ostacoli

L’utilizzo dei Big Data è però fondamentale perché supporta e si inserisce a pieno titolo nelle quattro direzioni della medicina del futuro: preventiva, predittiva, personalizzata e partecipata dove ci si ricollega ai rischi legati all’etica.

Lo sviluppo trova però ostacoli molto italiani e lo abbiamo visto durante la pandemia. Come sottolinea Tasciotti Il sistema è ancora impreparato, ogni regione ha una sua soluzione”. Si invoca quindi la classica cabina di regia, in realtà mai così necessaria, che integri i sistemi informativi e permetta di smantellare i vari centri di potere derivanti da una Sanità in mano alle Regioni che spesso non collaborano fra loro. Di centri di potere ha parlato anche l’ex Ministro della Salute, Beatrice Lorenzin che ha sottolineato come “Il Sistema freni qualsiasi tipo di trasparenza del dato”.

Il percorso si articola quindi lungo due binari. Da una parte c’è l’aspetto politico, la collaborazione tra le regioni e un sistema più centralizzato, e dall’altra l’aspetto più tecnologico e formativo che vede l’utilizzo dei big data nel sistema sanitario. Utilizzo che porterebbe un sacco di benefici.

Generazione di efficienza, eliminazione degli sprechi, maggiore controllo anche sulla corruzione, riduzione dell’errore umano, accorciamento dei tempi di sviluppo di nuovi farmaci, possibilità di analizzare in fretta e in modo compiuto la letteratura scientifica su vari argomenti. Per esempio nei primi mesi del Covid si è parlato di ventimila studi sul virus sfornati nel mondo. Chi può leggere tutta questa roba?

Come succede spesso in Italia anche se siamo nella fase embrionale dello sviluppo di queste tecnologie abbiamo già qualche buon esempio come dimostra anche il progetto varato dal ministero.

Lo ha raccontato Mattia Altini, Presidente della Società Italiana di Leadership e Management in Medicina (Simm) e Direttore Sanitario dell’Ausl Romagna. Nella Regione è stata messa a sistema la possibilità che il paziente fosse inserito in modo inclusivo nei servizi. In questo modo tutti i professionisti che partecipano alla cura del paziente accedono alla cartella clinica informatizzata, che può essere consultata e modificata inserendo dati a ogni livello del percorso. “Questa elaborazione l’abbiamo chiamata digital twin, gemello digitale”.

A Parigi invece si è lavorato sull’organizzazione del personale. Quattro ospedali che fanno parte dell’Assistance Publique-Hôpitaux de Paris hanno utilizzato i dati da una varietà di fonti per ottenere previsioni giornaliere e orarie di quanti pazienti si prevede saranno presenti in ogni istituto. Uno dei set di dati chiave è costituito da dieci anni di registrazioni di ricoveri ospedalieri, che gli scienziati dei dati hanno analizzato utilizzando tecniche di “analisi delle serie temporali”.

Queste analisi hanno permesso ai ricercatori di vedere modelli rilevanti nei tassi di ammissione. Poi con il Machine Learning hanno trovato gli algoritmi più accurati che prevedevano le tendenze future dei ricoveri. A questo punto è stata sviluppata una interfaccia utente basata sul web, che prevede i carchi di pazienti e aiuta nella pianificazione dell’allocazione delle risorse utilizzando la visualizzazione dei dati online migliorando la cura generale dei pazienti.

Negli Stati Uniti, Kaiser Permanente, un consorzio di assistenza ha implementato un sistema chiamato HealthConnect che condivide i dati in tutte le loro strutture e rende più facile l’uso dell’Ehr. Un rapporto McKinsey sull’assistenza sanitaria con Big Data spiega che “Il sistema integrato ha migliorato i risultati nelle malattie cardiovascolari e ha ottenuto un risparmio stimato di un miliardo di dollari dalla riduzione delle visite in ufficio e dei test di laboratorio”.

Tornando in Italia l’Osservatorio Arno, selezionato dalla Commissione Europea come uno dei venti esempi di uso di Big Data in Sanità, “è un sistema a supporto della governance sanitaria nelle Asl e nelle Regioni che, attraverso l’integrazione dei flussi amministrativi disponibili, consente il monitoraggio dell’appropriatezza, delle performance e dei costi assistenziali”.

Negli anni è diventato il portale di riferimento per la farmacoepidemiologia e il governo clinico nelle Aziende sanitarie, costituendo l’unico esempio in Italia di database clinico multicentrico di popolazione assistita. Analizzare i dati aggregati in dettaglio per singola Asl per monitorare i consumi e valutare l’efficacia e l’appropriatezza clinica delle prestazioni erogate sono i principali obiettivi del progetto, che si occupa anche di specifiche patologie.