La FDA (Food and Drug Administration), l’ente pubblico USA che si occupa di regolamentare i settori alimentare e farmaceutico, ha definito pubblicamente la sua posizione rispetto all’intelligenza artificiale nei dispositivi medici attraverso il recente documento “Artificial Intelligence and Medical Products: How Cber, Cder, Cdrh, and Ocp are Working Together”. Il rapporto riflette l’impegno della Fda nel promuovere l’innovazione nella tecnologia medica e nel salvaguardare la salute dei pazienti attraverso la regolamentazione, la definizione di standard e il monitoraggio.

IA e Machine Learning infatti presentano nuove sfide normative. A differenza dei dispositivi medici tradizionali, queste tecnologie sono in grado di evolversi e imparare nel tempo. Ciò significa che nel mondo reale potrebbero avere prestazioni diverse rispetto ai test pre-commercializzazione. Questo potrebbe significare risultati migliori per i pazienti, ma anche nuovi rischi da gestire. Un compito non facile con un algoritmo in continua evoluzione.

Attualmente nel database della FDA relativo all’intelligenza artificiale sono presenti 692 dispositivi (rispetto ai 521 dello scorso anno). Le approvazioni sono state 108 solo nel 2023 (rispetto alle 92 del 2022). La radiologia è la specialità più rappresentata, con 531 dispositivi approvati. Al secondo posto c’è la cardiologia, con 71 dispositivi. Altre specialità (neurologia, ematologia, gastroenterologia-urologia e oftalmologia tra le altre) vedono invece una manciata di dispositivi.

L’ente statunitense identifica quattro priorità per lo sviluppo e l’uso dell’Ia nel ciclo di vita dei prodotti medici:

  • promuovere la collaborazione per salvaguardare la salute pubblica;
  • promuovere lo sviluppo di approcci normativi che supportino l’innovazione;
  • promuovere lo sviluppo di standard, linee guida, best practice e strumenti per il ciclo di vita dei prodotti medici;
  • sostenere la ricerca relativa alla valutazione e al monitoraggio delle prestazioni dell’Ia.

Fda intende collaborare con entità esterne come sviluppatori, istituzioni accademiche, enti regolatori globali e gruppi di pazienti per “coltivare un approccio normativo incentrato sul paziente che enfatizzi la collaborazione e l’equità sanitaria”. In pratica, ciò significa che la Fda solleciterà i contributi delle parti interessate in merito alle loro preoccupazioni sull’uso dell’Ia in campo medico come la parzialità degli algoritmi, trasparenza, sicurezza informatica e garanzia di qualità. Inoltre, l’ente promuoverà programmi educativi per insegnare agli operatori del settore l’uso sicuro ed etico dell’Ia nello sviluppo di prodotti medici e la sua incorporazione nei prodotti medici.

Inoltre il Center for Biologics Evaluation and Research (CBER), il Center for Drug Evaluation and Research (CDER), il Center for Devices and Radiological Health (CDRH), e l’Office of Combination Products (OCP) in collaborazione con la FDA hanno intenzione di definire gli approcci normativi per l’uso dell’AI nei dispositivi medici in modo omogeneo tra loro nei rispettivi campi, in modo da proteggere i pazienti e gli operatori del settore sanitario, e garantire la cybersecurity dei prodotti senza ostacolare l’innovazione.

L’idea è promulgare politiche che forniscano indicazioni chiare e complete sull’uso dell’Ia nello sviluppo dei prodotti per garantire la prevedibilità normativa. Queste politiche riguarderanno il monitoraggio continuo delle questioni emergenti, anche nelle richieste di autorizzazione, per identificare insidie e opportunità. Ciò consentirà alla Fda di adattarsi al mutevole panorama dell’Ia e di fare chiarezza sull’utilizzo durante l’intero ciclo di vita del prodotto medico.

Fda intende basarsi sui principi guida esistenti in materia di apprendimento automatico (sviluppati in collaborazione con Health Canada e l’agenzia britannica di regolamentazione dei medicinali e dei prodotti sanitari nel 2021) per garantire la sicurezza e l’efficacia dei prodotti medici di intelligenza artificiale.

Gli obiettivi attuali comprendono l’affinamento e lo sviluppo di considerazioni etiche e di sicurezza relative all’uso dell’Ia nel ciclo di vita dei prodotti medici, l’identificazione e la promozione di buone pratiche che supportino il “monitoraggio della sicurezza a lungo termine e delle prestazioni nel mondo reale” dei prodotti abilitati all’Ia, l’esplorazione delle migliori pratiche relative ai set di dati di addestramento e di test per i modelli di Ia e lo sviluppo di un solido quadro di garanzia della qualità per gli strumenti abilitati all’intelligenza artificiale.