Google ha annunciato che CodeMender, il suo nuovo strumento di sicurezza basato su intelligenza artificiale, sta già contribuendo a rendere più sicuri numerosi progetti open source grazie alla creazione automatica di patch, poi sottoposte all’approvazione di esperti umani. L’iniziativa segna un ulteriore passo in avanti nella visione dell’azienda di utilizzare l’IA non solo per individuare vulnerabilità, ma anche per correggerle in modo autonomo e verificabile, chiudendo così il ciclo di sicurezza del software.

L’esperimento nasce come estensione naturale del progetto OSS-Fuzz, lanciato da Google anni fa per individuare bug e falle attraverso test automatizzati. Se OSS-Fuzz era pensato per scovare vulnerabilità difficili da rilevare anche per sviluppatori esperti, CodeMender completa il processo, generando automaticamente la correzione e proponendo la patch da validare. In altre parole, l’IA di Google non si limita più a “vedere” i problemi, ma è in grado di risolverli e testarli, alleggerendo enormemente il carico dei team di sviluppo.

Basato sul modello Gemini Deep Think, CodeMender è descritto come un agente IA complesso, capace di analizzare il codice con strumenti di diversa natura. Come spiegano Raluca Ada Popa, senior research scientist di Google DeepMind, e John “Four” Flynn, vicepresidente della sicurezza di DeepMind, il sistema può identificare la causa radice di una vulnerabilità e generare una patch coerente e verificata prima del controllo umano finale. Secondo i due ricercatori, nei primi sei mesi di sviluppo CodeMender ha già contribuito a inviare 72 correzioni di sicurezza a progetti open source, alcuni dei quali con basi di codice superiori ai 4,5 milioni di righe.

L’introduzione di CodeMender rappresenta anche una risposta al crescente impiego dell’IA da parte degli attaccanti. Google sottolinea che i modelli di intelligenza artificiale vengono ormai utilizzati anche per creare exploit e individuare falle nei sistemi e che, per questo motivo, i difensori devono dotarsi di strumenti equivalenti per mantenere il vantaggio tecnologico. La compagnia mira così a un equilibrio tra automazione e controllo umano, in cui l’IA funge da assistente proattivo senza rinunciare a criteri rigorosi di validazione.

A differenza di un semplice modello linguistico come Gemini, CodeMender dispone di un insieme integrato di strumenti specializzati, tra cui analisi statica e dinamica del codice, test differenziali, fuzzing e analisi SMT. Queste tecniche permettono al sistema di comprendere le dipendenze tra i moduli software, individuare la radice del problema e verificare che la patch non introduca regressioni o nuovi bug. È un approccio più “ingegneristico” rispetto all’uso dell’IA generativa pura, orientato alla precisione e all’affidabilità del risultato finale.

IA CodeMender Google

Uno degli esempi più significativi dell’efficacia di CodeMender riguarda la libreria di compressione immagini libwebp, la stessa coinvolta nel grave bug CVE-2023-4863, una vulnerabilità di tipo heap buffer overflow che due anni fa aveva colpito gli utenti iOS tramite un exploit “zero-click”. DeepMind spiega che il nuovo sistema ha saputo applicare automaticamente annotazioni -fbounds-safety a varie porzioni della libreria. Si tratta di istruzioni che dicono al compilatore di aggiungere controlli sui limiti dei buffer, prevenendo così possibili overflow o underflow. Se tali annotazioni fossero state presenti all’epoca, la vulnerabilità non sarebbe mai stata sfruttabile.

Oltre alla correzione delle falle, CodeMender si è dimostrato utile anche per riscrivere porzioni di codice in modo preventivo, introducendo strutture dati più sicure o aggiornando intere sezioni per rispettare standard di sicurezza più moderni. Si tratta di una forma di manutenzione proattiva, in cui l’intelligenza artificiale non aspetta che un errore si manifesti, ma lavora costantemente per rafforzare la robustezza del codice esistente.

Nonostante i risultati promettenti, Google specifica che tutte le patch generate da CodeMender vengono controllate manualmente da esperti umani prima di essere approvate o distribuite, in modo da garantire la piena affidabilità e coerenza del codice. L’obiettivo a lungo termine è rendere lo strumento disponibile al pubblico, ma al momento la priorità resta quella di consolidarne la precisione e costruire una fiducia diffusa nella sua efficacia.

Parallelamente al lancio di CodeMender, Google ha introdotto anche un AI Vulnerability Reward Program (VRP), un programma di incentivi economici per la segnalazione di vulnerabilità legate all’intelligenza artificiale. L’iniziativa aggiorna le regole già esistenti dell’Abuse VRP, attivo dal 2023, e ha già distribuito premi per oltre 430.000 dollari. Il nuovo programma prevede ricompense fino a 20.000 dollari per chi scopre e segnala problemi di sicurezza nei sistemi di intelligenza artificiale.

Infine, Google ha pubblicato una revisione del proprio Secure AI Framework, ora aggiornato alla versione SAIF 2.0, che definisce principi e linee guida per la gestione sicura degli agenti IA. Tra queste raccomandazioni figurano tre pilastri che richiamano direttamente le leggi della robotica di Isaac Asimov: ogni agente deve avere un controllore umano ben definito, i suoi poteri devono essere limitati con attenzione e le sue azioni e pianificazioni devono essere sempre osservabili.