In fuga da OpenAI, Google e Meta, i ricercatori cercano nuove strade per lo sviluppo dell’IA

Solo pochi mesi fa Mark Zuckerberg ha cercato di convincere Rishabh Agarwal, già parte del team di Meta, a unirsi al nuovo laboratorio di intelligenza artificiale dell’azienda. Gli ha offerto milioni di dollari in azioni e stipendio, promettendo di lavorare alla cosiddetta “superintelligenza”, un’IA capace di superare le capacità cognitive del cervello umano. Agarwal, però, ha rifiutato l’offerta per unirsi a Periodic Labs, una start-up della Silicon Valley che negli ultimi mesi ha attirato oltre venti ricercatori provenienti da giganti come Meta, OpenAI e Google DeepMind.
La decisione di Agarwal non è isolata, visto che molti scienziati hanno rinunciato (e stanno rinunciando) a compensi multimilionari per abbracciare una visione alternativa rispetto a quella dei grandi laboratori di IA. Mentre questi ultimi inseguono concetti sfuggenti come l’intelligenza artificiale generale o la superintelligenza, Periodic Labs punta a qualcosa di più concreto, ovvero creare sistemi capaci di accelerare le scoperte scientifiche in campi cruciali come la fisica e la chimica.
Dalla teoria alla scienza applicata
Uno dei fondatori della start-up, Liam Fedus, già parte del team di OpenAI che nel 2022 ha contribuito allo sviluppo di ChatGPT, sostiene che la missione principale dell’IA non sia automatizzare i lavori d’ufficio, bensì spingere la scienza verso nuove frontiere. Al suo fianco c’è Ekin Dogus Cubuk, ex ricercatore di Google DeepMind, convinto che le reti neurali basate solo sull’analisi di testi non possano raggiungere autentiche scoperte. Secondo lui, come per gli esseri umani, anche le macchine hanno bisogno di confrontarsi con esperimenti fisici ripetuti, trial ed errori, prima di arrivare a risultati significativi.
Questa impostazione richiama la tradizione dei grandi laboratori del passato come i Bell Labs o i centri di ricerca IBM, che consideravano le scienze fisiche un pilastro della loro missione. Periodic Labs vuole recuperare quello spirito, unendo la potenza di calcolo delle moderne IA a infrastrutture reali di sperimentazione.
Dati, robotica e sperimentazione massiva
Il cuore della visione di Periodic Labs è l’integrazione tra intelligenza artificiale e robotica. Con oltre 300 milioni di dollari di finanziamento iniziale, guidato dal fondo a16z, la start-up ha avviato le prime attività a San Francisco e sta costruendo un laboratorio a Menlo Park. Qui, robot progettati per eseguire migliaia di esperimenti in parallelo condurranno test su materiali e composti, mentre algoritmi di IA analizzeranno i dati raccolti.
Il principio è lo stesso delle reti neurali che apprendono da grandi quantità di testi o immagini, ma applicato al mondo fisico. Un esempio pratico? Un robot può mescolare diverse polveri alla ricerca di un nuovo superconduttore, riscaldarle, testarne la conduttività e ripetere il processo con varianti infinite. L’IA, esaminando i risultati, individua i pattern più promettenti e orienta i cicli successivi, accelerando enormemente un processo che richiederebbe anni di lavoro umano.
Tra idealismo e realismo
Il progetto di Periodic Labs nasce in un contesto in cui le principali aziende di IA sostengono già di poter contribuire alla scienza. Google DeepMind, con AlphaFold, ha dimostrato come un algoritmo possa aiutare la ricerca sui farmaci, mentre OpenAI e Meta parlano di progressi nella matematica e nella fisica teorica grazie ai loro modelli linguistici. Tuttavia, Fedus e Cubuk ritengono che queste iniziative restino legate a un approccio puramente digitale, privo della componente sperimentale che caratterizza ogni reale scoperta scientifica.
Non è un percorso semplice. Portare l’intelligenza artificiale nel mondo fisico è molto più complesso che farla lavorare su dati digitali. Gli esperimenti richiedono infatti tempo, energia e risorse, e non garantiscono successi immediati. Gli stessi fondatori di Periodic Labs ammettono che non esistono scorciatoie, sostenendo che non si tratta di “risolvere il cancro in due anni”, ma di scommettere su un modello che, nel lungo termine, potrebbe trasformare il modo in cui l’umanità affronta le grandi sfide scientifiche.
Thinking Machine Labs è già valutata a 12 miliardi di dollari
Non c’è però solo il caso di Periodc Labs a testimoniare la nascita di nuove strade per lo sviluppo dell’IA lontano dalle big tech. Anche Thinking Machines Lab, la startup IA fondata da Mira Murati, si prepara al debutto sul mercato con il primo prodotto commerciale. L’ex Chief Technology Officer di OpenAI, che ha guidato lo sviluppo di ChatGPT, DALL-E e Sora, ha costruito in meno di un anno una delle startup più ambiziose nel settore dell’IA generativa.
La società ha chiuso a luglio 2025 un round seed da 2 miliardi di dollari, raggiungendo una valutazione di 12 miliardi di dollari in quello che rappresenta uno dei finanziamenti seed più grandi nella storia della Silicon Valley. Il round è stato guidato da Andreessen Horowitz, con la partecipazione di giganti tecnologici come NVIDIA, AMD, Cisco, Accel e Jane Street (tra gli investitori figura anche il governo dell’Albania, paese d’origine di Murati).
Il team di Thinking Machines Lab include ex ricercatori di OpenAI come John Schulman, co-fondatore e figura chiave nello sviluppo di ChatGPT, Barret Zoph e Luke Metz. La startup punta a sviluppare un’intelligenza artificiale multimodale che interagisce naturalmente attraverso conversazione, vista e modalità collaborative. L’obiettivo dichiarato è creare sistemi più comprensibili, personalizzabili e generalmente capaci rispetto alle attuali soluzioni.
Murati ha annunciato che il primo prodotto includerà una componente open source significativa, destinata a ricercatori e startup per la creazione di modelli personalizzati. La filosofia aziendale si basa sulla convinzione che l’IA debba essere “un’estensione dell’autonomia individuale” e distribuita nel modo più ampio ed equo possibile. Recentemente, la startup ha pubblicato i primi risultati di ricerca attraverso il blog Connectionism, esplorando il problema della casualità nei modelli di larga scala.
(Immagine in apertura: Shutterstock)