Con il debutto dell’app Codex per macOS, OpenAI compie un passo che era nell’aria da tempo e rende questo suo tool IA qualcosa di più di un semplice strumento accessorio per sviluppatori. Fino a oggi il modello di coding basato su LLM viveva soprattutto attraverso l’interfaccia a riga di comando, il browser o le estensioni per gli ambienti di sviluppo integrati. Soluzioni potenti, ma non sempre ideali quando il lavoro smette di essere lineare e si trasforma in un flusso fatto di agenti multipli, attività parallele e processi che restano attivi per ore.

L’arrivo di un’app nativa per macOS va letto anche come una risposta diretta ad Anthropic, che con Claude Code aveva già presidiato questo spazio. Il confronto è solo questione di filosofia d’uso. OpenAI punta a rendere più visibile e governabile ciò che, nelle versioni precedenti di Codex, rimaneva spesso nascosto dietro comandi testuali o pannelli dell’IDE. La promessa è quella di un controllo più naturale sugli agenti di coding, pensati sempre meno come singoli assistenti e sempre più come una squadra coordinata.

L’elemento più importante dell’app è la gestione per progetti, un’impostazione che riflette bene come il lavoro di sviluppo moderno sia frammentato e simultaneo. Ogni progetto può ospitare più agenti, attivi anche in parallelo, con la possibilità di lavorare su worktree separati per ridurre il rischio di conflitti. È una scelta che guarda chiaramente a chi usa Codex su basi continuative, magari lasciando processi in esecuzione mentre si passa ad altro. In questo contesto, CLI ed estensioni mostrano i loro limiti, perché nate per interazioni più puntuali e meno persistenti.

 

Un altro tassello interessante è il supporto alle Skills, che di fatto funzionano come estensioni strutturate sotto forma di cartelle contenenti istruzioni, risorse e contesto. L’app consente di legarle anche alle Automations, ovvero a flussi che seguono regole e pianificazioni definite dall’utente. Un approccio che sposta Codex verso un uso quasi orchestrale, dove il modello reagisce a prompt estemporanei ed esegue compiti secondo logiche preimpostate e cicliche.

OpenAI Codex

Dal punto di vista qualitativo, Codex continua a dimostrarsi solido, anche se OpenAI sconta un certo ritardo rispetto ad Anthropic sul piano del prodotto finito. La risposta, però, è coerente con una strategia già vista in passato e basata sul compensare il gap funzionale con condizioni di utilizzo più favorevoli. Il raddoppio dei rate limit su tutti i piani principali, da Plus a Enterprise, va proprio in questa direzione e rafforza l’idea di Codex come strumento da usare intensivamente, senza l’ansia di raggiungere rapidamente un tetto operativo.

La decisione di aprire temporaneamente Codex anche agli abbonati ChatGPT Free e Go, pur senza dettagli chiari sui limiti effettivi, suggerisce inoltre la volontà di allargare la base di utenti e raccogliere feedback su scala più ampia.