Il panorama dell’IA sta vivendo una fase di straordinaria accelerazione, con big come OpenAI e Apple che guidano la ricerca e lo sviluppo verso frontiere sempre più audaci. Mentre OpenAI delinea visioni di superintelligenza trasformativa e meno “dispendiosa”, Apple si concentra sull’analisi approfondita delle capacità di ragionamento dei modelli IA attuali, rivelandone punti di forza e, crucialmente, i limiti intrinseci.

OpenAI: l’avvento di o3-Pro e la visione di superintelligenza di Sam Altman

OpenAI continua a spingere i confini dell’IA con l’introduzione di modelli sempre più avanzati come o3-Pro, destinato agli abbonati ChatGPT Pro e Teams e caratterizzato da prezzi più bassi delle attese. Questa democratizzazione dell’accesso a capacità IA più sofisticate riflette l’impegno di OpenAI per rendere l’intelligenza artificiale più pervasiva e accessibile.

O3-Pro è il modello IA più avanzato di OpenAI in termini di capacità di ragionamento e dovrebbe fornire risposte più affidabili e articolate, in particolare in ambiti tecnici e scientifici. Questo LLM, che ha una conoscenza aggiornata al 31 maggio 2024, supporta un contesto di 200.000 token e viene offerto a un prezzo di 20 dollari (circa 18,50 euro) per ogni milione di token in input e 80 dollari (circa 74 euro) per ogni milione in output.

Dai primi benchmark, o3-Pro risulta nettamente superiore a o3 soprattutto in settori come scienza, educazione, programmazione, scrittura e consulenza aziendale. I miglioramenti più apprezzati sono stati nella chiarezza, nella capacità di seguire istruzioni, nella completezza e nella precisione delle risposte.

Parallelamente, Sam Altman, CEO di OpenAI, ha articolato una visione audace per il futuro, speculando sulla possibilità che la superintelligenza artificiale possa risolvere problemi complessi come la fisica delle alte energie e abilitare la colonizzazione spaziale. Questa prospettiva tecno-ottimistica suggerisce un futuro in cui l’intelligenza e l’energia diventeranno abbondanti, accelerando il progresso umano a livelli senza precedenti.

OpenAI o3-pro

Tuttavia, la visione di Altman non è priva di sfide e critiche. Una preoccupazione significativa riguarda il consumo energetico dell’IA. Sebbene le singole query possano richiedere un’energia minima, la vastità del volume di interazioni quotidiane con i modelli IA si traduce in un consumo energetico complessivo considerevole. Ricerche stimano che le esigenze energetiche specifiche dell’IA nei data center aumenteranno in modo esponenziale entro il 2028, sollevando questioni di sostenibilità e scalabilità.

Nonostante l’ottimismo, nomi importanti nel settore come Gary Marcus esprimono scetticismo, mettendo in discussione la visione di Altman e la sua potenziale sottovalutazione dei limiti fondamentali al progresso umano, suggerendo che l’intelligenza da sola potrebbe non essere la panacea. La recente partnership riportata tra OpenAI e Google Cloud per espandere la disponibilità dei modelli sottolinea la crescente esigenza di infrastrutture robuste per supportare questa espansione.

L’illusione del pensiero: la ricerca di Apple sui modelli di ragionamento

In contrasto con le visioni di superintelligenza di Altman, la ricerca di Apple, come evidenziato nello studio The Illusion of Thinking, si concentra sull’analisi delle capacità e dei limiti dei Large Reasoning Models (LRM). Questi modelli sono progettati per generare processi di pensiero dettagliati prima di fornire risposte, un approccio che mira a simulare un ragionamento più profondo.

La valutazione attuale dei modelli si concentra principalmente su benchmark consolidati di matematica e codifica, enfatizzando l’accuratezza della risposta finale. Tuttavia, lo studio di Apple indaga sistematicamente le lacune di questi modelli attraverso ambienti di puzzle controllabili, che consentono una manipolazione precisa della complessità composizionale pur mantenendo strutture logiche coerenti.

Attraverso un’ampia sperimentazione su diversi tipi di puzzle, la ricerca di Apple ha dimostrato che i LRM più avanzati affrontano un “collasso completo dell’accuratezza” oltre certi livelli di complessità. Questo fenomeno rivela un limite di scalabilità contro-intuitivo: anche se questi modelli mostrano prestazioni eccezionali in compiti a bassa complessità, la loro efficacia diminuisce drasticamente all’aumentare della complessità, nonostante l’aumento delle risorse di calcolo per l’inferenza.

ai summit

Crediti: Shutterstock

Il confronto tra LRM e i loro equivalenti LLM standard in condizioni di calcolo equivalenti ha permesso di identificare tre regimi di performance: compiti a bassa, media e alta complessità. L’indagine approfondita delle tracce di ragionamento, analizzando i modelli di soluzioni esplorate e il comportamento computazionale dei modelli, ha fornito importanti intuizioni sui loro punti di forza e limiti, suggerendo che ciò che percepiamo come “reasoning” in questi modelli potrebbe essere più un’abile simulazione che una vera comprensione profonda.

convergenze e divergenze: il futuro dell’AI tra visione e realtà

Le prospettive di OpenAI e Apple, sebbene apparentemente distanti, sono complementari nell’ecosistema dell’IA. La visione di Altman di un’AI superintelligente sottolinea il potenziale illimitato che questa tecnologia potrebbe sbloccare per l’umanità, spingendo verso investimenti massicci in ricerca e infrastrutture. Al contrario, la ricerca di Apple fornisce un contrappeso cruciale, radicando le aspettative nella realtà delle capacità attuali dei modelli. Comprendere l’“illusione del pensiero” è fondamentale per progettare sistemi IA più affidabili e per evitare l’eccessiva fiducia in capacità che potrebbero non esistere ancora o richiedere scoperte fondamentali.

La sfida per il futuro dell’AI risiede nel bilanciare queste due dimensioni, ovvero perseguire l’innovazione audace mantenendo però una comprensione rigorosa dei limiti attuali. Le ambizioni di superintelligenza richiedono non solo un’enorme potenza di calcolo, ma anche una profonda comprensione dei meccanismi di ragionamento e delle potenziali fragilità dei modelli. L’intersezione tra lo sviluppo di modelli sempre più potenti (come o3-Pro) e la ricerca sui fondamenti del ragionamento (come quella di Apple) sarà quindi cruciale per costruire un futuro dell’IA che sia non solo avanzato, ma anche sicuro, etico e realmente utile per la società.

(Immagine in apertura: Shutterstock)