L’edizione 2025 di AWS re:Invent si è conclusa con il messaggio inequivocabile che l’intelligenza artificiale non è più un insieme di strumenti da sperimentare, ma una piattaforma completa destinata a trasformare l’impresa moderna. L’intera conferenza ha infatti ruotato attorno al concetto degli agenti AI che AWS ha ripetuto come un mantra. Questi strumenti sono ormai entità autonome capaci di interpretare obiettivi, scrivere codice, orchestrare servizi cloud e operare in autonomia per ore, se non per giorni. È l’evoluzione più radicale dell’offerta AI di AWS dai tempi del lancio di Bedrock.

Sin dal keynote di apertura, il nuovo CEO di AWS Matt Garman ha sottolineato come proprio gli agenti rappresentino il punto di svolta tra l’AI generativa di prima generazione e un modello realmente capace di produrre valore su larga scala. Secondo Garman, il passaggio dagli assistenti agli agenti è ciò che consente alle aziende di automatizzare flussi complessi, ridurre tempi operativi e accelerare il time-to-value dei progetti di intelligenza artificiale. Il tono di Garman non ha lasciato spazio a dubbi: re:Invent 2025 è la conferenza in cui l’AI diventa infrastruttura.

Il secondo giorno, con il keynote di Swami Sivasubramanian (oggi responsabile dell’Agentic AI in AWS), la narrazione ha assunto tinte ancora più visionarie. La sua presentazione ha infatti disegnato un futuro in cui la programmazione tradizionale lascia il posto alla definizione degli obiettivi in linguaggio naturale, mentre gli agenti generano piani, codici, chiamate API e pipeline operative in completa autonomia. Un ribaltamento del paradigma di sviluppo software che AWS considera già avviato, nonostante l’evidente distanza dall’adozione mainstream.

aa-amazon-bedrock-sagemaker-ai-2

Accanto alla spinta sugli agenti, re:Invent ha visto una raffica di annunci che consolidano la posizione di AWS come piattaforma più completa e verticale per l’AI enterprise. SageMaker, per anni pilastro del machine learning classico, si arricchisce della personalizzazione serverless dei modelli, una funzione che permette agli sviluppatori di adattare LLM e modelli generativi senza preoccuparsi dell’infrastruttura sottostante. Si tratta di un passo ulteriore verso la democratizzazione dell’AI, capace di ridurre drasticamente le barriere tecniche all’ingegneria dei modelli.

Amazon Bedrock, che oggi si configura come il cuore dell’offerta AI generativa di AWS, aggiunge invece il Reinforcement Fine Tuning, un processo che automatizza l’intero ciclo di ottimizzazione (scelta del workflow, configurazione delle ricompense, esecuzione dei test e applicazione dei miglioramenti). Lo scopo è permettere alle aziende di ottenere modelli più aderenti alle proprie esigenze senza dover costruire pipeline personalizzate. Un tipo di automazione avanzata che si allinea perfettamente alla visione agentica che AWS sta cercando di imporre come standard.

Il capitolo hardware non è stato meno importante. AWS ha annunciato Graviton5, un processore da 192 core che punta a ridurre latenza e consumi per i carichi tradizionali e AI. La densità dei core e l’ottimizzazione dell’interconnessione interna rappresentano uno dei maggiori salti generazionali per la famiglia Graviton, anche se il vero protagonista è Trainium3, evoluzione del chip dedicato all’addestramento e all’inferenza dei modelli generativi. Promette fino a quattro volte le prestazioni del predecessore e un taglio del 40% ai consumi, risultato che suggerisce un vantaggio competitivo notevole in uno scenario in cui i costi energetici dei data center sono diventati centrali.

AWS Agenti

AWS Trainium3

Trainium3 è anche alla base del nuovo sistema UltraServer, progettato per scalare fino a dimensioni paragonabili ai cluster basati su GPU Nvidia. A conferma del fatto che AWS non intende rinchiudere i clienti in un ecosistema chiuso, Amazon ha anticipato che la prossima generazione, Trainium4, sarà compatibile con Nvidia. Un messaggio preciso verso i clienti che oggi dipendono dalla catena hardware di Jensen Huang.

Fra le novità più strategiche spicca anche l’introduzione delle AI Factories, un modello pensato per portare l’infrastruttura AI di AWS direttamente nei data center delle aziende e degli enti governativi. La necessità sempre più diffusa di modelli privati, non esposti a dati esterni, trova qui una risposta concreta che combina sovranità dei dati e flessibilità, con la possibilità di scegliere tra GPU Nvidia o i chip proprietari Trainium.

Non sono mancati annunci più vicini all’operatività quotidiana come i Database Savings Plans, che permettono di ridurre fino al 35% la spesa dei servizi database in cambio di un impegno d’uso annuale. In un contesto in cui i costi cloud sono diventati un tema sensibile per molte aziende, questo tipo di iniziativa può fare la differenza. All’altro estremo dello spettro, Amazon ha cercato di conquistare startup e sviluppatori mettendo sul piatto un anno gratuito del suo tool di coding AI, Kiro Pro+, per le realtà che rientrano nei criteri di accesso.

A dominare la conversazione, però, è stato il clima emotivo dell’ultimo keynote di Werner Vogels. Con un saluto che ha confermato come questo sia il suo addio al palco di re:Invent, il CTO di Amazon ha lasciato una riflessione che sembra quasi la sintesi di tutto ciò che la conferenza ha rappresentato: l’AI cambierà il lavoro, automatizzerà funzioni e renderà inutili alcune competenze, ma non eliminerà chi saprà evolversi. Una chiusura simbolica in un’edizione che ha messo al centro lo spostamento degli equilibri tra esseri umani e sistemi intelligenti.