“Sei minuti fa abbiamo iniziato la prima trasmissione di quelli che saranno i Giochi Olimpici di Milano-Cortina”, ha annunciato Yiannis Exarchos, CEO di Olympic Broadcasting Services (OBS), aprendo dalla sede del Centro Media Olimpico al MiCo di Milano l’evento di presentazione della piattaforma tecnologica che renderà possibile trasmettere al mondo intero ogni momento dei Giochi Olimpici e Paralimpici Invernali di Milano-Cortina 2026.

Una macchina produttiva imponente, che occupa i padiglioni di Fiera Milano noti ai nostri lettori perché usati anche da SMAU, alimentata da cloud computing e intelligenza artificiale e che si appresta a gestire migliaia di ore di contenuti video 4K distribuiti su nove sedi sparse tra Milano, Cortina e le altre località alpine coinvolte. Una sfida logistica che in tempi precedenti avrebbe richiesto infrastrutture fisiche mastodontiche e costi proibitivi per le emittenti.

La risposta di OBS è stata radicale: ripensare completamente l’architettura tecnologica del broadcasting olimpico. “Nove anni fa, discutendo con il nostro team tecnico del futuro del broadcasting olimpico, ci siamo resi conto che qualsiasi modello tradizionale non sarebbe stato sufficiente ed eravamo di fronte a un enorme problema di scalabilità”, ricorda il CEO di OBS.

Da quella consapevolezza sono nate due scelte strategiche decisive: abbandonare le tecnologie video legacy per abbracciare l’IP e migrare dall’infrastruttura on-premise al cloud. “All’epoca, alcune persone nel settore pensavano fossimo pazzi”, ammette Exarchos. “Quelle tecnologie non erano state costruite per quello che facciamo nel broadcasting. Ma abbiamo sentito che il potenziale c’era”.

La decisione si è rivelata profetica. Quando la pandemia ha accelerato l’adozione del cloud a livello globale, OBS era già pronta. A Milano-Cortina 2026, la piattaforma OBS Live Cloud supporterà 39 emittenti, distribuendo 428 feed video live – inclusi 26 flussi in Ultra-High Definition HDR – e 72 feed audio via cloud, eliminando linee dedicate e satelliti (o tenendoli in qualche caso come backup).

“Le emittenti possono lavorare da dovunque si trovino, coprendo eventi alpini da più sedi come se fossero fisicamente presenti”, ha sottolineato Exarchos. “Hanno accesso a tutti i contenuti e possono elaborarli in tempo reale”.

La mappa della distribuzione del segnale video nelle diverse zone di disponibilità di Alibaba Cloud

La mappa della distribuzione del segnale video nelle diverse zone di disponibilità di Alibaba Cloud

Da Milano, i flussi video vengono inviati prima alla zona di Francoforte di Alibaba Cloud e da lì instradati verso le zone di Nord Virginia, Singapore e Tokio con una latenza non supera i 200 millisecondi.

Le novità AI per spettatori, comitati nazionali e broadcaster

Ma è sul fronte dell’intelligenza artificiale che Milano-Cortina 2026 segna un salto tecnologico. La partnership tra OBS e Alibaba Cloud ha dato vita a sistemi di replay immersivi che trasformano l’esperienza visiva dello sport invernale.

Il Real-Time 360 Replay rappresenta un evoluzione in tempo reale dell’effetto “bullet time” reso celebre dal film Matrix e già utilizzato in modalità non real time nelle riprese delle Olimpiadi di Parigi. Utilizzando algoritmi di AI capaci di isolare gli atleti da sfondi complessi come neve e ghiaccio, il sistema ricostruisce tridimensionalmente i momenti chiave in soli 15-20 secondi. Una latenza così ridotta da permetterne l’integrazione immediata nelle dirette.

La tecnologia sarà implementata in 17 discipline olimpiche, dal pattinaggio di figura all’hockey su ghiaccio, dal freestyle al salto con gli sci. E introduce una funzionalità completamente nuova: Spacetime Slices, un effetto stroboscopico che congela l’atleta in diversi momenti della sua evoluzione all’interno di un’unica immagine composita, che è possibile visualizzare da diverse angolazioni.

Real-Time 360 Replay system at Olympic Venue

Il primo LLM olimpico

L’altra rivoluzione tecnologica di Milano-Cortina 2026 è basata su Qwen, l’LLM sviluppato da Alibaba Cloud. È la prima volta nella storia olimpica che un sistema basato su AI generativa viene integrato nell’ecosistema dei Giochi.

“Con un miliardo di download e 200.000 modelli derivati, Qwen è il modello open più popolare su Hugging Face, ha ricordato Li (forse i numeri reali sono un po’ inferiori, ma la sostanza non cambia).

Una delle sue applicazioni sarà l‘Automatic Media Description System (AMD), un sistema in grado di analizzare il video della ripresa e identificare autonomamente atleti e momenti chiave, generare descrizioni degli eventi e applicare tag agli asset video in pochi secondi.

“È un modello multimodale progettato per comprendere contenuti video in tempo reale”, ha spiegato Feifei Li, Senior Vice President di Alibaba Cloud Intelligence e Presidente del business internazionale. “Da un video o un’immagine può rapidamente estrarre informazioni strutturate che comprendono dati semantici in tempo reale”.

Il risultato è rivoluzionario: gli staff tecnici di OBS possono recuperare clip specifici usando query in linguaggio naturale. Una richiesta come “trova la prestazione da medaglia d’oro nel pattinaggio di figura” restituisce risultati istantanei, eliminando i tempi di ricerca manuale negli archivi.

“Questo ottimizza l’indicizzazione e permette ai team di lavoro di individuare, sviluppare e distribuire più facilmente i contenuti olimpici su tutte le piattaforme”, ha sottolineato Ilario Corna, Chief Technology and Information Officer del Comitato Olimpico Internazionale.

Nonostante il supporto dell’AI, il lavoro di verifica, tagging, descrizione e classificazione dei video richiede le competenze di personale specializzato, che opera in questa sala.

Nonostante il supporto dell’AI, il lavoro di verifica, tagging, descrizione e classificazione dei video richiede le competenze di personale specializzato, che opera in questa sala.

Assistenti AI per il pubblico e i media

Ma Qwen non si limita al broadcasting. Il CIO ha sviluppato gli Olympic AI Assistants, chatbot multilingue integrati nel sito web internazionale che offrono informazioni in tempo reale agli appassionati di tutto il mondo. La stessa tecnologia sarà disponibile presso il Museo Olimpico di Losanna, dove i visitatori potranno usufruire di audioguide personalizzate basate su AI per fare domande sulla storia delle olimpiadi.

Un altro assistente virtuale, dedicato ai Comitati Olimpici Nazionali, permette di recuperare documenti, regolamenti e linee guida ufficiali su temi che vanno dalla logistica ai finanziamenti attraverso query in linguaggio naturale, con traduzione multilingue integrata.

“Milano-Cortina 2026 segna un momento decisivo nell’integrazione dell’IA all’interno del Movimento Olimpico”, ha dichiarato Corna. “Il supporto di Alibaba Cloud ha svolto un ruolo straordinario nel trasformare queste tecnologie avanzate in soluzioni efficaci. Non solo abbiamo arricchito l’esperienza quotidiana dei nostri appassionati attraverso il primo caso di utilizzo delle tecnologie LLM, ma abbiamo anche costruito sistemi intelligenti come Sports AI, che preserveranno i momenti storici delle Olimpiadi per le generazioni future”.

Sports AI è proprio l’altra grande applicazione di Qwen: un sistema di archiviazione media basato su cloud che gestisce oltre otto petabyte di contenuti storici olimpici, automatizzando l’indicizzazione, la categorizzazione e la ricerca multimodale attraverso decenni di filmati, trasformando un archivio statico in una knowledge library dinamica e immediatamente consultabile.

La portata dell’impegno tecnologico è testimoniata dai numeri: Milano-Cortina 2026 vedrà la produzione del più vasto catalogo di asset digitali “ready-to-use” nella storia delle Olimpiadi, con oltre 5.000 contenuti in formato short-form distribuiti attraverso OBS Content+.

Una partnership robusta

“Ogni edizione dei Giochi Olimpici presenta sfide uniche in termini di volumi di dati, distribuzione geografica e complessità logistica”, ha osservato Li, ricordando che Alibaba è stato il partner tecnologico per il broadcasting già nelle edizioni di Tokyo 2020, Pechino 2022 e Parigi 2024, ma con i primi test iniziati in quelle di Pyeongchang nel 2018.

Il taglio del nastro del centro di produzione dell’Olympic Broadcasting Services. Da sinistra a destra: Leon Xie, General Manager of Olympic Business di Alibaba Cloud, Yiannis Exarchos, CEO di OBS, Feifei Li, SVP di Alibaba Cloud Intelligence e President dell’International Business, Ilario Corna, CTO e CIO del Comitato Olimpico Internazionale e Andrea Varnier, CEO di Milano-Cortina

Il taglio del nastro del centro di produzione dell’Olympic Broadcasting Services. Da sinistra a destra: Leon Xie, General Manager of Olympic Business di Alibaba Cloud, Yiannis Exarchos, CEO di OBS, Feifei Li, SVP di Alibaba Cloud Intelligence e President dell’International Business, Ilario Corna, CTO e CIO del Comitato Olimpico Internazionale e Andrea Varnier, CEO di Milano-Cortina

Andrea Varnier, CEO del comitato organizzatore Milano-Cortina 2026, ha espresso soddisfazione per la collaborazione: “Le persone di Alibaba hanno lavorato con noi qui a Milano nei mesi scorsi. Penso che questo faccia parte dell’esperienza che vogliamo dare: persone di culture diverse, nazionalità diverse, con background diversi sono in grado di lavorare insieme e realizzare progetti fantastici come quello che sta per aprirsi tra pochi giorni”.

Mentre gli atleti si preparano a scrivere nuovi capitoli della storia olimpica sulle nevi e sui ghiacci alpini, una rivoluzione silenziosa sta prendendo forma nei data center e nelle piattaforme cloud che porteranno quei momenti nelle case di miliardi di persone. Milano-Cortina 2026 sarà ricordata anche come il momento in cui l’intelligenza artificiale è diventata parte integrante dell’esperienza olimpica.