“Hey Siri, OpenAI o Antrhopic potrebbero aiutare Apple a recuperare terreno sull’AI?”

Apple starebbe valutando l’impiego della tecnologia di intelligenza artificiale sviluppata da OpenAI o Anthropic per potenziare una nuova versione di Siri, il suo storico assistente vocale oggi del tutto anacronistico e inefficiente rispetto ai diretti concorrenti. A riportarlo è Bloomberg News, che cita fonti interne secondo cui l’azienda di Cupertino avrebbe già avviato colloqui con entrambe le società.
La notizia ha avuto immediati effetti sul mercato: le azioni Apple, inizialmente in calo, hanno chiuso la giornata in rialzo del 2%, segno che gli investitori vedono con favore un possibile rafforzamento dell’offerta AI del colosso californiano.
Secondo Bloomberg, Apple avrebbe chiesto a OpenAI e a Anthropic di addestrare versioni dei loro LLM ottimizzate per essere eseguite su infrastrutture cloud controllate da Apple stessa, almeno in fase di test. La decisione finale sull’adozione di un sistema di terze parti non è stata ancora presa, ma l’interesse di Apple per soluzioni esterne rappresenta già di per sé un segnale forte.
Siri in cerca di un rilancio
Siri, lanciata nel 2011, è stata una delle prime interfacce vocali integrate su larga scala in uno smartphone, ma negli ultimi anni ha perso terreno rispetto agli assistenti e ai chatbot sviluppati da Google, Amazon e più recentemente OpenAI. La crescente rilevanza dei modelli generativi, in grado di comprendere e produrre linguaggio naturale con una flessibilità finora inedita, ha messo in luce gli evidenti limiti di Siri, basata su logiche più rigide e meno contestuali.
Nel marzo 2025, Apple aveva già ammesso che il potenziamento AI di Siri sarebbe stato rinviato almeno fino al 2026, senza fornire dettagli ufficiali sulle cause del ritardo. Tuttavia, secondo fonti interne citate sempre da Bloomberg, dietro le quinte si sarebbe consumata una vera e propria riorganizzazione interna. Tim Cook, deluso dalla lentezza nello sviluppo delle funzionalità AI, avrebbe infatti ridimensionato il ruolo di John Giannandrea, ex capo della divisione AI, affidando la supervisione del progetto a Mike Rockwell, noto per la sua precedente esperienza alla guida del team di realtà aumentata.
Apple, storicamente restia a esternalizzare tecnologie chiave, potrebbe quindi cambiare rotta di fronte alla pressione competitiva. Integrare un modello LLM già maturo permetterebbe di accelerare lo sviluppo della nuova Siri e colmare il gap rispetto alla concorrenza.
Non a caso, alla recente WWDC 2025, Apple ha mostrato i primi segnali di apertura in questo senso. Craig Federighi, responsabile del software, ha annunciato che il modello AI alla base di alcune funzionalità interne di Apple sarà reso disponibile anche agli sviluppatori terzi. Inoltre, l’azienda prevede di offrire strumenti di completamento del codice sviluppati sia internamente che da OpenAI all’interno del suo ambiente di sviluppo.
Queste mosse indicano una strategia ibrida, con la quale Apple non intende rinunciare del tutto al controllo sulle proprie soluzioni AI, ma sembra pronta a collaborare con attori esterni per velocizzare l’adozione di nuove tecnologie, mantenendo però l’esecuzione e la privacy dei dati all’interno del proprio ecosistema.
Privacy e infrastruttura proprietaria
Uno degli aspetti chiave delle trattative riguarda proprio il luogo e le modalità di esecuzione dei modelli linguistici. Apple vorrebbe che eventuali soluzioni di terze parti siano adattate per girare sulla propria infrastruttura cloud, probabilmente per mantenere standard elevati di protezione della privacy, da sempre elemento distintivo della filosofia aziendale.
Questa esigenza rende più complesso l’accordo con aziende come OpenAI e Anthropic, i cui modelli sono in genere centralizzati su cloud proprietari. Tuttavia, con la crescente pressione di mercato e la domanda degli utenti per assistenti vocali più intelligenti e contestuali, un compromesso potrebbe non essere lontano.