Apple e Google mettono sempre più IA nelle mani degli sviluppatori mobile

Secondo quanto riportato ieri da Bloomberg, che ha citato fonti a conoscenza della questione, Apple si sta preparando a consentire agli sviluppatori di terze parti di scrivere software utilizzando i propri modelli di IA, nel tentativo di incentivare la creazione di nuove applicazioni.
Per farlo, Apple sta lavorando a un kit di sviluppo software (SDK) e a framework correlati che permetteranno a sviluppatori esterni di creare funzionalità basate sugli LLM impiegati dall’azienda per la sua piattaforma Apple Intelligence, l’insieme di funzionalità basate su IA generativa che comprende strumenti come la riscrittura delle email, il riassunto delle notifiche e l’editing fotografico.
Secondo Bloomberg, Apple, che non ha ancora smentito o confermato l’indiscrezione, intende presentare ufficialmente questo nuovo piano in occasione della Worldwide Developers Conference del 9 giugno.
Apple dovrebbe iniziare rendendo disponibili i modelli di dimensioni ridotte (ovvero quelli che possono essere eseguiti direttamente sui dispositivi), piuttosto che i modelli più avanzati basati sul cloud, che richiedono l’utilizzo di server.
Questa mossa potrebbe aiutare Apple (che alcuni analisti considerano in ritardo nella corsa all’intelligenza artificiale) a competere con rivali come Samsung, che hanno già arricchito i propri dispositivi con funzionalità basate su IA. L’apertura dei modelli potrebbe inoltre aumentare l’attrattiva di Apple Intelligence sia per gli sviluppatori sia per gli utenti, dopo un debutto iniziale segnato da ritardi.
Finora, gli sviluppatori hanno potuto integrare alcune tecnologie IA di Apple nelle loro applicazioni, ma non avevano accesso diretto ai modelli AI dell’azienda per sviluppare e alimentare funzionalità autonome basate su intelligenza artificiale.
Non c’è però solo Apple a voler investire sullo sviluppo in locale di funzioni IA. Google infatti si prepara a rendere l’intelligenza artificiale generativa un elemento nativo dell’esperienza Android, grazie al rilascio di nuove API per il proprio ML Kit. Queste interfacce sono progettate per sfruttare Gemini Nano, una versione compatta del modello linguistico sviluppato internamente pensata per operare direttamente sui dispositivi mobili, senza connessione al cloud.
L’obiettivo è offrire strumenti agli sviluppatori per integrare funzioni come il miglioramento e la riscrittura di testi, la generazione di riassunti e la descrizione di contenuti visivi, il tutto mantenendo i dati localmente sul dispositivo. Questa architettura punta a rafforzare la tutela della privacy degli utenti, evitando l’invio di informazioni sensibili a server esterni.
Non mancano però le limitazioni. Gemini Nano, in quanto modello ottimizzato per l’uso locale, ha capacità inferiori rispetto alle versioni più potenti basate su cloud. Ad esempio, i riassunti testuali generati saranno ridotti a tre punti essenziali e le descrizioni di immagini saranno inizialmente disponibili solo in lingua inglese. Inoltre, la qualità delle prestazioni varierà a seconda della variante del modello utilizzata: la versione XS occupa circa 100 MB, mentre la più leggera XXS, adottata nel Pixel 9a, supporta esclusivamente input testuali e dispone di una finestra di contesto più limitata.
Un altro aspetto importante è la compatibilità. ML Kit non infatti è esclusivo della gamma Pixel e ciò apre la strada a un’adozione più ampia su smartphone top di gamma come OnePlus 13, Galaxy S25 e Xiaomi 15, già predisposti per l’utilizzo di Gemini Nano.
(Immagine in apertura: Shutterstock)