Meta apre le API nella sua IA e lancia un chatbot con funzionalità social

Durante la sua prima conferenza per sviluppatori dedicata all’IA, Meta ha annunciato ufficialmente Llama API, un’interfaccia di programmazione pensata per facilitare l’adozione dei suoi LLM Llama da parte delle aziende. Con questa mossa, il colosso guidato da Mark Zuckerberg punta a entrare in concorrenza diretta con le API di OpenAI, Google e dei nuovi attori emergenti nel mercato IA come la cinese DeepSeek, che propongono soluzioni a basso costo e in parte open source.
“Ora potete iniziare a usare Llama con una sola riga di codice” ha dichiarato Chris Cox, Chief Product Officer, durante il keynote dell’evento LlamaCon, sottolineando la semplicità con cui gli sviluppatori possono integrare l’IA di Meta nei propri prodotti. Le API, infatti, rappresentano il cuore dell’integrazione tecnologica per molte aziende e, nel caso di OpenAI, costituiscono proprio la principale fonte di ricavi. Meta, per ora, non ha rivelato i dettagli sui costi del servizio, limitandosi a indicare che Llama API è disponibile in anteprima per alcuni partner selezionati, con un rollout più ampio previsto nei prossimi mesi.
La strategia di Meta punta sulla libertà e sulla trasparenza. A differenza dei modelli proposti da altri big tech, le versioni di Llama sono in gran parte gratuite per sviluppatori e ricercatori, in un approccio che, secondo Zuckerberg, genererà nel tempo maggiore innovazione, più coinvolgimento sulle piattaforme social del gruppo e una minore dipendenza da concorrenti esterni. “I modelli personalizzati che create con Llama vi appartengono, potete portarli ovunque: non siete vincolati ai nostri server” ha dichiarato Manohar Paluri, vicepresidente dell’area AI di Meta.
Meta non ha poi nascosto di voler contrastare l’oligopolio dell’intelligenza artificiale. Nel corso dell’evento, i suoi sviluppatori hanno illustrato le tecniche impiegate per abbattere i costi e migliorare l’efficienza dell’ultima generazione di Llama, mentre Zuckerberg ha accolto con favore la competizione crescente. “Se un altro modello, come DeepSeek, è più efficace in un determinato ambito, oggi gli sviluppatori hanno la possibilità di combinare le migliori parti dei vari modelli per ottenere esattamente ciò che serve. Questo, secondo me, è un cambiamento importantissimo”, ha dichiarato il CEO di Meta.
L’altro importante annuncio a LlamaCon ha riguardato una nuova app stand-alone di Meta AI, simile a quelle già proposte da OpenAI e Google per i loro chatbot IA. L’obiettivo della nuova app è spingere l’utilizzo dell’assistente virtuale oltre l’ambito delle piattaforme proprietarie come WhatsApp, Instagram, Facebook e Messenger, dove è già integrato.
Per ritagliarsi un ruolo di primo piano nella corsa all’IA, l’app sarà in grado di fornire risposte contestualizzate in base all’uso e ai contenuti dell’utente su Facebook e Instagram, sfruttando l’ecosistema della casa madre per offrire un’esperienza più mirata. Alla base di tutto c’è Llama 4, la più recente versione del modello linguistico sviluppato da Meta.
Questo LLM promette prestazioni avanzate in termini di ragionamento, comprensione multilingue ed efficienza computazionale, ponendosi come un concorrente diretto di GPT-4 di OpenAI, Gemini di Google e i modelli più recenti e performanti di Anthropic e DeepSeek. L’integrazione con gli occhiali smart di Meta è un altro tassello della visione a lungo termine dell’azienda; l’assistente sarà infatti accessibile anche attraverso i dispositivi indossabili fondendosi con l’app companion già esistente. Meta intende così offrire un’esperienza di IA pervasiva e trasversale, capace di accompagnare l’utente ovunque.
Meta AI, lanciato originariamente nel settembre 2023, è pensato per svolgere compiti complessi di ragionamento e assistenza, grazie alla potenza dei modelli linguistici di nuova generazione. Nel secondo trimestre inizieranno i test su un abbonamento a pagamento per le versioni avanzate dell’assistente, anche se (secondo fonti vicine all’azienda) i ricavi significativi da questa operazione potrebbero arrivare solo nel 2026.