Prosegue incessante il lavoro di Google sull’intelligenza artificiale e, pochi giorni dopo il lancio di Gemini 1.5, oggi tocca a Gemma, una nuova famiglia di LLM open source rivolta a sviluppatori e ricercatori di intelligenza artificiale e costruita con la stessa ricerca e tecnologia utilizzata per creare i modelli Gemini.

Sviluppata da Google DeepMind e altri team di Google, Gemma è già disponibile a livello globale e Google ha condiviso queste prime informazioni.

  • Esistono al momento due versioni di Gemma di diverse dimensioni: Gemma 2B e Gemma 7B
  • Un nuovo toolkit di IA generativa responsabile fornisce indicazioni e strumenti essenziali per creare applicazioni di IA più sicure con Gemma
  • Integrazione con strumenti popolari come Hugging Face, MaxText, NVIDIA NeMo e TensorRT-LLM
  • I modelli Gemma pre-addestrati e ottimizzati con le istruzioni possono essere eseguiti su un laptop, workstation o Google Cloud con una facile implementazione su Vertex AI e Google Kubernetes Engine (GKE).
  • I termini di utilizzo consentono un utilizzo e una distribuzione commerciale per tutte le organizzazioni, indipendentemente dalle dimensioni.

I modelli Gemma condividono componenti tecnici e infrastrutturali con Gemini e ciò, secondo Google, consente a Gemma 2B e 7B di ottenere le migliori prestazioni della categoria per le loro dimensioni rispetto ad altri modelli aperti. Inoltre, per rendere sicuri e affidabili i modelli pre-addestrati Gemma, Google ha utilizzato sia tecniche automatizzate per filtrare determinate informazioni personali e altri dati sensibili dai set di addestramento, sia un’ampia messa a punto e l’apprendimento di rinforzo dal feedback umano (RLHF). Google ha anche condotto valutazioni approfondite tra cui red-teaming manuale, test contraddittori automatizzati e valutazioni delle capacità del modello per attività pericolose.

google gemma

Oltre a Gemma, Google sta inoltre rendendo disponibile un nuovo Responsible Generative AI Toolkit per aiutare gli sviluppatori e i ricercatori a dare priorità alla creazione di applicazioni IA sicure e responsabili. Il kit di strumenti include:

  • Classificazione di sicurezza: una nuova metodologia per creare robusti classificatori di sicurezza con esempi minimi
  • Debug: uno strumento di debug del modello aiuta a indagare sul comportamento di Gemma e ad affrontare potenziali problemi
  • Linee guida: è possibile accedere alle best practice per gli sviluppatori di modelli in base all’esperienza di Google nello sviluppo e nell’implementazione di modelli linguistici di grandi dimensioni

I modelli Gemma possono essere ottimizzati sui dati dell’utente per adattarli a esigenze applicative specifiche, come il riepilogo o il retrieval-augmented generation (RAG). Su questo versante Gemma supporta un’ampia varietà di strumenti e sistemi:

  • Strumenti multi-framework: implementazioni di riferimento per l’inferenza e la messa a punto su Keras 3.0 multi-framework, PyTorch nativo, JAX e Hugging Face Transformers
  • Compatibilità tra dispositivi: i modelli Gemma funzionano sui tipi di dispositivi più diffusi, tra cui laptop, desktop, IoT, dispositivi mobili e cloud, consentendo funzionalità IA ampiamente accessibili
  • Piattaforme hardware all’avanguardia: Google ha collaborato con NVIDIA per ottimizzare Gemma per le GPU NVIDIA , dal data center al cloud fino ai PC
  • Ottimizzato per Google Cloud: Vertex AI fornisce un ampio set di strumenti MLOps con una gamma di opzioni di ottimizzazione e implementazione utilizzando ottimizzazioni di inferenza integrate. La personalizzazione avanzata è disponibile con gli strumenti Vertex AI completamente gestiti o con GKE autogestito, inclusa l’implementazione in un’infrastruttura conveniente su GPU, TPU e CPU da entrambe le piattaforme.