Google Cloud ha annunciato nuove funzionalità di IA generativa in Vertex AI Search, con lo scopo di aiutare i clienti a sviluppare applicazioni di ricerca, chat e raccomandazioni personalizzate ancora più potenti.

Le novità includono:

  • Prompt personalizzabili: I clienti possono aggiungere o rimuovere informazioni dalle query o dai prompt di ricerca e modificare lo stile o il tono delle informazioni presentate. Queste personalizzazioni possono essere effettuate nel backend in fase d’impostazione delle istanze di ricerca, in modo che vengano presentate risposte più pertinenti a uso dei singoli utenti.
  • Tuning/autotuning della ricerca: Il tuning in Vertex AI Search può fornire alle app di ricerca dati di addestramento in grado di migliorare il ranking e la qualità dei risultati di ricerca su qualsiasi app. Con l’auto-tuning, che sarà disponibile in anteprima all’interno di Vertex AI Search nel corso del mese, il machine learning può essere utilizzato per regolare automaticamente il ranking dei risultati di ricerca analizzando la qualità e la pertinenza dei contenuti rispetto alla query dell’utente e alla sua cronologia di ricerca.

vertex ai

  • Query complesse: Le query complesse, che coinvolgono più clausole, operatori e filtri, possono essere difficili da eseguire per i motori di ricerca, ma possono essere utili agli utenti. Vertex AI Search può ora utilizzare il framework Reasoning and Actions (REACT) per scomporre una query complessa in query più piccole e integrare i risultati per soddisfare le esigenze degli utenti più sofisticati fornendo informazioni in maniera più rapida e precisa.
  • Latenza personalizzabile: La latenza personalizzabile, ora disponibile in anteprima all’interno di Vertex AI Search, consente ai clienti di configurare l’ottimizzazione delle applicazioni di ricerca, compresa la scelta dei modelli di ricerca in base alle esigenze aziendali.
  • Fai-da-te con la ricerca vettoriale e gli embedding multimodali: Vector Search (precedentemente conosciuto come motore Vertex Matching) trova gli embedding più rilevanti su scala per eseguire algoritmi di ricerca in grado di gestire un elevato throughput e di fornire un elevato recall a bassa latenza. Infine, oltre a funzionalità di filtraggio e documentazione migliorate, Vector Search offre sia un’interfaccia utente aggiornata e più accessibile in modo che gli sviluppatori possano creare e implementare i loro indici senza dover ricorrere al coding, sia la riduzione dei tempi di indicizzazione da ore a minuti