Vertex AI Model Optimizer

O Vertex AI Model Optimizer é um ponto final dinâmico concebido para simplificar a seleção de modelos aplicando automaticamente o modelo Gemini que melhor satisfaz as suas necessidades. Isto permite-lhe direcionar os seus comandos para um único metaponto final, e o serviço seleciona de forma inteligente o modelo Gemini mais adequado para a sua consulta (Pro, Flash, etc.) com base nas suas preferências de custo e qualidade.

Para mais informações sobre os preços do otimizador de modelos, consulte a secção Preços.

Vantagens

O Otimizador de modelos permite-lhe:

  • Simplifique a seleção de modelos em vez de escolher um modelo para cada aplicação
  • Otimize em função do custo, da qualidade ou de ambos, o que lhe permite equilibrar o desempenho e o orçamento
  • Integração perfeita com as APIs e os SDKs Gemini existentes
  • Monitorize a utilização e identifique o potencial de poupança de custos
  • Processar tarefas baseadas em texto de forma eficiente sem necessidade de seleção manual de pontos finais

Modelos suportados

Suporte de idiomas

O Model Optimizer suporta todos os idiomas que também são suportados pelos modelos Gemini. (Consulte o suporte de idiomas do Gemini)

Modalidade

O otimizador de modelos suporta exemplos de utilização de texto, incluindo:

  • Programação, incluindo chamadas de funções e execução de código
  • Resumo
  • Chat de interação única e múltipla
  • Perguntas e respostas

Para ver as limitações e como as resolver, consulte o artigo Como lidar com funcionalidades não suportadas.

Começar

Para começar a usar o Model Optimizer, consulte o nosso notebook do Colab de início rápido.

Usar o Vertex AI Model Optimizer

Python

Instalação

pip install --upgrade google-genai

Para saber mais, consulte a documentação de referência do SDK.

Defina variáveis de ambiente para usar o SDK de IA generativa com o Vertex AI:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=global
export GOOGLE_GENAI_USE_VERTEXAI=True

#     from google import genai
#     from google.genai.types import (
#         FeatureSelectionPreference,
#         GenerateContentConfig,
#         HttpOptions,
#         ModelSelectionConfig
#     )
#
#     client = genai.Client(http_options=HttpOptions(api_version="v1beta1"))
#     response = client.models.generate_content(
#         model="model-optimizer-exp-04-09",
#         contents="How does AI work?",
#         config=GenerateContentConfig(
#             model_selection_config=ModelSelectionConfig(
#                 feature_selection_preference=FeatureSelectionPreference.BALANCED  # Options: PRIORITIZE_QUALITY, BALANCED, PRIORITIZE_COST
#             ),
#         ),
#     )
#     print(response.text)
#     # Example response:
#     # Okay, let's break down how AI works. It's a broad field, so I'll focus on the ...
#     #
#     # Here's a simplified overview:
#     # ...

Go

Saiba como instalar ou atualizar o Go.

Para saber mais, consulte a documentação de referência do SDK.

Defina variáveis de ambiente para usar o SDK de IA generativa com o Vertex AI:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=global
export GOOGLE_GENAI_USE_VERTEXAI=True

import (
	"context"
	"fmt"
	"io"

	"google.golang.org/genai"
)

// generateModelOptimizerWithTxt shows how to generate text using a text prompt and model optimizer.
func generateModelOptimizerWithTxt(w io.Writer) error {
	ctx := context.Background()

	clientConfig := &genai.ClientConfig{
		HTTPOptions: genai.HTTPOptions{APIVersion: "v1beta1"},
	}

	client, err := genai.NewClient(ctx, clientConfig)

	if err != nil {
		return fmt.Errorf("failed to create genai client: %w", err)
	}

	modelSelectionConfig := &genai.ModelSelectionConfig{
		FeatureSelectionPreference: genai.FeatureSelectionPreferenceBalanced,
	}

	generateContentConfig := &genai.GenerateContentConfig{
		ModelSelectionConfig: modelSelectionConfig,
	}

	modelName := "gemini-2.5-flash"
	contents := genai.Text("How does AI work?")

	resp, err := client.Models.GenerateContent(ctx,
		modelName,
		contents,
		generateContentConfig,
	)
	if err != nil {
		return fmt.Errorf("failed to generate content: %w", err)
	}

	respText := resp.Text()

	fmt.Fprintln(w, respText)
	// Example response:
	// That's a great question! Understanding how AI works can feel like ...
	// ...
	// **1. The Foundation: Data and Algorithms**
	// ...

	return nil
}

Processamento de funcionalidades não suportadas

O otimizador de modelos só suporta entrada e saída de texto. No entanto, o pedido pode incluir diferentes modalidades ou ferramentas que não são suportadas. As secções seguintes abordam a forma como o otimizador de modelos processa estas funcionalidades não suportadas.

Pedidos multimodais

Os pedidos que incluem comandos com dados multimodais, como vídeo, imagens ou áudio, vão gerar um erro INVALID_ARGUMENT.

Ferramentas não suportadas

O otimizador de modelos só suporta a declaração de funções para pedidos. Se um pedido contiver outros tipos de ferramentas, incluindo google_maps, google_search, enterprise_web_search, retrieval ou browse, é gerado um erro INVALID_ARGUMENT.

Enviar feedback

Para enviar feedback sobre a sua experiência com o Model Optimizer, preencha o nosso inquérito de feedback.

Se tiver dúvidas, problemas técnicos ou feedback sobre o Model Optimizer, contacte model-optimizer-support@google.com.

Grupo de debate de clientes

Para interagir diretamente com a equipa de desenvolvimento, pode juntar-se ao grupo de escuta do Vertex AI Model Optimizer, onde pode saber mais sobre o produto e ajudar-nos a compreender como fazer com que as funcionalidades funcionem melhor para si. As atividades do grupo incluem:

  • Workshops virtuais para saber mais sobre as funcionalidades
  • Inquéritos de feedback para partilhar as suas necessidades e prioridades
  • Sessões individuais com Google Cloud funcionários enquanto exploramos novas funcionalidades

As atividades são oferecidas cerca de uma vez a cada 6 a 8 semanas. Pode participar em quantas quiser ou optar por não participar em nenhuma em qualquer altura. Para aderir ao grupo, preencha o formulário de inscrição no grupo de discussão do Vertex AI Model Optimizer.