As previsões em lote permitem-lhe enviar um grande número de comandos multimodais num único pedido em lote.
Para mais informações sobre o fluxo de trabalho em lote e como formatar os dados de entrada, consulte o artigo Obtenha previsões em lote para o Gemini.
Modelos suportados
- Gemini 2.5 Flash Image
- Gemini 2.5 Flash-Lite
- Gemini 2.5 Pro
- Gemini 2.5 Flash
- Gemini 2.0 Flash
- Gemini 2.0 Flash-Lite
Sintaxe de exemplo
O exemplo seguinte mostra como enviar um pedido da API de previsão em lote através do comando curl
. Este exemplo é específico do armazenamento do BigQuery.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ https://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/batchPredictionJobs \ -d '{ "displayName": "...", "model": "publishers/google/models/${MODEL_ID}", "inputConfig": { "instancesFormat": "bigquery", "bigquerySource": { "inputUri" : "..." } }, "outputConfig": { "predictionsFormat": "bigquery", "bigqueryDestination": { "outputUri": "..." } } }'
Parâmetros
Consulte exemplos para ver detalhes de implementação.
Pedido de corpo
Parâmetros | |
---|---|
|
Um nome que escolhe para a tarefa. |
|
O modelo a usar para a previsão em lote. |
|
O formato de dados. Para a previsão em lote do Gemini, são suportadas origens de entrada do Cloud Storage e do BigQuery. |
|
A configuração de saída que determina a localização da saída do modelo. São suportadas localizações de saída do Cloud Storage e do BigQuery. |
inputConfig
Parâmetros | |
---|---|
|
O formato de entrada de comandos. Use |
|
O URI da origem de entrada. Esta é uma localização do Google Cloud Storage do ficheiro JSONL no formato |
|
O URI da origem de entrada. Este é um URI de tabela do BigQuery no formato |
outputConfig
Parâmetros | |
---|---|
|
O formato de saída da previsão. Use |
|
A localização do diretório e do contentor do Cloud Storage, no formato
|
|
O URI do BigQuery da tabela de resultados de destino, no formato |
Exemplos
Peça uma resposta em lote
Os pedidos em lote para modelos multimodais aceitam origens de armazenamento do Cloud Storage e do BigQuery. Para saber mais, consulte o seguinte:
Consoante o número de itens de entrada que enviou, uma tarefa de geração em lote pode demorar algum tempo a ser concluída.
REST
Para criar uma tarefa de previsão em lote, use o método
projects.locations.batchPredictionJobs.create
.
Entrada do Cloud Storage
Antes de usar qualquer um dos dados do pedido, faça as seguintes substituições:
- ENDPOINT_PREFIX: a região do recurso do modelo seguida de
-
. Por exemplo,us-central1-
. Se usar o ponto final global, deixe em branco. Nota: o ponto final global não é suportado para a inferência em lote com modelos otimizados. - LOCATION: Uma região que suporta
modelos Gemini. Se usar o ponto final global, introduza
global
. - PROJECT_ID: o ID do projeto.
- MODEL_PATH: o nome do modelo do publicador, por exemplo,
publishers/google/models/gemini-2.5-flash
; ou o nome do ponto final otimizado, por exemplo,projects/PROJECT_ID/locations/LOCATION/models/MODEL_ID
, em que MODEL_ID é o ID do modelo otimizado. - INPUT_URI: a localização do Cloud Storage da entrada de previsão em lote JSONL, como
gs://bucketname/path/to/file.jsonl
. - OUTPUT_FORMAT: Para enviar o resultado para um contentor do Cloud Storage, especifique
jsonl
. - DESTINATION: para o BigQuery, especifique
bigqueryDestination
. Para o Cloud Storage, especifiquegcsDestination
. - OUTPUT_URI_FIELD_NAME:
Para o BigQuery, especifique
outputUri
. Para o Cloud Storage, especifiqueoutputUriPrefix
. - OUTPUT_URI: para o BigQuery, especifique a localização da tabela, como
bq://myproject.mydataset.output_result
. A região do conjunto de dados do BigQuery de saída tem de ser igual à tarefa de previsão em lote do Vertex AI. Para o Cloud Storage, especifique o contentor e a localização do diretório, comogs://mybucket/path/to/output
.
Corpo JSON do pedido:
{ "displayName": "my-cloud-storage-batch-prediction-job", "model": "MODEL_PATH", "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris" : "INPUT_URI" } }, "outputConfig": { "predictionsFormat": "OUTPUT_FORMAT", "DESTINATION": { "OUTPUT_URI_FIELD_NAME": "OUTPUT_URI" } } }
Para enviar o seu pedido, escolha uma destas opções:
curl
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://ENDPOINT_PREFIXaiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs"
PowerShell
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://ENDPOINT_PREFIXaiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Deve receber uma resposta JSON semelhante à seguinte.
Entrada do BigQuery
Antes de usar qualquer um dos dados do pedido, faça as seguintes substituições:
- LOCATION: Uma região que suporta modelos Gemini.
- PROJECT_ID: o seu ID do projeto.
- MODEL_PATH: o nome do modelo do publicador, por exemplo,
publishers/google/models/gemini-2.0-flash-001
; ou o nome do ponto final otimizado, por exemplo,projects/PROJECT_ID/locations/LOCATION/models/MODEL_ID
, em que MODEL_ID é o ID do modelo otimizado. - INPUT_URI: a tabela do BigQuery onde se encontra a entrada de previsão em lote, como
bq://myproject.mydataset.input_table
. O conjunto de dados tem de estar localizado na mesma região que a tarefa de previsão em lote. Os conjuntos de dados de várias regiões não são suportados. - OUTPUT_FORMAT: para gerar resultados numa
tabela do BigQuery, especifique
bigquery
. Para gerar resultados num contentor do Cloud Storage, especifiquejsonl
. - DESTINATION: para o BigQuery, especifique
bigqueryDestination
. Para o Cloud Storage, especifiquegcsDestination
. - OUTPUT_URI_FIELD_NAME:
Para o BigQuery, especifique
outputUri
. Para o Cloud Storage, especifiqueoutputUriPrefix
. - OUTPUT_URI: para o BigQuery, especifique a localização da tabela, como
bq://myproject.mydataset.output_result
. A região do conjunto de dados do BigQuery de saída tem de ser igual à tarefa de previsão em lote do Vertex AI. Para o Cloud Storage, especifique o contentor e a localização do diretório, comogs://mybucket/path/to/output
.
Corpo JSON do pedido:
{ "displayName": "my-bigquery-batch-prediction-job", "model": "MODEL_PATH", "inputConfig": { "instancesFormat": "bigquery", "bigquerySource":{ "inputUri" : "INPUT_URI" } }, "outputConfig": { "predictionsFormat": "OUTPUT_FORMAT", "DESTINATION": { "OUTPUT_URI_FIELD_NAME": "OUTPUT_URI" } } }
Para enviar o seu pedido, escolha uma destas opções:
curl
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs"
PowerShell
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Deve receber uma resposta JSON semelhante à seguinte.
Python
Instalação
pip install --upgrade google-genai
Para saber mais, consulte a documentação de referência do SDK.
Defina variáveis de ambiente para usar o SDK de IA gen com o Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Entrada do Cloud Storage
Entrada do BigQuery
Node.js
Antes de experimentar este exemplo, siga as Node.jsinstruções de configuração no início rápido do Vertex AI com bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Node.js Vertex AI.
Para se autenticar no Vertex AI, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para um ambiente de desenvolvimento local.
Entrada do Cloud Storage
Entrada do BigQuery
Java
Antes de experimentar este exemplo, siga as Javainstruções de configuração no início rápido do Vertex AI com bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Java Vertex AI.
Para se autenticar no Vertex AI, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para um ambiente de desenvolvimento local.
Entrada do Cloud Storage
Entrada do BigQuery
Go
Antes de experimentar este exemplo, siga as Goinstruções de configuração no início rápido do Vertex AI com bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Go Vertex AI.
Para se autenticar no Vertex AI, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para um ambiente de desenvolvimento local.
Entrada do Cloud Storage
Entrada do BigQuery
Obtenha o resultado do lote
Quando uma tarefa de previsão em lote é concluída, o resultado é armazenado no contentor do Cloud Storage ou na tabela do BigQuery que especificou no seu pedido.
O que se segue?
- Saiba como otimizar um modelo Gemini em Vista geral da otimização de modelos para o Gemini.
- Saiba como obter previsões em lote para o Gemini.