Les prédictions par lots vous permettent d'envoyer un grand nombre de requêtes multimodales dans une seule requête par lot.
Pour en savoir plus sur le workflow par lot et sur la mise en forme des données d'entrée, consultez Obtenir des prédictions par lots pour Gemini.
Modèles compatibles
- Image Gemini 2.5 Flash
- Gemini 2.5 Flash-Lite
- Gemini 2.5 Pro
- Gemini 2.5 Flash
- Gemini 2.0 Flash
- Gemini 2.0 Flash-Lite
Exemple de syntaxe
L'exemple suivant montre comment envoyer une requête API de prédiction par lots à l'aide de la commande curl
. Cet exemple est spécifique au stockage BigQuery.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ https://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/batchPredictionJobs \ -d '{ "displayName": "...", "model": "publishers/google/models/${MODEL_ID}", "inputConfig": { "instancesFormat": "bigquery", "bigquerySource": { "inputUri" : "..." } }, "outputConfig": { "predictionsFormat": "bigquery", "bigqueryDestination": { "outputUri": "..." } } }'
Paramètres
Consultez des exemples pour en savoir plus sur l'implémentation.
Corps de la requête
Paramètres | |
---|---|
|
Nom que vous choisissez pour votre job. |
|
Modèle à utiliser pour la prédiction par lots. |
|
Format des données. Pour la prédiction par lots Gemini, les sources d'entrée Cloud Storage et BigQuery sont acceptées. |
|
Configuration de sortie qui détermine l'emplacement de sortie du modèle. Les emplacements de sortie Cloud Storage et BigQuery sont acceptés. |
inputConfig
Paramètres | |
---|---|
|
Format d'entrée de la requête. Utilisez |
|
URI source d'entrée. Il s'agit d'un emplacement Cloud Storage pour le fichier JSONL au format |
|
URI source d'entrée. Il s'agit d'un URI de table BigQuery au format |
outputConfig
Paramètres | |
---|---|
|
Format de sortie de la prédiction. Utilisez |
|
Emplacement du bucket et du répertoire Cloud Storage, au format |
|
URI BigQuery de la table de sortie cible, au format |
Exemples
Demander une réponse par lot
Les requêtes par lot pour les modèles multimodaux acceptent les sources de stockage Cloud Storage et BigQuery. Pour en savoir plus, consultez la ressource suivante :
Selon le nombre d'éléments d'entrée envoyés, la tâche de génération par lot peut prendre plus ou moins de temps.
REST
Pour créer un job de prédiction par lots, utilisez la méthode projects.locations.batchPredictionJobs.create
.
Entrée Cloud Storage
Avant d'utiliser les données de requête, effectuez les remplacements suivants :
- ENDPOINT_PREFIX : région de la ressource de modèle suivie de
-
. Par exemple,us-central1-
. Si vous utilisez le point de terminaison mondial, laissez ce champ vide. Remarque : Le point de terminaison global n'est pas compatible avec l'inférence par lots à l'aide de modèles réglés. - LOCATION : région compatible avec les modèles Gemini. Si vous utilisez le point de terminaison mondial, saisissez
global
. - PROJECT_ID : ID de votre projet.
- MODEL_PATH : nom du modèle d'éditeur (par exemple,
publishers/google/models/gemini-2.5-flash
) ou nom du point de terminaison réglé (par exemple,projects/PROJECT_ID/locations/LOCATION/models/MODEL_ID
), où MODEL_ID est l'ID du modèle réglé. - INPUT_URI : emplacement Cloud Storage de votre entrée de prédiction par lots JSONL, par exemple
gs://bucketname/path/to/file.jsonl
. - OUTPUT_FORMAT : pour générer un résultat dans un bucket Cloud Storage, spécifiez
jsonl
. - DESTINATION : pour BigQuery, spécifiez
bigqueryDestination
. Pour Cloud Storage, spécifiezgcsDestination
. - OUTPUT_URI_FIELD_NAME : pour BigQuery, spécifiez
outputUri
. Pour Cloud Storage, spécifiezoutputUriPrefix
. - OUTPUT_URI : pour BigQuery, spécifiez l'emplacement de la table, par exemple
bq://myproject.mydataset.output_result
. La région de l'ensemble de données BigQuery de sortie doit être identique à celle du job de prédiction par lots Vertex AI. Pour Cloud Storage, spécifiez le bucket et l'emplacement du répertoire, par exemplegs://mybucket/path/to/output
.
Corps JSON de la requête :
{ "displayName": "my-cloud-storage-batch-prediction-job", "model": "MODEL_PATH", "inputConfig": { "instancesFormat": "jsonl", "gcsSource": { "uris" : "INPUT_URI" } }, "outputConfig": { "predictionsFormat": "OUTPUT_FORMAT", "DESTINATION": { "OUTPUT_URI_FIELD_NAME": "OUTPUT_URI" } } }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://ENDPOINT_PREFIXaiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://ENDPOINT_PREFIXaiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Vous devriez recevoir une réponse JSON semblable à la suivante.
Entrée BigQuery
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : région compatible avec les modèles Gemini.
- PROJECT_ID : ID de votre projet
- MODEL_PATH : nom du modèle d'éditeur (par exemple,
publishers/google/models/gemini-2.0-flash-001
) ou nom du point de terminaison réglé (par exemple,projects/PROJECT_ID/locations/LOCATION/models/MODEL_ID
), où MODEL_ID est l'ID du modèle réglé. - INPUT_URI : table BigQuery où se trouve votre entrée de prédiction par lots, par exemple
bq://myproject.mydataset.input_table
. L'ensemble de données doit se trouver dans la même région que le job de prédiction par lots. Les ensembles de données multirégionaux ne sont pas acceptés. - OUTPUT_FORMAT : pour générer une sortie dans une table BigQuery, spécifiez
bigquery
. Pour générer la sortie dans un bucket Cloud Storage, spécifiezjsonl
. - DESTINATION : pour BigQuery, spécifiez
bigqueryDestination
. Pour Cloud Storage, spécifiezgcsDestination
. - OUTPUT_URI_FIELD_NAME : pour BigQuery, spécifiez
outputUri
. Pour Cloud Storage, spécifiezoutputUriPrefix
. - OUTPUT_URI : pour BigQuery, spécifiez l'emplacement de la table, par exemple
bq://myproject.mydataset.output_result
. La région de l'ensemble de données BigQuery de sortie doit être identique à celle du job de prédiction par lots Vertex AI. Pour Cloud Storage, spécifiez le bucket et l'emplacement du répertoire, par exemplegs://mybucket/path/to/output
.
Corps JSON de la requête :
{ "displayName": "my-bigquery-batch-prediction-job", "model": "MODEL_PATH", "inputConfig": { "instancesFormat": "bigquery", "bigquerySource":{ "inputUri" : "INPUT_URI" } }, "outputConfig": { "predictionsFormat": "OUTPUT_FORMAT", "DESTINATION": { "OUTPUT_URI_FIELD_NAME": "OUTPUT_URI" } } }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Vous devriez recevoir une réponse JSON semblable à la suivante.
Python
Installer
pip install --upgrade google-genai
Pour en savoir plus, consultez la documentation de référence du SDK.
Définissez des variables d'environnement pour utiliser le SDK Gen AI avec Vertex AI :
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Entrée Cloud Storage
Entrée BigQuery
Node.js
Avant d'essayer cet exemple, suivez les instructions de configuration pour Node.js décrites dans le guide de démarrage rapide de Vertex AI sur l'utilisation des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI pour Node.js.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Entrée Cloud Storage
Entrée BigQuery
Java
Avant d'essayer cet exemple, suivez les instructions de configuration pour Java décrites dans le guide de démarrage rapide de Vertex AI sur l'utilisation des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI pour Java.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Entrée Cloud Storage
Entrée BigQuery
Go
Avant d'essayer cet exemple, suivez les instructions de configuration pour Go décrites dans le guide de démarrage rapide de Vertex AI sur l'utilisation des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI pour Go.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Entrée Cloud Storage
Entrée BigQuery
Récupérer une sortie par lot
Lorsqu'une tâche de prédiction par lots est terminée, le résultat est stocké dans l'emplacement (bucket Cloud Storage ou table BigQuery) que vous avez spécifié dans votre requête.
Étapes suivantes
- Découvrez comment régler un modèle Gemini dans Présentation du réglage de modèle pour Gemini.
- Découvrez comment obtenir des prédictions par lots pour Gemini.