Le previsioni in batch ti consentono di inviare più prompt che non sono sensibili alla latenza a un modello Anthropic Claude. Rispetto alle previsioni online, in cui invii un prompt di input per ogni richiesta, puoi raggruppare un numero elevato di prompt di input in un'unica richiesta.
Modelli Anthropic Claude supportati
Gemini Enterprise Agent Platform supporta le previsioni in batch per i seguenti modelli Anthropic Claude:
- Claude Opus 4.6
- Claude Sonnet 4.6
- Claude Opus 4.5
- Claude Opus 4.1
- Claude Opus 4
- Claude Sonnet 4.5
- Claude Sonnet 4
- Claude Haiku 4.5
- Claude 3.5 Haiku
Quote
Per impostazione predefinita, il numero di richieste in batch simultanee che puoi effettuare in un singolo progetto è 4.
Preparare l'input
Prima di iniziare, prepara il set di dati di input in una tabella BigQuery o come file JSONL in Cloud Storage. L'input per entrambe le origini deve seguire il formato JSON dello schema dell'API Anthropic Claude, come mostrato nell'esempio seguente:
{
"custom_id": "request-1",
"request": {
"messages": [{"role": "user", "content": "Hello!"}],
"anthropic_version": "vertex-2023-10-16",
"max_tokens": 50
}
}
BigQuery
La tabella di input BigQuery deve rispettare il seguente schema:
| Nome colonna | Descrizione |
|---|---|
| custom_id | Un ID per ogni richiesta per abbinare l'input all'output. |
| request | Il corpo della richiesta, ovvero il prompt di input, che deve seguire lo schema dell'API Anthropic Claude |
- La tabella di input può avere altre colonne, che vengono ignorate dal job batch.
- I job di previsione in batch riservano due nomi di colonna per l'output di previsione in batch:
response(JSON)estatus. Non utilizzare queste colonne nella tabella di input.
Cloud Storage
Per Cloud Storage, il file di input deve essere un file JSONL che si trova in un bucket Cloud Storage.
Richiedere una previsione in batch
Esegui una previsione in batch su un modello Claude utilizzando l'input di BigQuery o Cloud Storage. Puoi scegliere in modo indipendente di generare l'output delle previsioni in una tabella BigQuery o in un file JSONL in un bucket Cloud Storage.
BigQuery
Specifica la tabella di input BigQuery, il modello e la località di output. Il job di previsione in batch e la tabella devono trovarsi nella stessa regione.
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI Python, consulta Installare l'SDK Vertex AI Python. Per ulteriori informazioni, consulta la Python documentazione di riferimento dell'API.
REST
Prima di utilizzare i dati della richiesta, apporta le sostituzioni seguenti:
- LOCATION: una regione che supporta il modello Anthropic Claude selezionato (vedi Regioni di Claude).
- PROJECT_ID: il tuo [ID progetto](/resource-manager/docs/creating-managing-projects#identifiers). .
- MODEL: il nome del modello.
- INPUT_URI: la tabella BigQuery in cui si trova l'input di previsione in batch, ad esempio
bq://myproject.mydataset.input_table. - OUTPUT_FORMAT: per generare l'output in una tabella BigQuery, specifica
bigquery. Per generare l'output in un bucket Cloud Storage, specificajsonl. - DESTINATION: per
BigQuery, specifica
bigqueryDestination. Per Cloud Storage, specificagcsDestination. - OUTPUT_URI_FIELD_NAME:
per BigQuery, specifica
outputUri. Per Cloud Storage, specificaoutputUriPrefix. - OUTPUT_URI: per
BigQuery, specifica la località della tabella, ad esempio
bq://myproject.mydataset.output_result. Per Cloud Storage, specifica la località del bucket e della cartella, ad esempiogs://mybucket/path/to/outputfile.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs
Corpo JSON della richiesta:
'{
"displayName": "JOB_NAME",
"model": "publishers/anthropic/models/MODEL",
"inputConfig": {
"instancesFormat":"bigquery",
"bigquerySource":{
"inputUri" : "INPUT_URI"
}
},
"outputConfig": {
"predictionsFormat":"OUTPUT_FORMAT",
"DESTINATION":{
"OUTPUT_URI_FIELD_NAME": "OUTPUT_URI"
}
}
}'
Per inviare la richiesta, scegli una di queste opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json,
quindi esegui il comando seguente:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs"
PowerShell
Salva il corpo della richiesta in un file denominato request.json,
e quindi esegui il comando seguente:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Dovresti ricevere una risposta JSON simile alla seguente.
Cloud Storage
Specifica la località di Cloud Storage del file JSONL, il modello e la località di output.
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI Python, consulta Installare l'SDK Vertex AI Python. Per ulteriori informazioni, consulta la Python documentazione di riferimento dell'API.
REST
Prima di utilizzare i dati della richiesta, apporta le sostituzioni seguenti:
- LOCATION: una regione che supporta il modello Anthropic Claude selezionato (vedi Regioni di Claude).
- PROJECT_ID: .
- MODEL: il nome del modello.
- INPUT_URIS: un elenco separato da virgole delle località di Cloud Storage dell'input di previsione in batch JSONL, ad esempio
gs://bucketname/path/to/jsonl. - OUTPUT_FORMAT: per generare l'output in una tabella BigQuery, specifica
bigquery. Per generare l'output in un bucket Cloud Storage, specificajsonl. - DESTINATION: per
BigQuery, specifica
bigqueryDestination. Per Cloud Storage, specificagcsDestination. - OUTPUT_URI_FIELD_NAME:
per BigQuery, specifica
outputUri. Per Cloud Storage, specificaoutputUriPrefix. - OUTPUT_URI: per
BigQuery, specifica la località della tabella, ad esempio
bq://myproject.mydataset.output_result. Per Cloud Storage, specifica la località del bucket e della cartella, ad esempiogs://mybucket/path/to/outputfile.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs
Corpo JSON della richiesta:
'{
"displayName": "JOB_NAME",
"model": "publishers/anthropic/models/MODEL",
"inputConfig": {
"instancesFormat":"jsonl",
"gcsSource":{
"uris" : "INPUT_URIS"
}
},
"outputConfig": {
"predictionsFormat":"OUTPUT_FORMAT",
"DESTINATION":{
"OUTPUT_URI_FIELD_NAME": "OUTPUT_URI"
}
}
}'
Per inviare la richiesta, scegli una di queste opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json,
quindi esegui il comando seguente:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs"
PowerShell
Salva il corpo della richiesta in un file denominato request.json,
e quindi esegui il comando seguente:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
Dovresti ricevere una risposta JSON simile alla seguente.
Ottenere lo stato di un job di previsione in batch
Ottieni lo stato del job di previsione in batch per verificare se è stato completato correttamente.
REST
Prima di utilizzare i dati della richiesta, apporta le sostituzioni seguenti:
- PROJECT_ID: .
- LOCATION: la regione in cui si trova il job batch.
- JOB_ID: l'ID del job batch restituito quando hai creato il job.
Metodo HTTP e URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs/JOB_ID
Per inviare la richiesta, scegli una di queste opzioni:
curl
Esegui questo comando:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs/JOB_ID"
PowerShell
Esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs/JOB_ID" | Select-Object -Expand Content
Dovresti ricevere una risposta JSON simile alla seguente.
Recuperare l'output di previsione in batch
Al termine di un job di previsione in batch, recupera l'output dalla località specificata. Per BigQuery, l'output si trova nella colonna response(JSON) della tabella BigQuery di destinazione. Per Cloud Storage, l'output viene salvato come file JSONL nella località di output di Cloud Storage.
Puoi accedere ai risultati completi della previsione in batch dopo che tutte le righe sono state completate o dopo 24 ore, a seconda di quale condizione si verifichi per prima.