תחזיות באצווה מאפשרות לשלוח מספר רב של הנחיות מולטימודאליות בבקשת Batch אחת.
מידע נוסף על תהליך העבודה של עיבוד באצווה ועל הפורמט של נתוני הקלט זמין במאמר קבלת תחזיות באצווה עבור Gemini.
מודלים נתמכים
- Gemini 3.1 Flash-Lite
- Gemini 3.1 Flash Image
- Gemini 3.1 Pro
- Gemini 3 Flash
- Gemini 3 Pro
- Gemini 3 Pro Image
- Gemini 2.5 Pro
- Gemini 2.5 Flash Image
- Gemini 2.5 Flash
- Gemini 2.5 Flash-Lite
- Gemini 2.0 Flash
- Gemini 2.0 Flash-Lite
תחביר לדוגמה
בדוגמה הבאה מוצג איך לשלוח בקשת API ל-Batch Prediction באמצעות הפקודה curl. הדוגמה הזו ספציפית לאחסון ב-BigQuery.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ https://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/batchPredictionJobs \ -d '{ "displayName": "...", "model": "publishers/google/models/${MODEL_ID}", "inputConfig": { "instancesFormat": "bigquery", "bigquerySource": { "inputUri" : "..." } }, "outputConfig": { "predictionsFormat": "bigquery", "bigqueryDestination": { "outputUri": "..." } } }'
פרמטרים
פרטים על ההטמעה מופיעים בדוגמאות.
גוף הבקשה
| פרמטרים | |
|---|---|
|
השם שבחרתם למשרה. |
|
המודל שבו צריך להשתמש כדי ליצור תחזיות באצווה. |
|
פורמט הנתונים. לחיזוי באצווה ב-Gemini, מקורות קלט של Cloud Storage ו-BigQuery נתמכים. |
|
הגדרת הפלט שקובעת את מיקום הפלט של המודל. יש תמיכה במיקומי פלט ב-Cloud Storage וב-BigQuery. |
inputConfig
| פרמטרים | |
|---|---|
|
פורמט הקלט של ההנחיה. משתמשים ב- |
|
ה-URI של מקור הקלט. זהו מיקום ב-Cloud Storage של קובץ JSONL
בפורמט |
|
ה-URI של מקור הקלט. זהו URI של טבלה ב-BigQuery בתבנית |
outputConfig
| פרמטרים | |
|---|---|
|
פורמט הפלט של החיזוי. שימוש ב- |
|
המיקום של קטגוריה של Cloud Storage והספרייה, בתבנית |
|
ה-URI של טבלת הפלט של היעד ב-BigQuery, בפורמט |
דוגמאות
בקשת תשובה באצווה
בקשות אצווה למודלים מרובי-מוֹדָל מקבלות מקורות אחסון של Cloud Storage ואחסון של BigQuery. מידע נוסף זמין במאמרים הבאים:
בהתאם למספר פריטי הקלט ששלחתם, יכול להיות שיעבור זמן עד שמשימת יצירת קובץ תשלים את הפעולה.
REST
כדי ליצור משימת הסקה באצווה, משתמשים בשיטה projects.locations.batchPredictionJobs.create.
קלט של Cloud Storage
לפני שמשתמשים בנתוני הבקשה, צריך להחליף את הנתונים הבאים:
- ENDPOINT_PREFIX: האזור של משאב המודל ואחריו
-. לדוגמה,us-central1-. אם משתמשים בנקודת הקצה הגלובלית, משאירים את השדה ריק. הערה: אין תמיכה בנקודת הקצה הגלובלית להסקת מסקנות באצווה באמצעות מודלים שעברו התאמה. - LOCATION: אזור שתומך במודלים של Gemini. אם משתמשים בנקודת הקצה הגלובלית, מזינים
global. - PROJECT_ID: מזהה הפרויקט.
- MODEL_PATH: שם המודל של בעל התוכן הדיגיטלי, לדוגמה,
publishers/google/models/gemini-2.5-flash, או שם נקודת הקצה של המודל שעבר התאמה, לדוגמה,projects/PROJECT_ID/locations/LOCATION/models/MODEL_ID, כאשר MODEL_ID הוא מזהה המודל של המודל שעבר התאמה. - INPUT_URI: המיקום ב-Cloud Storage של קובץ הקלט של מסקנות באצווה בפורמט JSONL, כמו
gs://bucketname/path/to/file.jsonl. - OUTPUT_FORMAT: כדי להגדיר פלט לקטגוריה של Cloud Storage, מציינים
jsonl. - DESTINATION: ב-BigQuery, מציינים
bigqueryDestination. ב-Cloud Storage, מצייניםgcsDestination. - OUTPUT_URI_FIELD_NAME:
ב-BigQuery, מציינים
outputUri. ב-Cloud Storage, מצייניםoutputUriPrefix. - OUTPUT_URI: ב-BigQuery, מציינים את מיקום הטבלה, למשל
bq://myproject.mydataset.output_result. האזור של מערך הנתונים של הפלט ב-BigQuery צריך להיות זהה לאזור של משימת ההסקת מסקנות באצווה ב-Vertex AI. ב-Cloud Storage, מציינים את הקטגוריה ואת מיקום הספרייה, למשלgs://mybucket/path/to/output.
תוכן בקשת JSON:
{
"displayName": "my-cloud-storage-batch-inference-job",
"model": "MODEL_PATH",
"inputConfig": {
"instancesFormat": "jsonl",
"gcsSource": {
"uris" : "INPUT_URI"
}
},
"outputConfig": {
"predictionsFormat": "OUTPUT_FORMAT",
"DESTINATION": {
"OUTPUT_URI_FIELD_NAME": "OUTPUT_URI"
}
}
}
כדי לשלוח את הבקשה עליכם לבחור אחת מהאפשרויות הבאות:
curl
שומרים את גוף הבקשה בקובץ בשם request.json ומריצים את הפקודה הבאה:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://ENDPOINT_PREFIXaiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs"
PowerShell
שומרים את גוף הבקשה בקובץ בשם request.json ומריצים את הפקודה הבאה:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://ENDPOINT_PREFIXaiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
אתם אמורים לקבל תגובת JSON שדומה לזו:
קלט של BigQuery
לפני שמשתמשים בנתוני הבקשה, צריך להחליף את הנתונים הבאים:
- ENDPOINT_PREFIX: האזור של משאב המודל ואחריו
-. לדוגמה,us-central1-. אם משתמשים בנקודת הקצה הגלובלית, משאירים את השדה ריק. הערה: אין תמיכה בנקודת הקצה הגלובלית להסקת מסקנות באצווה באמצעות מודלים שעברו התאמה. - LOCATION: אזור שתומך במודלים של Gemini. אם משתמשים בנקודת הקצה הגלובלית, מזינים
global. - PROJECT_ID: מזהה הפרויקט.
- MODEL_PATH: שם המודל של בעל התוכן הדיגיטלי, לדוגמה,
publishers/google/models/gemini-2.0-flash-001, או שם נקודת הקצה של המודל שעבר התאמה, לדוגמה,projects/PROJECT_ID/locations/LOCATION/models/MODEL_ID, כאשר MODEL_ID הוא מזהה המודל של המודל שעבר התאמה. - INPUT_URI: הטבלה ב-BigQuery שבה נמצא קובץ הקלט של ההסקה באצווה, למשל
bq://myproject.mydataset.input_table. מערך הנתונים צריך להיות באותו אזור שבו נמצאת משימת ההיסק של אצווה. אין תמיכה במערכי נתונים מרובי אזורים. - OUTPUT_FORMAT: כדי להגדיר פלט לטבלה ב-BigQuery, מציינים
bigquery. כדי להגדיר פלט לקטגוריה של Cloud Storage, מצייניםjsonl. - DESTINATION: ב-BigQuery, מציינים
bigqueryDestination. ב-Cloud Storage, מצייניםgcsDestination. - OUTPUT_URI_FIELD_NAME:
ב-BigQuery, מציינים
outputUri. ב-Cloud Storage, מצייניםoutputUriPrefix. - OUTPUT_URI: ב-BigQuery, מציינים את מיקום הטבלה, למשל
bq://myproject.mydataset.output_result. האזור של מערך הנתונים של הפלט ב-BigQuery צריך להיות זהה לאזור של משימת ההסקת מסקנות באצווה ב-Vertex AI. ב-Cloud Storage, מציינים את הקטגוריה ואת מיקום הספרייה, למשלgs://mybucket/path/to/output.
תוכן בקשת JSON:
{
"displayName": "my-bigquery-batch-inference-job",
"model": "MODEL_PATH",
"inputConfig": {
"instancesFormat": "bigquery",
"bigquerySource":{
"inputUri" : "INPUT_URI"
}
},
"outputConfig": {
"predictionsFormat": "OUTPUT_FORMAT",
"DESTINATION": {
"OUTPUT_URI_FIELD_NAME": "OUTPUT_URI"
}
}
}
כדי לשלוח את הבקשה עליכם לבחור אחת מהאפשרויות הבאות:
curl
שומרים את גוף הבקשה בקובץ בשם request.json ומריצים את הפקודה הבאה:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://ENDPOINT_PREFIXaiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs"
PowerShell
שומרים את גוף הבקשה בקובץ בשם request.json ומריצים את הפקודה הבאה:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://ENDPOINT_PREFIXaiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/batchPredictionJobs" | Select-Object -Expand Content
אתם אמורים לקבל תגובת JSON שדומה לזו:
Python
התקנה
pip install --upgrade google-genai
מידע נוסף מופיע ב מאמרי העזרה בנושא SDK.
מגדירים משתני סביבה כדי להשתמש ב-Gen AI SDK עם Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
קלט של Cloud Storage
קלט של BigQuery
Node.js
לפני שמנסים את הדוגמה הזו, צריך לפעול לפי Node.jsהוראות ההגדרה במאמר Vertex AI quickstart using client libraries. מידע נוסף מופיע במאמרי העזרה של Vertex AI Node.js API.
כדי לבצע אימות ב-Vertex AI, צריך להגדיר את Application Default Credentials. מידע נוסף זמין במאמר הגדרת אימות לסביבת פיתוח מקומית.
קלט של Cloud Storage
קלט של BigQuery
Java
לפני שמנסים את הדוגמה הזו, צריך לפעול לפי Javaהוראות ההגדרה במאמר Vertex AI quickstart using client libraries. מידע נוסף מופיע במאמרי העזרה של Vertex AI Java API.
כדי לבצע אימות ב-Vertex AI, צריך להגדיר את Application Default Credentials. מידע נוסף זמין במאמר הגדרת אימות לסביבת פיתוח מקומית.
קלט של Cloud Storage
קלט של BigQuery
Go
לפני שמנסים את הדוגמה הזו, צריך לפעול לפי Goהוראות ההגדרה במאמר Vertex AI quickstart using client libraries. מידע נוסף מופיע במאמרי העזרה של Vertex AI Go API.
כדי לבצע אימות ב-Vertex AI, צריך להגדיר את Application Default Credentials. מידע נוסף זמין במאמר הגדרת אימות לסביבת פיתוח מקומית.
קלט של Cloud Storage
קלט של BigQuery
אחזור פלט של קבוצה
כשמשימת חיזוי באצווה מסתיימת, הפלט מאוחסן בקטגוריה של Cloud Storage או בטבלה ב-BigQuery שציינתם בבקשה.