Mit der BatchPredictionJob-Ressource können Sie eine asynchrone Vorhersageanfrage ausführen. Fordern Sie Batchvorhersagen direkt von der model-Ressource an. Sie müssen das Modell nicht auf einem endpoint bereitstellen. Für Datentypen, die sowohl Batch- als auch Onlinevorhersagen unterstützen, können Sie Batchvorhersagen verwenden.
Dies ist hilfreich, wenn Sie keine sofortige Antwort benötigen und kumulierte Daten in einer einzigen Anfrage verarbeiten möchten.
Für eine Batch-Vorhersage geben Sie eine Eingabequelle sowie einen Ausgabespeicherort für die Gemini Enterprise Agent Platform an, an dem die Vorhersageergebnisse gespeichert werden sollen. Die Ein- und Ausgaben hängen vom model-Typ ab, mit dem Sie arbeiten. Batchvorhersagen für den AutoML-Bildmodelltyp erfordern beispielsweise eine JSON Lines-Eingabedatei und den Namen eines Cloud Storage-Buckets, um die Ausgabe zu speichern.
Weitere Informationen zur Batchvorhersage finden Sie unter Batchvorhersagen abrufen.
Mit der Komponente ModelBatchPredictOp können Sie über Vertex AI Pipelines auf diese Ressource zugreifen.
API-Referenz
- Weitere Informationen zur Komponentenreferenz finden Sie in der Google Cloud SDK-Referenz für Batch-Vorhersagekomponenten.
- Die API-Referenz zur Agent Platform finden Sie auf der Seite
BatchPredictionJob-Ressource.
Tutorials
Versionsverlauf und Versionshinweise
Weitere Informationen zum Versionsverlauf und zu Änderungen am Google Cloud Pipeline Components SDK finden Sie in den Versionshinweisen zumGoogle Cloud Pipeline Components SDK.
Technische Supportkontakte
Bei Fragen senden Sie eine E-Mail an kubeflow-pipelines-components@google.com.