La risorsa BatchPredictionJob consente di eseguire una richiesta di previsione asincrona. Richiedi previsioni in batch direttamente dalla risorsa model. Non è necessario eseguire il deployment del modello su un endpoint. Per i tipi di dati che supportano sia le previsioni in batch che quelle online, puoi utilizzare le previsioni in batch.
Questa opzione è utile quando non hai bisogno di una risposta immediata e vuoi elaborare i dati accumulati utilizzando una singola richiesta.
Per effettuare previsioni in batch, specifica una sorgente di ingresso e una posizione di output in cui Gemini Enterprise Agent Platform memorizzerà i risultati delle previsioni. Gli input e gli output dipendono dal tipo di model in uso. Ad esempio, le previsioni in batch per un modello di immagine AutoML richiedono un file JSON Lines di input e il nome di un bucket Cloud Storage in cui archiviare l'output.
Per saperne di più sulle previsioni in batch, consulta la sezione
Ottenere previsioni in batch.
Puoi utilizzare il ModelBatchPredictOp componente per accedere a questa risorsa tramite Vertex AI Pipelines.
Riferimento API
- Per il riferimento dei componenti, consulta il Google Cloud riferimento SDK per i componenti di previsione in batch.
- Per il riferimento API di Agent Platform, consulta la pagina della risorsa
BatchPredictionJob.
Tutorial
Cronologia delle versioni e note di rilascio
Per saperne di più sulla cronologia delle versioni e sulle modifiche apportate all' Google Cloud SDK dei componenti della pipeline, consulta le Google Cloud note di rilascio dell'SDK dei componenti della pipeline.
Contatti dell'assistenza tecnica
Per qualsiasi domanda, scrivi all'indirizzo kubeflow-pipelines-components@google.com.