Componenti di previsione batch

La risorsa BatchPredictionJob consente di eseguire una richiesta di previsione asincrona. Richiedi previsioni in batch direttamente dalla risorsa model. Non è necessario eseguire il deployment del modello su un endpoint. Per i tipi di dati che supportano sia le previsioni in batch che quelle online, puoi utilizzare le previsioni in batch. Questa opzione è utile quando non hai bisogno di una risposta immediata e vuoi elaborare i dati accumulati utilizzando una singola richiesta.

Per effettuare previsioni in batch, specifica una sorgente di ingresso e una posizione di output in cui Gemini Enterprise Agent Platform memorizzerà i risultati delle previsioni. Gli input e gli output dipendono dal tipo di model in uso. Ad esempio, le previsioni in batch per un modello di immagine AutoML richiedono un file JSON Lines di input e il nome di un bucket Cloud Storage in cui archiviare l'output. Per saperne di più sulle previsioni in batch, consulta la sezione Ottenere previsioni in batch.

Puoi utilizzare il ModelBatchPredictOp componente per accedere a questa risorsa tramite Vertex AI Pipelines.

Riferimento API

Tutorial

Cronologia delle versioni e note di rilascio

Per saperne di più sulla cronologia delle versioni e sulle modifiche apportate all' Google Cloud SDK dei componenti della pipeline, consulta le Google Cloud note di rilascio dell'SDK dei componenti della pipeline.

Contatti dell'assistenza tecnica

Per qualsiasi domanda, scrivi all'indirizzo kubeflow-pipelines-components@google.com.