Un'inferenza è l'output di un modello di machine learning addestrato. Questa pagina fornisce una panoramica del flusso di lavoro per ottenere inferenze dai modelli su Agent Platform.
Agent Platform offre due metodi per ottenere inferenze:
-
Le inferenze online sono richieste sincrone effettuate a
un modello di cui è stato eseguito il deployment in un
Endpoint. Pertanto, prima di inviare una richiesta, devi prima eseguire il deployment dellaModelrisorsa in un endpoint. In questo modo, le risorse di computing vengono associate al modello in modo che possa fornire inferenze online a bassa latenza. Utilizza le inferenze online quando effettui richieste in risposta all'input dell'applicazione o in situazioni che richiedono un'inferenza tempestiva inferenza. -
Le
inferenze batch sono richieste asincrone effettuate a un modello
di cui non è stato eseguito il deployment in un endpoint. Invia la richiesta (come
BatchPredictionJobrisorsa) direttamente alla risorsaModel. Utilizza le inferenze batch quando non hai bisogno di una risposta immediata e vuoi elaborare i dati accumulati attraverso un'unica richiesta.
Ottenere inferenze da modelli con addestramento personalizzato
Per ottenere inferenze, devi prima importare il
modello. Una volta importato, diventa una
Model risorsa visibile nel
Model Registry.
Poi, leggi la seguente documentazione per scoprire come ottenere inferenze:
Ottenere inferenze da modelli AutoML
A differenza dei modelli con addestramento personalizzato, i modelli AutoML vengono importati automaticamente nel Model Registry dopo l'addestramento.
A parte questo, il flusso di lavoro per i modelli AutoML è simile, ma varia leggermente in base al tipo di dati e all'obiettivo del modello. La documentazione per ottenere inferenze AutoML si trova insieme all'altra documentazione di AutoML. Ecco i link alla documentazione:
Immagine
Scopri come ottenere inferenze dai seguenti tipi di modelli AutoML per immagini:
Tabulare
Scopri come ottenere inferenze dai seguenti tipi di modelli AutoML tabulari:
Modelli di classificazione e regressione tabulari
Modelli di previsione tabulare (solo inferenze batch)
Ottenere inferenze da modelli BigQuery ML
Puoi ottenere inferenze dai modelli BigQuery ML in due modi:
- Richiedi inferenze batch direttamente dal modello in BigQuery ML.
- Registra i modelli direttamente nel Model Registry, senza esportarli da BigQuery ML o importarli nel Model Registry.