Panoramica di come ottenere inferenze su Agent Platform

Un'inferenza è l'output di un modello di machine learning addestrato. Questa pagina fornisce una panoramica del flusso di lavoro per ottenere inferenze dai tuoi modelli su Agent Platform.

Agent Platform offre due metodi per ottenere inferenze:

  • Le inferenze online sono richieste sincrone effettuate a un modello di cui è stato eseguito il deployment in un Endpoint. Pertanto, prima di inviare una richiesta, devi prima eseguire il deployment della risorsa Model in un endpoint. In questo modo, le risorse di computing vengono associate al modello, in modo che possa fornire inferenze online con bassa latenza. Utilizza le inferenze online quando effettui richieste in risposta all'input dell'applicazione o in situazioni che richiedono un'inferenza tempestiva.
  • Le inferenze batch sono richieste asincrone effettuate a un modello che non è stato sottoposto a deployment in un endpoint. Invia la richiesta (come risorsa BatchPredictionJob) direttamente alla risorsa Model. Utilizza le inferenze batch quando non hai bisogno di una risposta immediata e vuoi elaborare i dati accumulati attraverso un'unica richiesta.

Ottenere inferenze da modelli addestrati personalizzati

Per ottenere inferenze, devi prima importare il modello. Una volta importato, diventa una risorsa Model visibile nel Model Registry di Agent Platform.

Poi, leggi la seguente documentazione per scoprire come ottenere inferenze:

Ottenere inferenze dai modelli AutoML

A differenza dei modelli addestrati personalizzati, i modelli AutoML vengono importati automaticamente nel Model Registry della piattaforma dell'agente dopo l'addestramento.

A parte questo, il flusso di lavoro per i modelli AutoML è simile, ma varia leggermente in base al tipo di dati e all'obiettivo del modello. La documentazione per ottenere le inferenze AutoML si trova insieme all'altra documentazione di AutoML. Ecco i link alla documentazione:

Immagine

Scopri come ottenere inferenze dai seguenti tipi di modelli AutoML per immagini:

Tabulare

Scopri come ottenere inferenze dai seguenti tipi di modelli AutoML tabulari:

Ottenere inferenze dai modelli BigQuery ML

Puoi ottenere inferenze dai modelli BigQuery ML in due modi:

  • Richiedi inferenze batch direttamente dal modello in BigQuery ML.
  • Registra i modelli direttamente in Model Registry, senza esportarli da BigQuery ML o importarli in Model Registry.