Panoramica di come ottenere inferenze sulla piattaforma agentica Gemini Enterprise

Un'inferenza è l'output di un modello di machine learning addestrato. Questa pagina fornisce una panoramica del flusso di lavoro per ottenere inferenze dai modelli su Agent Platform.

Agent Platform offre due metodi per ottenere inferenze:

  • Le inferenze online sono richieste sincrone effettuate a un modello di cui è stato eseguito il deployment in un Endpoint. Pertanto, prima di inviare una richiesta, devi prima eseguire il deployment della Model risorsa in un endpoint. In questo modo, le risorse di computing vengono associate al modello in modo che possa fornire inferenze online a bassa latenza. Utilizza le inferenze online quando effettui richieste in risposta all'input dell'applicazione o in situazioni che richiedono un'inferenza tempestiva inferenza.
  • Le inferenze batch sono richieste asincrone effettuate a un modello di cui non è stato eseguito il deployment in un endpoint. Invia la richiesta (come BatchPredictionJob risorsa) direttamente alla risorsa Model. Utilizza le inferenze batch quando non hai bisogno di una risposta immediata e vuoi elaborare i dati accumulati attraverso un'unica richiesta.

Ottenere inferenze da modelli con addestramento personalizzato

Per ottenere inferenze, devi prima importare il modello. Una volta importato, diventa una Model risorsa visibile nel Model Registry.

Poi, leggi la seguente documentazione per scoprire come ottenere inferenze:

Ottenere inferenze da modelli AutoML

A differenza dei modelli con addestramento personalizzato, i modelli AutoML vengono importati automaticamente nel Model Registry dopo l'addestramento.

A parte questo, il flusso di lavoro per i modelli AutoML è simile, ma varia leggermente in base al tipo di dati e all'obiettivo del modello. La documentazione per ottenere inferenze AutoML si trova insieme all'altra documentazione di AutoML. Ecco i link alla documentazione:

Immagine

Scopri come ottenere inferenze dai seguenti tipi di modelli AutoML per immagini:

Tabulare

Scopri come ottenere inferenze dai seguenti tipi di modelli AutoML tabulari:

Ottenere inferenze da modelli BigQuery ML

Puoi ottenere inferenze dai modelli BigQuery ML in due modi:

  • Richiedi inferenze batch direttamente dal modello in BigQuery ML.
  • Registra i modelli direttamente nel Model Registry, senza esportarli da BigQuery ML o importarli nel Model Registry.