Una inferencia es el resultado de un modelo de aprendizaje automático entrenado. En esta página, se proporciona una descripción general del flujo de trabajo para obtener inferencias de tus modelos en Vertex AI.
Vertex AI ofrece dos métodos para obtener inferencias:
-
Las inferencias en línea son solicitudes síncronas realizadas en
un modelo que se implementa en un
Endpoint
. Por lo tanto, antes de enviar una solicitud, primero debes implementar el recursoModel
en un extremo. Esto asocia recursos de procesamiento con el modelo para que pueda entregar inferencias en línea con baja latencia. Usa inferencias en línea cuando realices solicitudes en respuesta a la entrada de la aplicación o en situaciones en las que se necesite una inferencia oportuna. -
Las inferencias
por lotes son solicitudes asíncronas realizadas en un modelo
que no se implementa en un extremo. Envías la solicitud (como un recurso
BatchPredictionJob
) directamente al recursoModel
. Usa las inferencias por lotes cuando no necesites una respuesta inmediata y desees procesar datos acumulados con una sola solicitud.
Obtén inferencias a partir de modelos entrenados personalizados
Para obtener inferencias, primero debes importar tu modelo. Después de importarse, se convierte en un recurso Model
visible en Vertex AI Model Registry.
Luego, lee la siguiente documentación para aprender a obtener inferencias:
Obtén inferencias de los modelos de AutoML
A diferencia de los modelos entrenados personalizados, los modelos de AutoML se importan automáticamente a Vertex AI Model Registry después del entrenamiento.
Aparte de eso, el flujo de trabajo de los modelos de AutoML es similar, pero varía ligeramente según el tipo de datos y el objetivo del modelo. La documentación para obtener inferencias de AutoML se encuentra junto con la otra documentación de AutoML. Aquí hay vínculos a la documentación:
Imagen
Obtén información sobre cómo obtener inferencias a partir de los siguientes tipos de modelos de AutoML de imágenes:
Tabular
Obtén información sobre cómo obtener inferencias a partir de los siguientes tipos de modelos tabulares de AutoML:
Modelos de regresión y clasificación tabular
Modelos de previsión tabular (solo inferencias por lotes)
Obtén inferencias de los modelos de BigQuery ML
Puedes obtener inferencias de los modelos de BigQuery ML de dos maneras:
- Solicita inferencias por lotes directamente desde el modelo en BigQuery ML.
- Registra los modelos directamente con Model Registry, sin exportarlos desde BigQuery ML ni importarlos al registro.