Une inférence est le résultat d'un modèle de machine learning entraîné. Cette page présente le workflow permettant d'obtenir des inférences à partir de vos modèles sur Vertex AI.
Vertex AI propose deux méthodes pour obtenir des inférences :
-
Les inférences en ligne sont des requêtes synchrones adressées à un modèle déployé sur un
Endpoint
. Par conséquent, avant d'envoyer une requête, vous devez d'abord déployer la ressourceModel
sur un point de terminaison. Cette opération associe des ressources de calcul au modèle afin qu'il puisse diffuser des inférences en ligne avec une faible latence. Utilisez les inférences en ligne pour effectuer des requêtes en réponse à des entrées d'application ou dans des situations nécessitant une inférence rapide. -
Les inférences par lot sont des requêtes asynchrones adressées à un modèle non déployé sur un point de terminaison. Vous envoyez la requête (en tant que ressource
BatchPredictionJob
) directement à la ressourceModel
. Utilisez les inférences par lot lorsque vous n'avez pas besoin d'une réponse immédiate et que vous souhaitez traiter les données accumulées en une seule requête.
Obtenir des inférences à partir de modèles entraînés personnalisés
Pour obtenir des inférences, vous devez d'abord importer votre modèle. Une fois importé, il devient une ressource Model
visible dans Vertex AI Model Registry.
Consultez ensuite la documentation suivante pour savoir comment obtenir des inférences :
Obtenir des inférences par lot
Ou
Déployer un modèle sur un point de terminaison et obtenir des inférences en ligne.
Obtenir des inférences à partir de modèles AutoML
Contrairement aux modèles entraînés personnalisés, les modèles AutoML sont automatiquement importés dans Vertex AI Model Registry après l'entraînement.
En dehors de cela, le workflow des modèles AutoML est similaire, mais varie légèrement en fonction de votre type de données et de votre objectif de modèle. La documentation permettant d'obtenir des inférences AutoML se trouve à côté de l'autre documentation AutoML. Voici les liens vers la documentation :
Image
Découvrez comment obtenir des inférences à partir des types de modèles AutoML d'images suivants :
Tabulaire
Découvrez comment obtenir des inférences à partir des types de modèles AutoML tabulaires suivants :
Modèles de classification et de régression tabulaires
Modèles de prévision tabulaires (inférences par lot uniquement)
Obtenir des inférences à partir de modèles BigQuery ML
Vous pouvez obtenir des inférences à partir de modèles BigQuery ML de deux manières :
- Demandez des inférences par lots directement à partir du modèle dans BigQuery ML.
- Enregistrez les modèles directement auprès de Model Registry, sans les exporter depuis BigQuery ML ni les importer dans Model Registry.