Cette page explique comment utiliser Vertex AI pour exporter vos modèles AutoML Edge d'images vers Cloud Storage.
Pour plus d'informations sur l'exportation de modèles tabulaires, consultez la page Exporter des modèles tabulaires AutoML.
Introduction
Après avoir entraîné un modèle AutoML Edge, vous pouvez, dans certains cas, exporter le modèle dans différents formats, en fonction de la manière dont vous souhaitez l'utiliser. Les fichiers de modèle exportés sont enregistrés dans un bucket Cloud Storage et peuvent être utilisés pour les prédictions dans l'environnement de votre choix.
Vous ne pouvez pas utiliser un modèle Edge dans Vertex AI pour générer des prédictions. Vous devez déployer le modèle Edge sur un appareil externe pour obtenir des prédictions.
Exporter un modèle
Utilisez les exemples de code suivants pour identifier un modèle AutoML Edge, spécifier un emplacement de stockage pour un fichier de sortie, puis envoyer la requête d'exportation de modèle.
Image
Sélectionnez l'onglet correspondant à votre objectif :
Classification
Les modèles de classification d'images AutoML Edge entraînés peuvent être exportés dans les formats suivants :
- TF Lite : exportez votre modèle en tant que package TF Lite pour l'exécuter sur des appareils mobiles ou de périphérie.
- Edge TPU TF Lite : exportez votre modèle en tant que package TF Lite pour l'exécuter sur les appareils Edge TPU.
- Conteneur : exportez votre modèle en tant que SavedModel TensorFlow pour l'exécuter sur un conteneur Docker.
- Core ML : exportez un fichier .mlmodel pour exécuter votre modèle sur des appareils iOS et macOS.
- Tensorflow.js : exportez votre modèle en tant que package TensorFlow.js pour l'exécuter dans un navigateur et dans Node.js.
Sélectionnez l'onglet correspondant à votre langage ou à votre environnement :
Console
- Dans la console Google Cloud , au niveau de la section Vertex AI, accédez à la page Modèles.
- Cliquez sur le numéro de version du modèle AutoML Edge que vous souhaitez exporter pour ouvrir sa page d'informations.
- Cliquez sur Exporter.
- Dans la fenêtre latérale Exporter le modèle, spécifiez l'emplacement Cloud Storage destiné à stocker le résultat de l'exportation du modèle Edge.
- Cliquez sur Exporter.
- Cliquez sur Terminé pour fermer la fenêtre latérale Exporter le modèle.
REST
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : emplacement de votre projet.
- PROJECT : ID de votre projet.
- MODEL_ID : ID du modèle AutoML Edge entraîné que vous exportez.
- EXPORT_FORMAT : type de modèle Edge que vous exportez. Pour cet objectif, les options sont les suivantes :
tflite
(TF Lite) : exportez votre modèle en tant que package TF Lite pour l'exécuter sur des appareils mobiles ou de périphérie.edgetpu-tflite
(Edge TPU TF Lite) : exportez votre modèle en tant que package TF Lite pour l'exécuter sur les appareils Edge TPU.tf-saved-model
(Conteneur) : exportez votre modèle en tant que SavedModel TensorFlow pour l'exécuter sur un conteneur Docker.core-ml
(Core ML) : exportez un fichier .mlmodel pour exécuter votre modèle sur des appareils iOS et macOS.tf-js
(Tensorflow.js) : exportez votre modèle en tant que package TensorFlow.js pour l'exécuter dans un navigateur et dans Node.js.
- OUTPUT_BUCKET : chemin d'accès au répertoire de bucket Cloud Storage où vous souhaitez stocker les fichiers de modèle Edge.
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
Corps JSON de la requête :
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
La réponse contient des informations sur les spécifications, ainsi que sur OPERATION_ID.
Vous pouvez obtenir l'état de l'opération d'exportation pour voir quand elle est terminée.
Java
Avant d'essayer cet exemple, suivez les instructions de configuration pour Java décrites dans le guide de démarrage rapide de Vertex AI sur l'utilisation des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI pour Java.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Node.js
Avant d'essayer cet exemple, suivez les instructions de configuration pour Node.js décrites dans le guide de démarrage rapide de Vertex AI sur l'utilisation des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI pour Node.js.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Python
Pour savoir comment installer ou mettre à jour le SDK Vertex AI pour Python, consultez Installer le SDK Vertex AI pour Python. Pour en savoir plus, consultez la documentation de référence de l'API Python.
Classification
Les modèles de classification d'images AutoML Edge entraînés peuvent être exportés dans les formats suivants :
- TF Lite : exportez votre modèle en tant que package TF Lite pour l'exécuter sur des appareils mobiles ou de périphérie.
- Edge TPU TF Lite : exportez votre modèle en tant que package TF Lite pour l'exécuter sur les appareils Edge TPU.
- Conteneur : exportez votre modèle en tant que SavedModel TensorFlow pour l'exécuter sur un conteneur Docker.
- Core ML : exportez un fichier .mlmodel pour exécuter votre modèle sur des appareils iOS et macOS.
- Tensorflow.js : exportez votre modèle en tant que package TensorFlow.js pour l'exécuter dans un navigateur et dans Node.js.
Sélectionnez l'onglet correspondant à votre langage ou à votre environnement :
Console
- Dans la console Google Cloud , au niveau de la section Vertex AI, accédez à la page Modèles.
- Cliquez sur le numéro de version du modèle AutoML Edge que vous souhaitez exporter pour ouvrir sa page d'informations.
- Cliquez sur Exporter.
- Dans la fenêtre latérale Exporter le modèle, spécifiez l'emplacement Cloud Storage destiné à stocker le résultat de l'exportation du modèle Edge.
- Cliquez sur Exporter.
- Cliquez sur Terminé pour fermer la fenêtre latérale Exporter le modèle.
REST
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : emplacement de votre projet.
- PROJECT : ID de votre projet.
- MODEL_ID : ID du modèle AutoML Edge entraîné que vous exportez.
- EXPORT_FORMAT : type de modèle Edge que vous exportez. Pour cet objectif, les options sont les suivantes :
tflite
(TF Lite) : exportez votre modèle en tant que package TF Lite pour l'exécuter sur des appareils mobiles ou de périphérie.edgetpu-tflite
(Edge TPU TF Lite) : exportez votre modèle en tant que package TF Lite pour l'exécuter sur les appareils Edge TPU.tf-saved-model
(Conteneur) : exportez votre modèle en tant que SavedModel TensorFlow pour l'exécuter sur un conteneur Docker.core-ml
(Core ML) : exportez un fichier .mlmodel pour exécuter votre modèle sur des appareils iOS et macOS.tf-js
(Tensorflow.js) : exportez votre modèle en tant que package TensorFlow.js pour l'exécuter dans un navigateur et dans Node.js.
- OUTPUT_BUCKET : chemin d'accès au répertoire de bucket Cloud Storage où vous souhaitez stocker les fichiers de modèle Edge.
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
Corps JSON de la requête :
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
La réponse contient des informations sur les spécifications, ainsi que sur OPERATION_ID.
Vous pouvez obtenir l'état de l'opération d'exportation pour voir quand elle est terminée.
Java
Avant d'essayer cet exemple, suivez les instructions de configuration pour Java décrites dans le guide de démarrage rapide de Vertex AI sur l'utilisation des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI pour Java.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Node.js
Avant d'essayer cet exemple, suivez les instructions de configuration pour Node.js décrites dans le guide de démarrage rapide de Vertex AI sur l'utilisation des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI pour Node.js.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Python
Pour savoir comment installer ou mettre à jour le SDK Vertex AI pour Python, consultez Installer le SDK Vertex AI pour Python. Pour en savoir plus, consultez la documentation de référence de l'API Python.
Détection d'objets
Les modèles de détection d'objets d'image AutoML Edge entraînés peuvent être exportés dans les formats suivants :
- TF Lite : exportez votre modèle en tant que package TF Lite pour l'exécuter sur des appareils mobiles ou de périphérie.
- Conteneur : exportez votre modèle en tant que SavedModel TensorFlow pour l'exécuter sur un conteneur Docker.
- Tensorflow.js : exportez votre modèle en tant que package TensorFlow.js pour l'exécuter dans un navigateur et dans Node.js.
Sélectionnez l'onglet correspondant à votre langage ou à votre environnement :
Console
- Dans la console Google Cloud , au niveau de la section Vertex AI, accédez à la page Modèles.
- Cliquez sur le numéro de version du modèle AutoML Edge que vous souhaitez exporter pour ouvrir sa page d'informations.
- Sélectionnez l'onglet Déployer et tester pour afficher les formats d'exportation disponibles.
- Sélectionnez le format d'exportation de modèle souhaité dans la section Utiliser votre modèle optimisé pour la périphérie.
- Dans la fenêtre latérale Exporter le modèle, spécifiez l'emplacement Cloud Storage destiné à stocker le résultat de l'exportation du modèle Edge.
- Cliquez sur Exporter.
- Cliquez sur Terminé pour fermer la fenêtre latérale Exporter le modèle.
REST
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : emplacement de votre projet.
- PROJECT : .
- MODEL_ID : ID du modèle AutoML Edge entraîné que vous exportez.
- EXPORT_FORMAT : type de modèle Edge que vous exportez. Pour cet objectif, les options sont les suivantes :
tflite
(TF Lite) : exportez votre modèle en tant que package TF Lite pour l'exécuter sur des appareils mobiles ou de périphérie.tf-saved-model
(Conteneur) : exportez votre modèle en tant que SavedModel TensorFlow pour l'exécuter sur un conteneur Docker.tf-js
(Tensorflow.js) : exportez votre modèle en tant que package TensorFlow.js pour l'exécuter dans un navigateur et dans Node.js.
- OUTPUT_BUCKET : chemin d'accès au répertoire de bucket Cloud Storage où vous souhaitez stocker les fichiers de modèle Edge.
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export
Corps JSON de la requête :
{ "outputConfig": { "exportFormatId": "EXPORT_FORMAT", "artifactDestination": { "outputUriPrefix": "gs://OUTPUT_BUCKET/" } } }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models/MODEL_ID:export" | Select-Object -Expand Content
La réponse contient des informations sur les spécifications, ainsi que sur OPERATION_ID.
Vous pouvez obtenir l'état de l'opération d'exportation pour voir quand elle est terminée.
Java
Avant d'essayer cet exemple, suivez les instructions de configuration pour Java décrites dans le guide de démarrage rapide de Vertex AI sur l'utilisation des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI pour Java.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Node.js
Avant d'essayer cet exemple, suivez les instructions de configuration pour Node.js décrites dans le guide de démarrage rapide de Vertex AI sur l'utilisation des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI pour Node.js.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Python
Pour savoir comment installer ou mettre à jour le SDK Vertex AI pour Python, consultez Installer le SDK Vertex AI pour Python. Pour en savoir plus, consultez la documentation de référence de l'API Python.
Obtenir l'état de l'opération
Image
Utilisez le code suivant pour obtenir l'état de l'opération d'exportation. Ce code est le même pour tous les objectifs :
REST
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- LOCATION : emplacement de votre projet.
- PROJECT : .
- OPERATION_ID : ID de l'opération cible. Cet ID est généralement contenu dans la réponse renvoyée pour la requête d'origine.
Méthode HTTP et URL :
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Exécutez la commande suivante :
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID"
PowerShell
Exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/operations/OPERATION_ID" | Select-Object -Expand Content
{ "name": "projects/PROJECT/locations/LOCATION/models/MODEL_ID/operations/OPERATION_ID", "metadata": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelOperationMetadata", "genericMetadata": { "createTime": "2020-10-12T20:53:40.130785Z", "updateTime": "2020-10-12T20:53:40.793983Z" }, "outputInfo": { "artifactOutputUri": "gs://OUTPUT_BUCKET/model-MODEL_ID/EXPORT_FORMAT/YYYY-MM-DDThh:mm:ss.sssZ" } }, "done": true, "response": { "@type": "type.googleapis.com/google.cloud.aiplatform.v1.ExportModelResponse" } }
Fichiers de sortie
Image
Sélectionnez l'onglet correspondant à votre format de modèle :
TF Lite
Le OUTPUT_BUCKET
que vous avez spécifié dans la requête détermine l'emplacement de stockage des fichiers de sortie. Le format du répertoire dans lequel les fichiers de sortie sont stockés est le suivant :
- gs://OUTPUT_BUCKET/model-MODEL_ID/tflite/YYYY-MM-DDThh:mm:ss.sssZ/
Fichiers :
model.tflite
: fichier contenant une version du modèle prête à être utilisée avec TensorFlow Lite.
Edge TPU
Le OUTPUT_BUCKET
que vous avez spécifié dans la requête détermine l'emplacement de stockage des fichiers de sortie. Le format du répertoire dans lequel les fichiers de sortie sont stockés est le suivant :
- gs://OUTPUT_BUCKET/model-MODEL_ID/edgetpu-tflite/YYYY-MM-DDThh:mm:ss.sssZ/
Fichiers :
edgetpu_model.tflite
: fichier contenant une version du modèle pour TensorFlow Lite, transmise via le compilateur Edge TPU afin d'être compatible avec Edge TPU.
Conteneur
Le OUTPUT_BUCKET
que vous avez spécifié dans la requête détermine l'emplacement de stockage des fichiers de sortie. Le format du répertoire dans lequel les fichiers de sortie sont stockés est le suivant :
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-saved-model/YYYY-MM-DDThh:mm:ss.sssZ/
Fichiers :
saved_model.pb
: fichier de tampon de protocole contenant la définition du graphe et les pondérations du modèle.
Core ML
Le OUTPUT_BUCKET
que vous avez spécifié dans la requête détermine l'emplacement de stockage des fichiers de sortie. Le format du répertoire dans lequel les fichiers de sortie sont stockés est le suivant :
- gs://OUTPUT_BUCKET/model-MODEL_ID/core-ml/YYYY-MM-DDThh:mm:ss.sssZ/
Fichiers :
dict.txt
: fichier d'étiquettes. Chaque ligne du fichier d'étiquettesdict.txt
représente une étiquette des prédictions renvoyées par le modèle, les lignes étant présentées dans l'ordre dans lequel celles-ci ont été demandées.Exemple de fichier
dict.txt
roses daisy tulips dandelion sunflowers
model.mlmodel
: fichier spécifiant un modèle Core ML.
Tensorflow.js
Le OUTPUT_BUCKET
que vous avez spécifié dans la requête détermine l'emplacement de stockage des fichiers de sortie. Le format du répertoire dans lequel les fichiers de sortie sont stockés est le suivant :
- gs://OUTPUT_BUCKET/model-MODEL_ID/tf-js/YYYY-MM-DDThh:mm:ss.sssZ/
Fichiers :
dict.txt
: fichier d'étiquettes. Chaque ligne du fichier d'étiquettesdict.txt
représente une étiquette des prédictions renvoyées par le modèle, les lignes étant présentées dans l'ordre dans lequel celles-ci ont été demandées.Exemple de fichier
dict.txt
roses daisy tulips dandelion sunflowers
group1-shard1of3.bin
: fichier binaire.group1-shard2of3.bin
: fichier binaire.group1-shard3of3.bin
: fichier binaire.model.json
: représentation d'un modèle sous forme de fichier JSON.Exemple de fichier
model.json
(abrégé pour plus de clarté){ "format": "graph-model", "generatedBy": "2.4.0", "convertedBy": "TensorFlow.js Converter v1.7.0", "userDefinedMetadata": { "signature": { "inputs": { "image:0": { "name": "image:0", "dtype": "DT_FLOAT", "tensorShape": { "dim": [ { "size": "1" }, { "size": "224" }, { "size": "224" }, { "size": "3" } ] } } }, "outputs": { "scores:0": { "name": "scores:0", "dtype": "DT_FLOAT", "tensorShape": { "dim": [ { "size": "1" }, { "size": "5" } ] } } } } }, "modelTopology": { "node": [ { "name": "image", "op": "Placeholder", "attr": { "dtype": { "type": "DT_FLOAT" }, "shape": { "shape": { "dim": [ { "size": "1" }, { "size": "224" }, { "size": "224" }, { "size": "3" } ] } } } }, { "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices", "op": "Const", "attr": { "value": { "tensor": { "dtype": "DT_INT32", "tensorShape": { "dim": [ { "size": "2" } ] } } }, "dtype": { "type": "DT_INT32" } } }, ... { "name": "scores", "op": "Identity", "input": [ "Softmax" ], "attr": { "T": { "type": "DT_FLOAT" } } } ], "library": {}, "versions": {} }, "weightsManifest": [ { "paths": [ "group1-shard1of3.bin", "group1-shard2of3.bin", "group1-shard3of3.bin" ], "weights": [ { "name": "mnas_v4_a_1/feature_network/feature_extractor/Mean/reduction_indices", "shape": [ 2 ], "dtype": "int32" }, { "name": "mnas_v4_a/output/fc/tf_layer/kernel", "shape": [ 1280, 5 ], "dtype": "float32" }, ... { "name": "mnas_v4_a_1/feature_network/lead_cell_17/op_0/conv2d_0/Conv2D_weights", "shape": [ 1, 1, 320, 1280 ], "dtype": "float32" }, { "name": "mnas_v4_a_1/feature_network/cell_14/op_0/expand_0/Conv2D_bn_offset", "shape": [ 1152 ], "dtype": "float32" } ] } ] }