Cette page explique comment envoyer une requête d'inférence par lot à un modèle de classification ou de régression AutoML entraîné à l'aide de la console Google Cloud ou de l'API Vertex AI.
Une requête d'inférence par lot est une requête asynchrone (par opposition à l'inférence en ligne, qui est une requête synchrone). Demandez des inférences par lot directement à partir de la ressource de modèle sans déployer le modèle sur un point de terminaison. Pour les données tabulaires, utilisez les inférences par lot lorsque vous n'avez pas besoin d'une réponse immédiate et que vous souhaitez traiter des données accumulées en employant une seule requête.
Pour effectuer une requête d'inférence par lot, spécifiez une source d'entrée et un format de sortie dans lesquels Vertex AI stocke les résultats de l'inférence.
Avant de commencer
Avant d'envoyer une requête d'inférence par lot, vous devez d'abord entraîner un modèle.
Données d'entrée
Les données d'entrée des requêtes d'inférence par lot sont les données que le modèle utilise pour effectuer des inférences. Pour les modèles de classification ou de régression, vous pouvez fournir des données d'entrée dans l'un des formats suivants :
- les tables BigQuery
- Objets CSV dans Cloud Storage
Nous vous recommandons d'utiliser le même format pour les données d'entrée et les données d'entraînement du modèle. Par exemple, si vous avez entraîné votre modèle à l'aide de données dans BigQuery, il est préférable d'utiliser une table BigQuery comme entrée pour l'inférence par lot. Comme Vertex AI traite tous les champs d'entrée CSV comme des chaînes, ne pas utiliser le même format pour les données d'entrée et celles d'entraînement peut entraîner des erreurs.
Votre source de données doit contenir des données tabulaires incluant toutes les colonnes qui ont été utilisées pour entraîner le modèle, dans n'importe quel ordre. Vous pouvez inclure des colonnes qui ne figuraient pas dans les données d'entraînement, ou qui y figuraient, mais qui ont été exclues de l'entraînement. Ces colonnes supplémentaires sont incluses dans le résultat, mais n'affectent pas les résultats de l'inférence.
Exigences concernant les données d'entrée
Table BigQuery
Si vous choisissez une table BigQuery comme entrée, vous devez remplir les conditions suivantes :
- Les tables de source de données BigQuery ne doivent pas dépasser 100 Go.
- Si la table se trouve dans un autre projet, vous devez accorder le rôle
BigQuery Data Editor
au compte de service Vertex AI dans ce projet.
Fichier CSV
Si vous choisissez un objet CSV dans Cloud Storage comme entrée, vous devez remplir les conditions suivantes :
- La source de données doit commencer par une ligne d'en-tête avec les noms de colonne.
- Chaque objet de source de données ne doit pas dépasser 10 Go. Vous pouvez inclure plusieurs fichiers, jusqu'à une taille maximale de 100 Go.
- Si le bucket Cloud Storage se trouve dans un autre projet, vous devez attribuer le rôle
Storage Object Creator
au compte de service Vertex AI dans ce projet. - Vous devez placer toutes les chaînes entre guillemets doubles (").
Format de sortie
Le format de sortie de votre requête d'inférence par lot n'a pas besoin d'être identique au format d'entrée. Par exemple, si vous avez utilisé une table BigQuery en tant qu'entrée, vous pouvez générer les résultats dans un objet CSV dans Cloud Storage.
Envoyer une requête d'inférence par lot à votre modèle
Pour envoyer des requêtes d'inférence par lots, vous pouvez utiliser la console Google Cloud ou l'API Vertex AI. La source de données d'entrée peut être des objets CSV stockés dans un bucket Cloud Storage ou des tables BigQuery. Selon la quantité de données que vous envoyez en tant qu'entrée, une tâche d'inférence par lot peut prendre un certain temps.
Console Google Cloud
Utilisez la console Google Cloud pour demander une inférence par lot.
- Dans la section "Vertex AI" de la console Google Cloud , accédez à la page Inférence par lot.
- Cliquez sur Créer pour ouvrir la fenêtre Nouvelle inférence par lot.
- Dans Définir votre inférence par lots, procédez comme suit :
- Saisissez un nom pour l'inférence par lot.
- Dans Nom du modèle, sélectionnez le nom du modèle à utiliser pour cette inférence par lot.
- Dans Version, sélectionnez la version du modèle à utiliser pour cette inférence par lot.
- Dans Sélectionner une source, indiquez si vos données d'entrée source sont un fichier CSV sur Cloud Storage ou une table dans BigQuery.
- Pour les fichiers CSV, spécifiez l'emplacement Cloud Storage où se trouve votre fichier d'entrée CSV.
- Pour les tables BigQuery, spécifiez l'ID du projet dans lequel se trouve la table, l'ID de l'ensemble de données BigQuery et l'ID de la table ou de la vue BigQuery.
- Dans Sortie, sélectionnez CSV ou BigQuery.
- Pour le format CSV, spécifiez le bucket Cloud Storage dans lequel Vertex AI stocke votre sortie.
- Pour BigQuery, vous pouvez spécifier un ID de projet ou un ensemble de données existant :
- Pour spécifier l'ID du projet, saisissez-le dans le champ ID de projet Google Cloud. Vertex AI crée automatiquement un ensemble de données de sortie.
- Pour spécifier un ensemble de données existant, saisissez son chemin BigQuery dans le champ ID du projet Google Cloud, tel que
bq://projectid.datasetid
.
- Facultatif.
Vous pouvez demander une inférence avec des explications (également appelées attributions de caractéristiques) pour voir comment votre modèle est arrivé à une inférence. Les valeurs d'importance des caractéristiques locales indiquent dans quelle mesure chaque caractéristique a contribué au résultat de l'inférence. Les attributions de caractéristiques sont incluses dans les inférences Vertex AI via Vertex Explainable AI.
Pour activer les attributions de caractéristiques, sélectionnez Activer les attributions de caractéristiques pour ce modèle. Cette option est disponible si votre destination de sortie est BigQuery ou JSONL sur Cloud Storage. Les attributions de caractéristiques ne sont pas compatibles avec le format CSV sur Cloud Storage.
- Facultatif : L'analyse Model Monitoring pour les inférences par lot est disponible en version preview. Consultez la section Prérequis pour ajouter une configuration de détection de décalages à votre tâche d'inférence par lot.
- Cliquez sur Activer la surveillance du modèle pour cette inférence par lot.
- Sélectionnez une source de données d'entraînement. Saisissez le chemin d'accès ou l'emplacement de la source de données d'entraînement que vous avez sélectionnée.
- Facultatif : sous Seuils d'alerte, spécifiez les seuils auxquels les alertes doivent être déclenchées.
- Dans le champ E-mails de notification, saisissez une ou plusieurs adresses e-mail séparées par une virgule afin de recevoir des alertes lorsqu'un modèle dépasse un seuil d'alerte.
- Facultatif : dans Canaux de notification, ajoutez des canaux Cloud Monitoring afin de recevoir des alertes lorsqu'un modèle dépasse un seuil d'alerte. Vous pouvez sélectionner des canaux Cloud Monitoring existants ou en créer un en cliquant sur Gérer les canaux de notification. La console est compatible avec les canaux de notification PagerDuty, Slack et Pub/Sub.
- Cliquez sur Créer.
API : BigQuery
REST
Utilisez la méthode batchPredictionJobs.create pour demander une prédiction par lots.
Avant d'utiliser les données de requête, effectuez les remplacements suivants :
- LOCATION_ID : région où le modèle est stocké et la tâche d'inférence par lot est exécutée. Par exemple :
us-central1
. - PROJECT_ID : ID de votre projet.
- BATCH_JOB_NAME : nom à afficher du job par lot.
- MODEL_ID : ID du modèle à utiliser pour effectuer des inférences.
-
INPUT_URI : référence à la source de données BigQuery, au format :
bq://bqprojectId.bqDatasetId.bqTableId
-
OUTPUT_URI : référence à la destination BigQuery (où les inférences sont écrites). Spécifiez l'ID du projet et, éventuellement, un ID d'ensemble de données existant. Si vous ne spécifiez que l'ID du projet, Vertex AI crée un ensemble de données de sortie à votre place. Utilisez le format suivant :
bq://bqprojectId.bqDatasetId
- MACHINE_TYPE : ressources de machine à utiliser pour cette tâche d'inférence par lot. En savoir plus
- STARTING_REPLICA_COUNT : nombre de nœuds initial pour ce job d'inférence par lots. Il est possible d'augmenter ou de diminuer le nombre de nœuds selon les besoins de la charge, jusqu'à atteindre le nombre maximal de nœuds. En revanche, il ne peut pas être inférieur à ce nombre minimal.
- MAX_REPLICA_COUNT : nombre maximal de nœuds pour cette tâche d'inférence par lot. Le nombre de nœuds peut être augmenté ou réduit selon les besoins de la charge, mais ne dépassera jamais le maximum. (Facultatif) La valeur par défaut est 10.
-
GENERATE_EXPLANATION : vous pouvez demander une inférence avec des explications (également appelées attributions de caractéristiques) pour voir comment votre modèle est arrivé à une inférence. Les valeurs d'importance des caractéristiques locales indiquent dans quelle mesure chaque caractéristique a contribué au résultat de l'inférence. Les attributions de caractéristiques sont incluses dans les inférences Vertex AI via Vertex Explainable AI.
La valeur par défaut est false. Définissez la valeur sur true pour activer les attributions de caractéristiques.
Méthode HTTP et URL :
POST https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs
Corps JSON de la requête :
{ "displayName": "BATCH_JOB_NAME", "model": "MODEL_ID", "inputConfig": { "instancesFormat": "bigquery", "bigquerySource": { "inputUri": "INPUT_URI" } }, "outputConfig": { "predictionsFormat": "bigquery", "bigqueryDestination": { "outputUri": "OUTPUT_URI" } }, "dedicatedResources": { "machineSpec": { "machineType": "MACHINE_TYPE", "acceleratorCount": "0" }, "startingReplicaCount": STARTING_REPLICA_COUNT, "maxReplicaCount": MAX_REPLICA_COUNT }, "generateExplanation": GENERATE_EXPLANATION }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs" | Select-Object -Expand Content
Vous devriez recevoir une réponse JSON de ce type :
{ "name": "projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs/67890", "displayName": "batch_job_1 202005291958", "model": "projects/12345/locations/us-central1/models/5678", "state": "JOB_STATE_PENDING", "inputConfig": { "instancesFormat": "bigquery", "bigquerySource": { "inputUri": "INPUT_URI" } }, "outputConfig": { "predictionsFormat": "bigquery", "bigqueryDestination": { "outputUri": bq://12345 } }, "dedicatedResources": { "machineSpec": { "machineType": "n1-standard-32", "acceleratorCount": "0" }, "startingReplicaCount": 2, "maxReplicaCount": 6 }, "manualBatchTuningParameters": { "batchSize": 4 }, "generateExplanation": false, "outputInfo": { "bigqueryOutputDataset": "bq://12345.reg_model_2020_10_02_06_04 } "state": "JOB_STATE_PENDING", "createTime": "2020-09-30T02:58:44.341643Z", "updateTime": "2020-09-30T02:58:44.341643Z", }
Java
Avant d'essayer cet exemple, suivez les instructions de configuration pour Java décrites dans le guide de démarrage rapide de Vertex AI à l'aide des bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Vertex AI Java.
Pour vous authentifier auprès de Vertex AI, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Dans l'exemple suivant, remplacez INSTANCES_FORMAT et PREDICTIONS_FORMAT par "bigquery". Pour savoir comment remplacer les autres espaces réservés, consultez l'onglet "REST et ligne de commande" de cette section.Python
Pour savoir comment installer ou mettre à jour le SDK Vertex AI pour Python, consultez la section Installer le SDK Vertex AI pour Python. Pour en savoir plus, consultez la documentation de référence de l'API Python.
Dans l'exemple suivant, définissez les paramètres "instances_format" et "predictions_format" sur "bigquery". Pour savoir comment définir les autres paramètres, consultez l'onglet "REST et ligne de commande" de cette section.API : Cloud Storage
REST
Utilisez la méthode batchPredictionJobs.create pour demander une inférence par lot.
Avant d'utiliser les données de requête, effectuez les remplacements suivants :
- LOCATION_ID : région où le modèle est stocké et la tâche d'inférence par lot est exécutée. Par exemple :
us-central1
. - PROJECT_ID :
- BATCH_JOB_NAME : nom à afficher du job par lot.
- MODEL_ID : ID du modèle à utiliser pour effectuer des inférences.
-
URI : chemins (URI) vers les buckets Cloud Storage contenant les données d'entraînement.
Il peut y en avoir plusieurs. Chaque URI se présente sous la forme suivante :
gs://bucketName/pathToFileName
-
OUTPUT_URI_PREFIX : chemin d'accès à une destination Cloud Storage où les inférences sont écrites. Vertex AI écrit les inférences par lot dans un sous-répertoire horodaté de ce chemin. Définissez cette valeur sur une chaîne au format suivant :
gs://bucketName/pathToOutputDirectory
- MACHINE_TYPE : ressources de machine à utiliser pour cette tâche d'inférence par lot. En savoir plus
- STARTING_REPLICA_COUNT : nombre de nœuds initial pour ce job d'inférence par lots. Il est possible d'augmenter ou de diminuer le nombre de nœuds selon les besoins de la charge, jusqu'à atteindre le nombre maximal de nœuds. En revanche, il ne peut pas être inférieur à ce nombre minimal.
- MAX_REPLICA_COUNT : nombre maximal de nœuds pour cette tâche d'inférence par lot. Le nombre de nœuds peut être augmenté ou réduit selon les besoins de la charge, mais ne dépassera jamais le maximum. (Facultatif) La valeur par défaut est 10.
-
GENERATE_EXPLANATION : vous pouvez demander une inférence avec des explications (également appelées attributions de caractéristiques) pour voir comment votre modèle est arrivé à une inférence. Les valeurs d'importance des caractéristiques locales indiquent dans quelle mesure chaque caractéristique a contribué au résultat de l'inférence. Les attributions de caractéristiques sont incluses dans les inférences Vertex AI via Vertex Explainable AI.
La valeur par défaut est false. Définissez la valeur sur true pour activer les attributions de caractéristiques. Cette option n'est disponible que si votre destination de sortie est JSONL. Les attributions de caractéristiques ne sont pas compatibles avec le format CSV dans Cloud Storage.
Méthode HTTP et URL :
POST https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs
Corps JSON de la requête :
{ "displayName": "BATCH_JOB_NAME", "model": "MODEL_ID", "inputConfig": { "instancesFormat": "csv", "gcsSource": { "uris": [ URI1,... ] }, }, "outputConfig": { "predictionsFormat": "csv", "gcsDestination": { "outputUriPrefix": "OUTPUT_URI_PREFIX" } }, "dedicatedResources": { "machineSpec": { "machineType": "MACHINE_TYPE", "acceleratorCount": "0" }, "startingReplicaCount": STARTING_REPLICA_COUNT, "maxReplicaCount": MAX_REPLICA_COUNT }, "generateExplanation": GENERATE_EXPLANATION }
Pour envoyer votre requête, choisissez l'une des options suivantes :
curl
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs"
PowerShell
Enregistrez le corps de la requête dans un fichier nommé request.json
, puis exécutez la commande suivante :
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs" | Select-Object -Expand Content
Vous devriez recevoir une réponse JSON de ce type :
{ "name": "projects/PROJECT__ID/locations/LOCATION_ID/batchPredictionJobs/67890", "displayName": "batch_job_1 202005291958", "model": "projects/12345/locations/us-central1/models/5678", "state": "JOB_STATE_PENDING", "inputConfig": { "instancesFormat": "csv", "gcsSource": { "uris": [ "gs://bp_bucket/reg_mode_test" ] } }, "outputConfig": { "predictionsFormat": "csv", "gcsDestination": { "outputUriPrefix": "OUTPUT_URI_PREFIX" } }, "dedicatedResources": { "machineSpec": { "machineType": "n1-standard-32", "acceleratorCount": "0" }, "startingReplicaCount": 2, "maxReplicaCount": 6 }, "manualBatchTuningParameters": { "batchSize": 4 } "outputInfo": { "gcsOutputDataset": "OUTPUT_URI_PREFIX/prediction-batch_job_1 202005291958-2020-09-30T02:58:44.341643Z" } "state": "JOB_STATE_PENDING", "createTime": "2020-09-30T02:58:44.341643Z", "updateTime": "2020-09-30T02:58:44.341643Z", }
Récupérer les résultats de l'inférence par lot
Vertex AI envoie la sortie des inférences par lot à la destination spécifiée, qui peut être BigQuery ou Cloud Storage.
BigQuery
Ensemble de données de sortie
Si vous utilisez BigQuery, le résultat de l'inférence par lots est stocké dans un ensemble de données de sortie. Si vous avez fourni un ensemble de données à Vertex AI, le nom de l'ensemble de données (BQ_DATASET_NAME) est le nom que vous avez fourni précédemment. Si vous n'avez pas spécifié d'ensemble de données de sortie, Vertex AI en a créé un pour vous. Vous pouvez trouver son nom (BQ_DATASET_NAME) en procédant comme suit :
- Dans la console Google Cloud , accédez à la page Inférence par lot de Vertex AI.
- Sélectionnez l'inférence que vous avez créée.
-
L'ensemble de données de sortie est indiqué dans Emplacement d'exportation. Le nom de la ressource est au format suivant :
prediction_MODEL_NAME_TIMESTAMP
L'ensemble de données de sortie contient une ou plusieurs des trois tables de sortie suivantes :
-
Table des prédictions
Cette table contient une ligne pour chaque ligne de vos données d'entrée où une inférence a été demandée (c'est-à-dire une ligne avec TARGET_COLUMN_NAME = null).
-
Table des erreurs
Cette table contient une ligne pour chaque erreur non critique rencontrée lors de l'inférence par lots. Chaque erreur non critique correspond à une ligne des données d'entrée pour laquelle Vertex AI n'a pas pu renvoyer de prévision.
Table des prédictions
Le nom de la table (BQ_PREDICTIONS_TABLE_NAME) est constitué en ajoutant "predictions_" avec l'horodatage du début du job d'inférence par lot : predictions_TIMESTAMP
Pour récupérer les inférences, accédez à la page BigQuery.
Le format de la requête dépend du type de modèle :Classification :
SELECT predicted_TARGET_COLUMN_NAME.classes AS classes, predicted_TARGET_COLUMN_NAME.scores AS scores FROM BQ_DATASET_NAME.BQ_PREDICTIONS_TABLE_NAME
classes
correspond à la liste des classes potentielles et scores
aux scores de confiance correspondants.
Régression :
SELECT predicted_TARGET_COLUMN_NAME.value, predicted_TARGET_COLUMN_NAME.lower_bound, predicted_TARGET_COLUMN_NAME.upper_bound FROM BQ_DATASET_NAME.BQ_PREDICTIONS_TABLE_NAME
Si vous avez activé les attributions de caractéristiques, vous pouvez également les trouver dans la table des prédictions. Pour accéder aux attributions d'une caractéristique BQ_FEATURE_NAME, exécutez la requête suivante :
SELECT explanation.attributions[OFFSET(0)].featureAttributions.BQ_FEATURE_NAME FROM BQ_DATASET_NAME.BQ_PREDICTIONS_TABLE_NAME
Table des erreurs
Le nom de la table (BQ_ERRORS_TABLE_NAME) est constitué en ajoutanterrors_
avec l'horodatage du début du job d'inférence par lot : errors_TIMESTAMP
Pour récupérer la table de validation des erreurs :-
Dans la console, accédez à la page BigQuery.
-
Exécutez la requête suivante :
SELECT * FROM BQ_DATASET_NAME.BQ_ERRORS_TABLE_NAME
- errors_TARGET_COLUMN_NAME.code
- errors_TARGET_COLUMN_NAME.message
Cloud Storage
Si vous avez spécifié Cloud Storage comme destination de sortie, les résultats de votre requête d'inférence par lot sont renvoyés sous forme d'objets CSV dans un nouveau dossier du bucket spécifié. Le nom du dossier est celui de votre modèle, précédé de "prediction-" et suivi de l'horodatage du début de la tâche d'inférence par lot. Vous trouverez le nom du dossier Cloud Storage dans l'onglet Prédictions par lots de votre modèle.
Le dossier Cloud Storage contient deux types d'objets :-
Objets de prédiction
Les objets d'inférence sont nommés "predictions_1.csv", "predictions_2.csv", etc. Ils contiennent une ligne d'en-tête avec les noms de colonne et une ligne pour chaque inférence renvoyée. Dans les objets d'inférence, Vertex AI renvoie les données d'inférence et crée une ou plusieurs colonnes pour les résultats d'inférence, en fonction de votre type de modèle :
-
Classification : pour chaque valeur potentielle de votre colonne cible, une colonne nommée
TARGET_COLUMN_NAME_VALUE_score
est ajoutée aux résultats. Cette colonne contient le score, ou estimation du niveau de confiance, pour cette valeur. -
Régression : la valeur prédite pour cette ligne est renvoyée dans une colonne intitulée
predicted_TARGET_COLUMN_NAME
. L'intervalle de prédiction n'est pas renvoyé dans la sortie au format CSV.
-
Classification : pour chaque valeur potentielle de votre colonne cible, une colonne nommée
-
Objets d'erreur
Les objets d'erreur sont nommés "errors_1.csv", "errors_2.csv", etc. Ils contiennent une ligne d'en-tête et une ligne pour chaque ligne de vos données d'entrée pour laquelle Vertex AI n'a pas pu renvoyer d'inférence (par exemple, une caractéristique ne pouvant avoir une valeur nulle contient une valeur nulle).
Remarque : Si les résultats comportent une grande quantité de données, ils sont divisés en plusieurs objets.
Les attributions de caractéristiques ne sont pas disponibles pour les résultats d'inférence par lot renvoyés dans Cloud Storage.
Interpréter les résultats de l'inférence
Classification
Les modèles de classification renvoient un score de confiance.
Le score de confiance indique à quel point votre modèle associe chaque classe ou étiquette à un élément de test. Plus le score est élevé, plus le modèle est certain que l'étiquette doit être appliquée à cet élément. C'est vous qui décidez du score de confiance auquel vous acceptez les résultats du modèle.
Régression
Les modèles de régression renvoient une valeur d'inférence. Pour les destinations BigQuery, ils renvoient également un intervalle d'inférence. L'intervalle d'inférence fournit une plage de valeurs qui a, selon le modèle, 95 % de chances de contenir le bon résultat.
Interpréter les résultats des explications
Si les résultats d'inférence par lot sont stockés dans BigQuery et que vous avez choisi d'activer les attributions de caractéristiques, vous pouvez trouver les valeurs d'attribution des caractéristiques dans la table des inférences.
Pour calculer l'importance des caractéristiques locales, le score d'inférence de référence est tout d'abord calculé. Les valeurs de référence sont calculées à partir des données d'entraînement, en utilisant la valeur médiane pour les caractéristiques numériques et le mode pour les caractéristiques catégorielles. L'inférence générée à partir des valeurs de référence correspond au score d'inférence de référence. Les valeurs de référence sont calculées une seule fois pour un modèle et ne changent pas.
Pour une inférence spécifique, l'importance des caractéristiques locales de chaque caractéristique indique dans quelle mesure cette caractéristique affecte le résultat par rapport au score d'inférence de référence. La somme de toutes les valeurs d'importance de caractéristique est la différence entre le score d'inférence de référence et le résultat de l'inférence.
Pour les modèles de classification, le score est toujours compris entre 0,0 et 1,0 inclus. Par conséquent, les valeurs d'importance des caractéristiques locales pour les modèles de classification sont toujours comprises entre -1,0 et 1,0 (inclus).
Pour obtenir des exemples de requêtes d'attribution de caractéristiques et en savoir plus, consultez Attributions de caractéristiques pour la classification et la régression.Étape suivante
- Découvrez comment exporter votre modèle.