Gérer les pipelines
Ce document explique comment gérer les pipelines BigQuery, y compris comment les planifier et les supprimer.
Ce document explique également comment afficher et gérer les métadonnées de pipeline dans Knowledge Catalog.
Les pipelines sont alimentés par Dataform.
Avant de commencer
- Créez un pipeline BigQuery.
- Pour gérer les métadonnées de pipeline dans Knowledge Catalog, assurez-vous que l'API Dataplex est activée dans votre Google Cloud projet.
Rôles requis
Pour obtenir les autorisations nécessaires pour gérer les pipelines, demandez à votre administrateur de vous accorder les rôles IAM suivants :
-
Pour supprimer des pipelines:
Administrateur Dataform (
roles/dataform.Admin) sur le pipeline -
Pour afficher et exécuter des pipelines :
Lecteur Dataform (
roles/dataform.Viewer) sur le projet
Pour en savoir plus sur l'attribution de rôles, consultez Gérer l'accès aux projets, aux dossiers et aux organisations.
Vous pouvez également obtenir les autorisations requises avec des rôles personnalisés ou d'autres rôles prédéfinis.
Pour gérer les métadonnées de pipeline dans Knowledge Catalog, assurez-vous de disposer des rôles Knowledge Catalog requis
Pour en savoir plus sur IAM pour Dataform, consultez la section Contrôler l'accès avec IAM.
Afficher tous les pipelines
Pour afficher la liste de tous les pipelines de votre projet, procédez comme suit :
Dans la Google Cloud console, accédez à la BigQuery BigQuery.
Dans le volet de gauche, cliquez sur Explorateur:

Si le volet de gauche ne s'affiche pas, cliquez sur Développer le volet de gauche pour l'ouvrir.
Dans le volet Explorateur , développez votre projet, puis cliquez sur Pipelines.
Afficher les exécutions manuelles passées
Pour afficher les exécutions manuelles passées d'un pipeline sélectionné, procédez comme suit :
Dans la Google Cloud console, accédez à la BigQuery BigQuery.
Dans le volet de gauche, cliquez sur Explorateur:

Dans le volet Explorateur, développez votre projet, cliquez sur Pipelines, puis sélectionnez un pipeline.
Cliquez sur Exécutions.
Facultatif : Pour actualiser la liste des exécutions passées, cliquez sur Actualiser.
Configurer des alertes pour les exécutions de pipeline ayant échoué
Chaque pipeline possède un ID de dépôt Dataform correspondant. Chaque exécution de pipeline BigQuery est enregistrée dans Cloud Logging à l'aide de l'ID de dépôt Dataform correspondant. Vous pouvez utiliser Cloud Monitoring pour observer les tendances dans les journaux Cloud Logging pour les exécutions de pipeline BigQuery et vous avertir lorsque les conditions que vous décrivez apparaissent.
Pour recevoir des alertes lorsqu'une exécution de pipeline BigQuery échoue, vous pouvez créer une règle d'alerte basée sur les journaux pour l'ID de dépôt Dataform correspondant. Pour savoir comment procéder, consultez Configurer des alertes pour les appels de workflow ayant échoué.
Pour trouver l'ID de dépôt Dataform de votre pipeline, procédez comme suit :
Dans la Google Cloud console, accédez à la BigQuery BigQuery.
Dans le volet de gauche, cliquez sur Explorateur:

Dans le volet Explorateur, développez votre projet, cliquez sur Pipelines, puis sélectionnez un pipeline.
Cliquez sur Paramètres.
L'ID de dépôt Dataform de votre pipeline s'affiche en bas de l'onglet Paramètres.
Supprimer un pipeline
Pour supprimer définitivement un pipeline, procédez comme suit :
Dans la Google Cloud console, accédez à la BigQuery BigQuery.
Dans le volet de gauche, cliquez sur Explorateur:

Dans le volet Explorateur , développez votre projet, puis cliquez sur Pipelines.
Recherchez le pipeline que vous souhaitez supprimer.
Cliquez sur Afficher les actions à côté du pipeline, puis sur Supprimer.
Cliquez sur Supprimer.
Gérer les métadonnées dans Knowledge Catalog
Knowledge Catalog vous permet de stocker et de gérer les métadonnées des pipelines. Les pipelines sont disponibles dans Knowledge Catalog par défaut, sans configuration supplémentaire.
Vous pouvez utiliser Knowledge Catalog pour gérer les pipelines dans tous les emplacements de pipeline. La gestion des pipelines dans Knowledge Catalog est soumise aux quotas et limites de Knowledge Catalog et aux tarifs de Knowledge Catalog.
Knowledge Catalog récupère automatiquement les métadonnées suivantes à partir des pipelines :
- Nom de l'élément de données
- Élément de données parent
- Emplacement de l'élément de données
- Type d'élément de données
- Projet correspondant Google Cloud
Knowledge Catalog enregistre les pipelines en tant qu' entrées avec les valeurs d'entrée suivantes :
- Groupe d'entrées système
- Le groupe d'entrées système
pour les pipelines est
@dataform. Pour afficher les détails des entrées de pipeline dans Knowledge Catalog, vous devez afficher le groupe d'entrées systèmedataform. Pour savoir comment afficher la liste de toutes les entrées d'un groupe d'entrées, consultez Afficher les détails d'un groupe d'entrées dans la documentation de Knowledge Catalog. - Type d'entrée système
- Le type d'entrée système
pour les pipelines est
dataform-code-asset. Pour afficher les détails de pipelines,vous devez afficher le type d'entrée systèmedataform-code-asset, filtrer les résultats avec un filtre basé sur les aspects, et définir le champtypedans l'aspectdataform-code-assetsurWORKFLOW. Sélectionnez ensuite une entrée du pipeline sélectionné. Pour savoir comment afficher les détails d'un type d'entrée sélectionné, consultez Afficher les détails d'un type d'entrée dans la documentation de Knowledge Catalog. Pour savoir comment afficher les détails d'une entrée sélectionnée, consultez Afficher les détails d'une entrée dans la documentation de Knowledge Catalog. - Type d'aspect système
- Le type d'aspect système
pour les pipelines est
dataform-code-asset. Pour fournir un contexte supplémentaire aux pipelines dans Knowledge Catalog en annotant les entrées de pipeline de données avec des aspects, affichez ledataform-code-assettype d'aspect, filtrez les résultats avec un filtre basé sur les aspects, et définissez le champtypedans l'aspectdataform-code-assetsurWORKFLOW. Pour savoir comment annoter des entrées avec des aspects, consultez Gérer les aspects et enrichir les métadonnées dans la documentation de Knowledge Catalog. - Type
- Le type pour les canevas de données est
WORKFLOW. Ce type vous permet de filtrer les pipelines dans ledataform-code-assettype d'entrée système et ledataform-code-assettype d'aspect à l'aide de laaspect:dataplex-types.global.dataform-code-asset.type=WORKFLOWrequête dans un filtre basé sur les aspects.
Pour savoir comment rechercher des éléments dans Knowledge Catalog, consultez Rechercher des éléments de données dans Knowledge Catalog dans la documentation de Knowledge Catalog.
Étape suivante
- En savoir plus sur les pipelines BigQuery.
- Découvrez comment créer des pipelines.
- Découvrez comment planifier des pipelines.