Créer et gérer des jobs d'opérations par lot

Cette page explique comment créer, afficher, lister, annuler et supprimer des jobs d' opérations de stockage par lot. Il explique également comment utiliser Cloud Audit Logs avec les jobs d'opérations de stockage par lot.

Avant de commencer

Pour créer et gérer des jobs d'opérations par lot de stockage, suivez les étapes décrites dans les sections suivantes.

Configurer Storage Intelligence

Pour créer et gérer des jobs d'opérations Storage par lot, configurez Storage Intelligence sur le bucket dans lequel vous souhaitez exécuter le job.

Configurer la Google Cloud CLI

Vous devez utiliser la version 516.0.0 ou ultérieure de Google Cloud CLI.

Définir le projet par défaut

Définissez le projet dans lequel vous souhaitez créer le job d'opérations Storage par lot.

gcloud config set project PROJECT_ID

PROJECT_ID correspond à l'ID de votre projet.

Activer l'API

Activez l'API Storage Batch Operations.

gcloud services enable storagebatchoperations.googleapis.com

Créer un fichier manifeste

Pour utiliser un fichier manifeste pour la sélection d'objets, créez un fichier manifeste.

Créer un job d'opérations Storage par lot

Cette section explique comment créer un job d'opérations de stockage par lot.

Ligne de commande

  1. In the Google Cloud console, activate Cloud Shell.

    Activate Cloud Shell

    At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.

  2. (Facultatif) Exécutez une tâche de simulation. Avant d'exécuter un job, nous vous recommandons de l'exécuter en mode simulation pour vérifier les critères de sélection des objets et rechercher les éventuelles erreurs. L'exécution à blanc ne modifie aucun objet.

    Dans votre environnement de développement, exécutez la commande gcloud storage batch-operations jobs create avec l'option --dry-run :

    gcloud storage batch-operations jobs create DRY_RUN_JOB_NAME --bucket=BUCKET_NAME OBJECT_SELECTION_FLAG JOB_TYPE_FLAG --dry-run

    L'exécution à blanc utilise les mêmes paramètres que le job réel. Pour en savoir plus, consultez les descriptions des paramètres.

    Pour afficher les résultats du dry run, consultez Obtenir des informations sur un job d'opérations Storage par lot.

  3. Une fois la simulation réussie, exécutez la commande gcloud storage batch-operations jobs create.

    gcloud storage batch-operations jobs create JOB_NAME --bucket=BUCKET_NAME OBJECT_SELECTION_FLAG JOB_TYPE_FLAG

    Les paramètres sont les suivants :

    • DRY_RUN_JOB_NAME est le nom de la tâche d'exécution à blanc des opérations Storage par lot.
    • JOB_NAME est le nom du job d'opérations Storage par lot.

    • BUCKET_NAME correspond au nom du bucket contenant un ou plusieurs objets que vous souhaitez traiter.

    • OBJECT_SELECTION_FLAG correspond à l'un des indicateurs suivants que vous devez spécifier :

      • --included-object-prefixes : spécifiez un ou plusieurs préfixes d'objet. Exemple :

        • Pour ne faire correspondre qu'un préfixe, utilisez : --included-object-prefixes='prefix1'.
        • Pour faire correspondre plusieurs préfixes, utilisez une liste de préfixes séparés par une virgule : --included-object-prefixes='prefix1,prefix2'.
        • Pour inclure tous les objets, utilisez un préfixe vide : --included-object-prefixes=''.
      • --manifest-location : spécifiez l'emplacement du manifeste. Par exemple, gs://bucket_name/path/object_name.csv.

    • JOB_TYPE_FLAG correspond à l'un des indicateurs suivants que vous devez spécifier, en fonction du type de job.

      • --delete-object : supprime un ou plusieurs objets.

        • Si la gestion des versions d'objets est activée pour le bucket, les objets actifs passent à l'état obsolète et les objets obsolètes sont ignorés.

        • Si la gestion des versions d'objets est désactivée pour le bucket, l'opération de suppression supprime définitivement les objets et ignore les objets obsolètes.

      • --enable-permanent-object-deletion : supprime définitivement les objets. Utilisez cet indicateur avec l'indicateur --delete-object pour supprimer définitivement les objets actifs et archivés d'un bucket, quelle que soit la configuration de la gestion des versions d'objets du bucket.

      • --put-metadata : mettez à jour les métadonnées de l'objet. Les métadonnées d'objet sont stockées sous forme de paires clé/valeur. Spécifiez la paire clé/valeur des métadonnées que vous souhaitez modifier. Vous pouvez spécifier une ou plusieurs paires clé/valeur sous forme de liste. Vous pouvez également définir des configurations de conservation des objets à l'aide de l'indicateur --put-metadata. Pour ce faire, spécifiez les paramètres de conservation à l'aide des champs Retain-Until et Retention-Mode. Par exemple,

        gcloud storage batch-operations jobs create my-job --bucket=my-bucket --manifest=manifest.csv --put-metadata=Retain-Until=RETAIN_UNTIL_TIME, Retention-Mode=RETENTION_MODE

        Où :

        • RETAIN_UNTIL_TIME correspond à la date et à l'heure (au format RFC 3339) jusqu'à laquelle l'objet est conservé. Exemple : 2025-10-09T10:30:00Z. Pour définir la configuration de conservation d'un objet, vous devez activer la conservation sur le bucket qui contient l'objet.

        • RETENTION_MODE est le mode de conservation (Unlocked ou Locked).

          Lorsque vous envoyez une demande de mise à jour des champs RETENTION_MODE et RETAIN_UNTIL_TIME, tenez compte des points suivants :

          • Pour mettre à jour la configuration de conservation des objets, vous devez fournir des valeurs non vides pour les champs RETENTION_MODE et RETAIN_UNTIL_TIME. Si vous n'en définissez qu'un seul, une erreur INVALID_ARGUMENT se produit.
          • Vous pouvez étendre la valeur RETAIN_UNTIL_TIME pour les objets en mode Unlocked ou Locked.
          • La conservation des objets doit être en mode Unlocked si vous souhaitez effectuer les opérations suivantes :
            • Réduisez la valeur RETAIN_UNTIL_TIME.
            • Supprimez la configuration de la conservation. Pour supprimer la configuration, vous devez fournir des valeurs vides pour les champs RETENTION_MODE et RETAIN_UNTIL_TIME.
          • Si vous omettez les champs RETENTION_MODE et RETAIN_UNTIL_TIME, la configuration de la conservation reste inchangée.

        • --rewrite-object : mettez à jour les clés de chiffrement gérées par le client pour un ou plusieurs objets.

        • --put-object-event-based-hold : activez les retenues d'objets basées sur les événements.

        • --no-put-object-event-based-hold : désactive les retenues d'objets basées sur des événements.

        • --put-object-temporary-hold : active les retenues d'objet temporaires.

        • --no-put-object-temporary-hold : désactive les retenues d'objets temporaires.

          L'exemple suivant montre comment créer un job pour mettre à jour les métadonnées Content-Language sur en pour tous les objets listés dans manifest.csv.

          gcloud storage batch-operations jobs create my-job\
          --bucket=my-bucket\
          --manifest-location=gs://my-bucket/manifest.csv\
          --put-metadata=Content-Language=en
          
    • Bibliothèques clientes

      C++

      Pour en savoir plus, consultez la documentation de référence de l'API Cloud Storage en langage C++.

      Pour vous authentifier auprès de Cloud Storage, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour les bibliothèques clientes.

      [](google::cloud::storagebatchoperations_v1::StorageBatchOperationsClient
             client,
         std::string const& project_id, std::string const& job_id,
         std::string const& target_bucket_name, std::string const& object_prefix) {
        auto const parent =
            std::string{"projects/"} + project_id + "/locations/global";
        namespace sbo = google::cloud::storagebatchoperations::v1;
        sbo::Job job;
        sbo::BucketList* bucket_list = job.mutable_bucket_list();
        sbo::BucketList::Bucket* bucket_config = bucket_list->add_buckets();
        bucket_config->set_bucket(target_bucket_name);
        sbo::PrefixList* prefix_list_config = bucket_config->mutable_prefix_list();
        prefix_list_config->add_included_object_prefixes(object_prefix);
        sbo::DeleteObject* delete_object_config = job.mutable_delete_object();
        delete_object_config->set_permanent_object_deletion_enabled(false);
        auto result = client.CreateJob(parent, job, job_id).get();
        if (!result) throw result.status();
        std::cout << "Created job: " << result->name() << "\n";
      }

      PHP

      Pour en savoir plus, consultez la documentation de référence des API Cloud Storage en langage PHP.

      Pour vous authentifier auprès de Cloud Storage, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour les bibliothèques clientes.

      use Google\Cloud\StorageBatchOperations\V1\Client\StorageBatchOperationsClient;
      use Google\Cloud\StorageBatchOperations\V1\CreateJobRequest;
      use Google\Cloud\StorageBatchOperations\V1\Job;
      use Google\Cloud\StorageBatchOperations\V1\BucketList;
      use Google\Cloud\StorageBatchOperations\V1\BucketList\Bucket;
      use Google\Cloud\StorageBatchOperations\V1\PrefixList;
      use Google\Cloud\StorageBatchOperations\V1\DeleteObject;
      
      /**
       * Create a new batch job.
       *
       * @param string $projectId Your Google Cloud project ID.
       *        (e.g. 'my-project-id')
       * @param string $jobId A unique identifier for this job.
       *        (e.g. '94d60cc1-2d95-41c5-b6e3-ff66cd3532d5')
       * @param string $bucketName The name of your Cloud Storage bucket to operate on.
       *        (e.g. 'my-bucket')
       * @param string $objectPrefix The prefix of objects to include in the operation.
       *        (e.g. 'prefix1')
       */
      function create_job(string $projectId, string $jobId, string $bucketName, string $objectPrefix): void
      {
          // Create a client.
          $storageBatchOperationsClient = new StorageBatchOperationsClient();
      
          $parent = $storageBatchOperationsClient->locationName($projectId, 'global');
      
          $prefixListConfig = new PrefixList(['included_object_prefixes' => [$objectPrefix]]);
          $bucket = new Bucket(['bucket' => $bucketName, 'prefix_list' => $prefixListConfig]);
          $bucketList = new BucketList(['buckets' => [$bucket]]);
      
          $deleteObject = new DeleteObject(['permanent_object_deletion_enabled' => false]);
      
          $job = new Job(['bucket_list' => $bucketList, 'delete_object' => $deleteObject]);
      
          $request = new CreateJobRequest([
              'parent' => $parent,
              'job_id' => $jobId,
              'job' => $job,
          ]);
          $response = $storageBatchOperationsClient->createJob($request);
      
          printf('Created job: %s', $response->getName());
      }

      API REST

      API JSON

      1. Vous devez installer et initialiser la gcloud CLI afin de générer un jeton d'accès pour l'en-tête Authorization.

      2. Créez un fichier JSON contenant les paramètres du job d'opérations par lot Storage. Les paramètres les plus courants sont les suivants :

        {
            "Description": "JOB_DESCRIPTION",
            "BucketList":
            {
            "Buckets":
            [
             {
               "Bucket": "BUCKET_NAME",
               "Manifest": {
                  "manifest_location": "MANIFEST_LOCATION"
                   }
               "PrefixList": {
                  "include_object_prefixes": "OBJECT_PREFIXES"
                   }
             }
            ]
            },
            "DeleteObject":
            {
            "permanent_object_deletion_enabled": OBJECT_DELETION_VALUE
             }
            "RewriteObject": {
              "kms_key":"KMS_KEY_VALUE"
              }
            "PutMetadata":{
              "METADATA_KEY": "METADATA_VALUE",
              ...,
              "objectRetention": {
                  "retainUntilTime": "RETAIN_UNTIL_TIME",
                  "mode": "RETENTION_MODE"
                 }
               }
            "PutObjectHold": {
              "temporary_hold": TEMPORARY_HOLD_VALUE,
              "event_based_hold": EVENT_BASED_HOLD_VALUE
            },
            "dryRun": DRY_RUN_VALUE
            }
             

        Où :

        • JOB_NAME est le nom du job d'opérations Storage par lot.

        • JOB_DESCRIPTION est la description du job d'opérations de stockage par lot.

        • BUCKET_NAME correspond au nom du bucket contenant un ou plusieurs objets que vous souhaitez traiter.

        • Pour spécifier les objets que vous souhaitez traiter, utilisez l'un des attributs suivants dans le fichier JSON :

          • MANIFEST_LOCATION est l'emplacement du fichier manifeste. Par exemple, gs://bucket_name/path/object_name.csv.

          • OBJECT_PREFIXES est une liste séparée par des virgules contenant un ou plusieurs préfixes d'objet. Pour faire correspondre tous les objets, utilisez une liste vide.

        • En fonction du job que vous souhaitez traiter, spécifiez l'une des options suivantes :

          • Supprimer des objets :

            "DeleteObject":
            {
            "permanent_object_deletion_enabled": OBJECT_DELETION_VALUE
            }

            OBJECT_DELETION_VALUE est TRUE pour supprimer des objets.

          • Mettez à jour la clé de chiffrement gérée par le client pour les objets :

            "RewriteObject":
            {
            "kms_key": KMS_KEY_VALUE
            }

            KMS_KEY_VALUE correspond à la valeur de la clé KMS de l'objet que vous souhaitez mettre à jour.

          • Mettez à jour les métadonnées de l'objet :

            "PutMetadata": {
             "METADATA_KEY": "METADATA_VALUE",
             ...,
            "objectRetention": {
               "retainUntilTime": "RETAIN_UNTIL_TIME",
               "mode": "RETENTION_MODE"
             }
            }

            Où :

            • METADATA_KEY/VALUE est la paire clé-valeur des métadonnées de l'objet. Vous pouvez spécifier une ou plusieurs paires.
            • RETAIN_UNTIL_TIME correspond à la date et à l'heure, au format RFC 3339, jusqu'à laquelle l'objet est conservé. Par exemple, 2025-10-09T10:30:00Z. Pour définir la configuration de conservation d'un objet, vous devez activer la conservation sur le bucket qui contient l'objet.
            • RETENTION_MODE est le mode de conservation (Unlocked ou Locked).

              Lorsque vous envoyez une demande de mise à jour des champs RETENTION_MODE et RETAIN_UNTIL_TIME, tenez compte des points suivants :

              • Pour mettre à jour la configuration de conservation des objets, vous devez fournir des valeurs non vides pour les champs RETENTION_MODE et RETAIN_UNTIL_TIME. Si vous n'en définissez qu'un seul, une erreur INVALID_ARGUMENT se produit.
              • Vous pouvez étendre la valeur RETAIN_UNTIL_TIME pour les objets en mode Unlocked ou Locked.
              • La conservation des objets doit être en mode Unlocked si vous souhaitez effectuer les opérations suivantes :
                • Réduisez la valeur RETAIN_UNTIL_TIME.
                • Supprimez la configuration de la conservation. Pour supprimer la configuration, vous devez fournir des valeurs vides pour les champs RETENTION_MODE et RETAIN_UNTIL_TIME.
              • Si vous omettez les champs RETENTION_MODE et RETAIN_UNTIL_TIME, la configuration de la conservation reste inchangée.
            • Mettez à jour les préservations d'objets à titre conservatoire :

              "PutObjectHold": {
              "temporary_hold": TEMPORARY_HOLD_VALUE,
              "event_based_hold": EVENT_BASED_HOLD_VALUE
              }

              Où :

              • TEMPORARY_HOLD_VALUE permet d'activer ou de désactiver la conservation temporaire de l'objet. La valeur 1 active la retenue, tandis que la valeur 2 la désactive.

              • EVENT_BASED_HOLD_VALUE permet d'activer ou de désactiver la préservation d'objet basée sur des événements. La valeur 1 active la retenue, tandis que la valeur 2 la désactive.

          • DRY_RUN_VALUE est une valeur booléenne facultative. Définissez la valeur sur true pour exécuter le job en mode de simulation. La valeur par défaut est false.

        • Exécutez cURL pour appeler l'API JSON avec une requête POST de job d'opérations par lot Storage :

          curl -X POST --data-binary @JSON_FILE_NAME \
           -H "Authorization: Bearer $(gcloud auth print-access-token)" \
           -H "Content-Type: application/json" \
           "https://storagebatchoperations.googleapis.com/v1/projects/PROJECT_ID/locations/global/jobs?job_id=JOB_NAME"

          Où :

          • JSON_FILE_NAME correspond au nom du fichier JSON.
          • PROJECT_ID correspond à l'ID ou au numéro du projet. Exemple :my-project
          • JOB_NAME est le nom du job d'opérations Storage par lot.

Obtenir des informations sur un job d'opérations Storage par lot

Cette section explique comment obtenir des informations sur un job d'opérations Storage par lot.

Ligne de commande

  1. In the Google Cloud console, activate Cloud Shell.

    Activate Cloud Shell

    At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.

  2. Dans votre environnement de développement, exécutez la commande gcloud storage batch-operations jobs describe.

    gcloud storage batch-operations jobs describe JOB_ID

    Où :

    JOB_ID est le nom du job d'opérations Storage par lot.

    Lorsque vous effectuez un test à blanc d'un job, le résultat inclut les champs suivants :

    • totalObjectCount : affiche le nombre d'objets correspondant à vos critères de sélection.
    • errorSummaries : liste les erreurs détectées lors de la simulation, telles que les problèmes d'autorisation ou les configurations non valides.
    • totalBytesFound : si vous utilisez des préfixes d'objet pour la sélection d'objets, le job indique également la taille totale des objets qui seront concernés.

    Si l'opération réussit, la réponse pour le job d'essai à blanc se présente comme suit :

      bucketList:
        buckets:
        - bucket: my-bucket
          manifest:
            manifestLocation: gs://my-bucket/manifest.csv
      completeTime: '2025-10-27T23:56:32Z'
      counters:
        totalObjectCount: '4'
      createTime: '2025-10-27T23:56:22.243528568Z'
      dryRun: true
      name: projects/my-project/locations/global/jobs/my-job
      putMetadata:
        contentLanguage: en
      state: SUCCEEDED
    

    Une réponse de job réussie omet le champ dryRun et renvoie les métriques suivantes dans le champ counters :

    • Nombre total d'objets trouvés.
    • Nombre total d'octets trouvés lors de l'utilisation de préfixes d'objet.
    • Transformations d'objets réussies.
    • Transformations d'objet ayant échoué, le cas échéant.

    La réponse pour une exécution de job réelle ressemble à l'exemple suivant :

      bucketList:
        buckets:
        - bucket: my-bucket
          manifest:
            manifestLocation: gs://my-bucket/manifest.csv
      completeTime: '2025-10-31T20:19:42.357826655Z'
      counters:
        succeededObjectCount: '4'
        totalObjectCount: '4'
      createTime: '2025-10-31T20:19:22.016517077Z'
      name: projects/my-project/locations/global/jobs/my-job
      putMetadata:
        contentLanguage: en
      state: SUCCEEDED
      

  3. Bibliothèques clientes

    C++

    Pour en savoir plus, consultez la documentation de référence de l'API Cloud Storage en langage C++.

    Pour vous authentifier auprès de Cloud Storage, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour les bibliothèques clientes.

    [](google::cloud::storagebatchoperations_v1::StorageBatchOperationsClient
           client,
       std::string const& project_id, std::string const& job_id) {
      auto const parent =
          std::string{"projects/"} + project_id + "/locations/global";
      auto const name = parent + "/jobs/" + job_id;
      auto job = client.GetJob(name);
      if (!job) throw job.status();
      std::cout << "Got job: " << job->name() << "\n";
    }

    PHP

    Pour en savoir plus, consultez la documentation de référence des API Cloud Storage en langage PHP.

    Pour vous authentifier auprès de Cloud Storage, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour les bibliothèques clientes.

    use Google\Cloud\StorageBatchOperations\V1\Client\StorageBatchOperationsClient;
    use Google\Cloud\StorageBatchOperations\V1\GetJobRequest;
    
    /**
     * Gets a batch job.
     *
     * @param string $projectId Your Google Cloud project ID.
     *        (e.g. 'my-project-id')
     * @param string $jobId A unique identifier for this job.
     *        (e.g. '94d60cc1-2d95-41c5-b6e3-ff66cd3532d5')
     */
    function get_job(string $projectId, string $jobId): void
    {
        // Create a client.
        $storageBatchOperationsClient = new StorageBatchOperationsClient();
    
        $parent = $storageBatchOperationsClient->locationName($projectId, 'global');
        $formattedName = $parent . '/jobs/' . $jobId;
    
        $request = new GetJobRequest([
            'name' => $formattedName,
        ]);
    
        $response = $storageBatchOperationsClient->getJob($request);
    
        printf('Got job: %s', $response->getName());
    }

    API REST

    API JSON

    1. Vous devez installer et initialiser la gcloud CLI afin de générer un jeton d'accès pour l'en-tête Authorization.

    2. Utilisez cURL pour appeler l'API JSON avec une requête de tâche d'opérations par lot Storage :GET

      curl -X GET \
        -H "Authorization: Bearer $(gcloud auth print-access-token)" \
        "https://storagebatchoperations.googleapis.com/v1/projects/PROJECT_ID/locations/global/jobs/JOB_ID"

      Où :

      • PROJECT_ID correspond à l'ID ou au numéro du projet. Exemple :my-project
      • JOB_ID est le nom du job d'opérations Storage par lot.

      Lorsque vous effectuez un test à blanc d'un job, le résultat inclut les champs suivants :

      • totalObjectCount : affiche le nombre d'objets correspondant à vos critères de sélection.
      • errorSummaries : liste les erreurs détectées lors de la simulation, telles que les problèmes d'autorisation ou les configurations non valides.
      • totalBytesFound : si vous utilisez des préfixes d'objet pour la sélection d'objets, le job indique également la taille totale des objets qui seront concernés.

      Si l'opération réussit, la réponse pour l'exécution à blanc se présente comme suit :

      {
        "name": "projects/my-project/locations/global/jobs/my-job",
        "description": "dry-run-job",
        "deleteObject": {
          "permanent_object_deletion_enabled": true
           },
        "createTime": "2025-10-28T00:26:53.900882459Z",
        "completeTime": "2025-10-28T00:27:04.101663275Z",
        "counters": {
            "totalObjectCount": "5",
            "totalBytesFound": "203"
          },
        "state": "SUCCEEDED",
        "bucketList": {
          "buckets": [
            {
              "bucket": "my-bucket",
              "prefixList": {
                "includedObjectPrefixes": [
                  ""
                ]
              }
            }
          ]
        },
        "dryRun": true
      }
      

    Une réponse de job réussie omet le champ dryRun et renvoie les métriques suivantes dans le champ counters :

    • Nombre total d'objets trouvés.
    • Nombre total d'octets trouvés lors de l'utilisation de préfixes d'objet.
    • Transformations d'objets réussies.
    • Transformations d'objet ayant échoué, le cas échéant.

      La réponse pour une exécution de job réelle ressemble à l'exemple suivant :

      {
      "name": "my-job",
      "description": "my-delete-objects-job",
      "deleteObject": {
        "permanent_object_deletion_enabled": true
      },
      "createTime": "2025-10-28T00:26:53.900882459Z",
      "completeTime": "2025-10-28T00:27:04.101663275Z",
      "counters": {
        "succeededObjectCount: "5"
        "totalObjectCount": "5",
        "totalBytesFound": "203"
      },
      "state": "SUCCEEDED",
      "bucketList": {
        "buckets": [
          {
            "bucket": "my-bucket",
            "prefixList": {
              "includedObjectPrefixes": [
                ""
              ]
            }
          }
        ]
      }
      }
      

Recenser les jobs d'opérations Storage par lot

Cette section explique comment lister les jobs d'opérations de stockage par lot dans un projet.

Ligne de commande

  1. In the Google Cloud console, activate Cloud Shell.

    Activate Cloud Shell

    At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.

  2. Dans votre environnement de développement, exécutez la commande gcloud storage batch-operations jobs list.

    gcloud storage batch-operations jobs list
  3. Bibliothèques clientes

    C++

    Pour en savoir plus, consultez la documentation de référence de l'API Cloud Storage en langage C++.

    Pour vous authentifier auprès de Cloud Storage, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour les bibliothèques clientes.

    [](google::cloud::storagebatchoperations_v1::StorageBatchOperationsClient
           client,
       std::string const& project_id) {
      auto const parent =
          std::string{"projects/"} + project_id + "/locations/global";
      for (auto const& job : client.ListJobs(parent)) {
        if (!job) throw job.status();
        std::cout << job->name() << "\n";
      }
    }

    PHP

    Pour en savoir plus, consultez la documentation de référence des API Cloud Storage en langage PHP.

    Pour vous authentifier auprès de Cloud Storage, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour les bibliothèques clientes.

    use Google\Cloud\StorageBatchOperations\V1\Client\StorageBatchOperationsClient;
    use Google\Cloud\StorageBatchOperations\V1\ListJobsRequest;
    
    /**
     * List Jobs in a given project.
     *
     * @param string $projectId Your Google Cloud project ID.
     *        (e.g. 'my-project-id')
     */
    function list_jobs(string $projectId): void
    {
        // Create a client.
        $storageBatchOperationsClient = new StorageBatchOperationsClient();
    
        $parent = $storageBatchOperationsClient->locationName($projectId, 'global');
    
        $request = new ListJobsRequest([
            'parent' => $parent,
        ]);
    
        $jobs = $storageBatchOperationsClient->listJobs($request);
    
        foreach ($jobs as $job) {
            printf('Job name: %s' . PHP_EOL, $job->getName());
        }
    }

    API REST

    API JSON

    1. Vous devez installer et initialiser la gcloud CLI afin de générer un jeton d'accès pour l'en-tête Authorization.

    2. Utilisez cURL pour appeler l'API JSON avec une requête LIST storage batch operations jobs :

      curl -X GET \
        -H "Authorization: Bearer $(gcloud auth print-access-token)" \
        "https://storagebatchoperations.googleapis.com/v1/projects/PROJECT_ID/locations/global/jobs"

      Où :

      PROJECT_ID correspond à l'ID ou au numéro du projet. Exemple :my-project

Annuler un job d'opérations Storage par lot

Cette section explique comment annuler une tâche d'opérations par lot de stockage dans un projet.

Ligne de commande

  1. In the Google Cloud console, activate Cloud Shell.

    Activate Cloud Shell

    At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.

  2. Dans votre environnement de développement, exécutez la commande gcloud storage batch-operations jobs cancel.

    gcloud storage batch-operations jobs cancel JOB_ID

    Où :

    JOB_ID est le nom du job d'opérations Storage par lot.

  3. Bibliothèques clientes

    C++

    Pour en savoir plus, consultez la documentation de référence de l'API Cloud Storage en langage C++.

    Pour vous authentifier auprès de Cloud Storage, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour les bibliothèques clientes.

    [](google::cloud::storagebatchoperations_v1::StorageBatchOperationsClient
           client,
       std::string const& project_id, std::string const& job_id) {
      auto const parent =
          std::string{"projects/"} + project_id + "/locations/global";
      auto const name = parent + "/jobs/" + job_id;
      auto response = client.CancelJob(name);
      if (!response) throw response.status();
      std::cout << "Cancelled job: " << name << "\n";
    }

    PHP

    Pour en savoir plus, consultez la documentation de référence des API Cloud Storage en langage PHP.

    Pour vous authentifier auprès de Cloud Storage, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour les bibliothèques clientes.

    use Google\Cloud\StorageBatchOperations\V1\Client\StorageBatchOperationsClient;
    use Google\Cloud\StorageBatchOperations\V1\CancelJobRequest;
    
    /**
     * Cancel a batch job.
     *
     * @param string $projectId Your Google Cloud project ID.
     *        (e.g. 'my-project-id')
     * @param string $jobId A unique identifier for this job.
     *        (e.g. '94d60cc1-2d95-41c5-b6e3-ff66cd3532d5')
     */
    function cancel_job(string $projectId, string $jobId): void
    {
        // Create a client.
        $storageBatchOperationsClient = new StorageBatchOperationsClient();
    
        $parent = $storageBatchOperationsClient->locationName($projectId, 'global');
        $formattedName = $parent . '/jobs/' . $jobId;
    
        $request = new CancelJobRequest([
            'name' => $formattedName,
        ]);
    
        $storageBatchOperationsClient->cancelJob($request);
    
        printf('Cancelled job: %s', $formattedName);
    }

    API REST

    API JSON

    1. Vous devez installer et initialiser la gcloud CLI afin de générer un jeton d'accès pour l'en-tête Authorization.

    2. Utilisez cURL pour appeler l'API JSON avec une requête de job d'opérations par lot Storage :CANCEL

      curl -X CANCEL \
        -H "Authorization: Bearer $(gcloud auth print-access-token)" \
        "https://storagebatchoperations.googleapis.com/v1/projects/PROJECT_ID/locations/global/jobs/JOB_ID"

      Où :

      • PROJECT_ID correspond à l'ID ou au numéro du projet. Exemple :my-project

      • JOB_ID est le nom du job d'opérations Storage par lot.

Job de suppression des opérations Storage par lot

Cette section explique comment supprimer un job d'opérations de stockage par lot.

Ligne de commande

  1. In the Google Cloud console, activate Cloud Shell.

    Activate Cloud Shell

    At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.

  2. Dans votre environnement de développement, exécutez la commande gcloud storage batch-operations jobs delete.

    gcloud storage batch-operations jobs delete JOB_ID

    Où :

    JOB_ID est le nom du job d'opérations Storage par lot.

  3. Bibliothèques clientes

    C++

    Pour en savoir plus, consultez la documentation de référence de l'API Cloud Storage en langage C++.

    Pour vous authentifier auprès de Cloud Storage, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour les bibliothèques clientes.

    [](google::cloud::storagebatchoperations_v1::StorageBatchOperationsClient
           client,
       std::string const& project_id, std::string const& job_id) {
      auto const parent =
          std::string{"projects/"} + project_id + "/locations/global";
      auto const name = parent + "/jobs/" + job_id;
      auto status = client.DeleteJob(name);
      if (!status.ok()) throw status;
      std::cout << "Deleted job: " << name << "\n";
    }

    PHP

    Pour en savoir plus, consultez la documentation de référence des API Cloud Storage en langage PHP.

    Pour vous authentifier auprès de Cloud Storage, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour les bibliothèques clientes.

    use Google\Cloud\StorageBatchOperations\V1\Client\StorageBatchOperationsClient;
    use Google\Cloud\StorageBatchOperations\V1\DeleteJobRequest;
    
    /**
     * Delete a batch job.
     *
     * @param string $projectId Your Google Cloud project ID.
     *        (e.g. 'my-project-id')
     * @param string $jobId A unique identifier for this job.
     *        (e.g. '94d60cc1-2d95-41c5-b6e3-ff66cd3532d5')
     */
    function delete_job(string $projectId, string $jobId): void
    {
        // Create a client.
        $storageBatchOperationsClient = new StorageBatchOperationsClient();
    
        $parent = $storageBatchOperationsClient->locationName($projectId, 'global');
        $formattedName = $parent . '/jobs/' . $jobId;
    
        $request = new DeleteJobRequest([
            'name' => $formattedName,
        ]);
    
        $storageBatchOperationsClient->deleteJob($request);
    
        printf('Deleted job: %s', $formattedName);
    }

    API REST

    API JSON

    1. Vous devez installer et initialiser la gcloud CLI afin de générer un jeton d'accès pour l'en-tête Authorization.

    2. Utilisez cURL pour appeler l'API JSON avec une requête de job d'opérations par lot Storage :DELETE

      curl -X DELETE \
        -H "Authorization: Bearer $(gcloud auth print-access-token)" \
        "https://storagebatchoperations.googleapis.com/v1/projects/PROJECT_ID/locations/global/jobs/JOB_ID"

      Où :

      • PROJECT_ID correspond à l'ID ou au numéro du projet. Exemple :my-project

      • JOB_ID est le nom du job d'opérations Storage par lot.

Créer un job d'opérations Storage par lot à l'aide des ensembles de données Storage Insights

Pour créer un job d'opérations par lot Storage à l'aide d'ensembles de données Storage Insights, suivez la procédure décrite dans les sections suivantes.

Créer un fichier manifeste à l'aide des ensembles de données Storage Insights

Vous pouvez créer le fichier manifeste pour votre tâche d'opérations par lot de stockage en extrayant des données de BigQuery. Pour ce faire, vous devez interroger l'ensemble de données associé, exporter les données obtenues sous forme de fichier CSV et les enregistrer dans un bucket Cloud Storage. La tâche d'opérations par lot Storage peut ensuite utiliser ce fichier CSV comme fichier manifeste.

L'exécution de la requête SQL suivante dans BigQuery sur une vue d'ensemble de données Storage Insights permet de récupérer les objets de plus de 1 Kio nommés Temp_Training :

  EXPORT DATA OPTIONS(
   uri=`URI`,
   format=`CSV`,
   overwrite=OVERWRITE_VALUE,
   field_delimiter=',') AS
  SELECT bucket, name, generation
  FROM DATASET_VIEW_NAME
  WHERE bucket = BUCKET_NAME
  AND name LIKE (`Temp_Training%`)
  AND size > 1024 * 1024
  AND snapshotTime = SNAPSHOT_TIME
  

Où :

  • URI correspond à l'URI du bucket contenant le fichier manifeste. Exemple :gs://bucket_name/path_to_csv_file/*.csv Lorsque vous utilisez le caractère générique *.csv, BigQuery exporte le résultat dans plusieurs fichiers CSV.
  • OVERWRITE_VALUE est une valeur booléenne. Si la valeur est définie sur true, l'opération d'exportation écrase les fichiers existants à l'emplacement spécifié.
  • DATASET_VIEW_NAME est le nom complet de la vue de l'ensemble de données Storage Insights au format PROJECT_ID.DATASET_ID.VIEW_NAME. Pour trouver le nom de votre ensemble de données, affichez l'ensemble de données associé.

    Où :

    • PROJECT_ID correspond à l'ID ou au numéro du projet. Exemple :my-project
    • DATASET_ID est le nom de l'ensemble de données. Exemple :objects-deletion-dataset
    • VIEW_NAME est le nom de la vue de l'ensemble de données. Exemple :bucket_attributes_view
  • BUCKET_NAME est le nom du bucket. Exemple :my-bucket

  • SNAPSHOT_TIME correspond à l'heure de l'instantané de la vue de l'ensemble de données Storage Insights. Exemple :2024-09-10T00:00:00Z

Créer un job d'opérations Storage par lot

Pour créer un job d'opérations de stockage par lot afin de traiter les objets contenus dans le fichier manifeste, procédez comme suit :

Ligne de commande

  1. In the Google Cloud console, activate Cloud Shell.

    Activate Cloud Shell

    At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.

  2. Dans votre environnement de développement, exécutez la commande gcloud storage batch-operations jobs create :

    gcloud storage batch-operations jobs create \
    JOB_ID \
    --bucket=SOURCE_BUCKET_NAME \
    --manifest-location=URI \
    --JOB_TYPE_FLAG

    Où :

    • JOB_ID est le nom du job d'opérations Storage par lot.

    • SOURCE_BUCKET_NAME est le bucket contenant un ou plusieurs objets que vous souhaitez traiter. Exemple :my-bucket

    • URI correspond à l'URI du bucket contenant le fichier manifeste. Exemple :gs://bucket_name/path_to_csv_file/*.csv Lorsque vous utilisez le caractère générique *.csv, BigQuery exporte le résultat dans plusieurs fichiers CSV.

    • JOB_TYPE_FLAG correspond à l'un des flags suivants, en fonction du type de job.

      • --delete-object : supprime un ou plusieurs objets.

      • --put-metadata : mettez à jour les métadonnées de l'objet. Les métadonnées d'objet sont stockées sous forme de paires clé/valeur. Spécifiez la paire clé/valeur des métadonnées que vous souhaitez modifier. Vous pouvez spécifier une ou plusieurs paires clé/valeur sous forme de liste. Vous pouvez également fournir des configurations de conservation des objets à l'aide de l'indicateur --put-metadata.

      • --rewrite-object : mettez à jour les clés de chiffrement gérées par le client pour un ou plusieurs objets.

      • --put-object-event-based-hold : activez les retenues d'objets basées sur les événements.

      • --no-put-object-event-based-hold : désactive les retenues d'objets basées sur des événements.

      • --put-object-temporary-hold : active les retenues d'objet temporaires.

      • --no-put-object-temporary-hold : désactive les retenues d'objets temporaires.

Intégration à VPC Service Controls

Vous pouvez fournir un niveau de sécurité supplémentaire pour les ressources des opérations par lot de stockage à l'aide de VPC Service Controls. Lorsque vous utilisez VPC Service Controls, vous ajoutez des projets aux périmètres de service afin de protéger les ressources et les services des requêtes provenant de l'extérieur du périmètre. Pour en savoir plus sur les détails du périmètre de service VPC Service Controls pour les opérations par lot de stockage, consultez Produits compatibles et limites.

Utiliser Cloud Audit Logs pour les jobs d'opérations de stockage par lot

Les jobs d'opérations de stockage par lot enregistrent les transformations apportées aux objets Cloud Storage dans les journaux d'audit Cloud Storage. Vous pouvez utiliser Cloud Audit Logs avec Cloud Storage pour suivre les transformations d'objets effectuées par les tâches d'opérations de stockage par lot. Pour savoir comment activer les journaux d'audit, consultez Activer les journaux d'audit. Dans l'entrée du journal d'audit, le champ de métadonnées callUserAgent avec la valeur StorageBatchOperations indique une transformation des opérations par lot de stockage.

Étapes suivantes