Ce document explique comment créer des instances de machines virtuelles (VM) par lot qui utilisent des types de machines A4X. Pour en savoir plus sur ce type de machine optimisé pour les accélérateurs, consultez A4X.
Pour découvrir d'autres méthodes de création de VM ou de clusters, consultez Présentation des options de déploiement.
Limites
Lorsque vous créez des VM A4X de manière groupée, les limites suivantes s'appliquent :
- Vous ne bénéficiez ni de remises automatiques proportionnelles à une utilisation soutenue ni de remises sur engagement d'utilisation flexible pour les instances qui utilisent ces types de machines. De plus, les types de machines A4X Max ne sont pas compatibles avec les remises sur engagement d'utilisation basées sur les ressources.
- Vous ne pouvez créer des instances que dans certaines régions et zones.
- Vous ne pouvez pas utiliser de disque persistant (régional ou zonal). Vous ne pouvez utiliser que Google Cloud Hyperdisk.
- Ces types de machines ne sont disponibles que sur la plate-forme NVIDIA Grace.
- Il n'est pas possible de modifier le type de machine pour les instances A4X Max ou A4X. Pour passer à l'un de ces types de machines ou en changer, vous devez créer une instance A4X Max ou A4X.
- Vous ne pouvez pas exécuter de systèmes d'exploitation Windows sur ces types de machines.
- Pour les instances A4X, lorsque vous utilisez
ethtool -Spour surveiller la mise en réseau des GPU, les compteurs de ports physiques se terminant par_phyne sont pas mis à jour. Il s'agit du comportement attendu pour les instances qui utilisent l'architecture de fonction virtuelle (VF) MRDMA. Pour en savoir plus, consultez Fonctions MRDMA et outils de surveillance du réseau. - Les instances A4X Max et A4X ne prennent pas en charge les éléments suivants :
- La location unique
- Les VM Spot
- Les VM à démarrage flexible
- Vous ne pouvez pas associer les disques Hyperdisk ML créés avant le 4 février 2026 aux types de machines A4X.
Avant de commencer
Avant de créer des VM de manière groupée, si vous ne l'avez pas déjà fait, procédez comme suit :
- Choisissez une option de consommation : l'option de consommation que vous choisissez détermine comment vous obtenez et utilisez les ressources GPU.
Pour en savoir plus, consultez Choisir une option de consommation.
- Obtenir de la capacité : le processus d'obtention de la capacité diffère pour chaque option de consommation.
Pour en savoir plus sur la procédure à suivre pour obtenir de la capacité pour l'option de consommation choisie, consultez Présentation de la capacité.
Select the tab for how you plan to use the samples on this page:
Console
When you use the Google Cloud console to access Google Cloud services and APIs, you don't need to set up authentication.
gcloud
In the Google Cloud console, activate Cloud Shell.
At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.
REST
Pour utiliser les exemples d'API REST de cette page dans un environnement de développement local, vous devez utiliser les identifiants que vous fournissez à gcloud CLI.
Install the Google Cloud CLI. After installation, initialize the Google Cloud CLI by running the following command:
gcloud initIf you're using an external identity provider (IdP), you must first sign in to the gcloud CLI with your federated identity.
Pour en savoir plus, consultez la section S'authentifier pour utiliser REST dans la documentation sur l'authentification Google Cloud .
Rôles requis
Pour obtenir les autorisations nécessaires à la création de VM de manière groupée, demandez à votre administrateur de vous attribuer le rôle IAM Administrateur d'instances Compute (v1) (roles/compute.instanceAdmin.v1) sur le projet.
Pour en savoir plus sur l'attribution de rôles, consultez Gérer l'accès aux projets, aux dossiers et aux organisations.
Ce rôle prédéfini contient les autorisations requises pour créer des VM de manière groupée. Pour connaître les autorisations exactes requises, développez la section Autorisations requises :
Autorisations requises
Les autorisations suivantes sont requises pour créer des VM de manière groupée :
compute.instances.createsur le projet-
Pour créer la VM à l'aide d'une image personnalisée :
compute.images.useReadOnlysur l'image -
Pour créer la VM à l'aide d'un instantané :
compute.snapshots.useReadOnlysur l'instantané -
Pour créer la VM à l'aide d'un modèle d'instance :
compute.instanceTemplates.useReadOnlysur le modèle d'instance -
Pour spécifier un sous-réseau pour la VM :
compute.subnetworks.usesur le projet ou sur le sous-réseau choisi -
Pour spécifier une adresse IP statique pour la VM :
compute.addresses.usesur le projet -
Pour attribuer une adresse IP externe à la VM en cas d'utilisation d'un réseau VPC :
compute.subnetworks.useExternalIpsur le projet ou sur le sous-réseau choisi -
Pour attribuer un ancien réseau à la VM :
compute.networks.usesur le projet -
Pour attribuer une adresse IP externe à la VM en cas d'utilisation d'un ancien réseau :
compute.networks.useExternalIpsur le projet -
Pour définir les métadonnées d'instance de VM pour la VM :
compute.instances.setMetadatasur le projet -
Pour définir des tags pour la VM :
compute.instances.setTagssur la VM -
Pour définir des étiquettes pour la VM :
compute.instances.setLabelssur la VM -
Pour définir un compte de service que doit utiliser la VM :
compute.instances.setServiceAccountsur la VM -
Pour créer un disque pour la VM :
compute.disks.createsur le projet -
Pour associer un disque existant en mode lecture seule ou en mode lecture-écriture :
compute.disks.usesur le disque -
Pour associer un disque existant en mode lecture seule :
compute.disks.useReadOnlysur le disque
Vous pouvez également obtenir ces autorisations avec des rôles personnalisés ou d'autres rôles prédéfinis.
Principes de base d'A4X
Un cluster A4X est organisé en une hiérarchie de blocs et de sous-blocs pour faciliter les performances réseau à grande échelle et sans blocage. Il est essentiel de comprendre cette topologie lorsque vous réservez de la capacité et déployez des charges de travail.
- Instance A4X
- Une instance A4X est un type de machine A4X unique auquel sont associés quatre GPU.
- Domaine ou sous-bloc NVLink
- Un domaine NVLink, également appelé sous-bloc, est l'unité fondamentale de la capacité A4X. Un domaine NVLink se compose de 18 instances A4X (72 GPU) connectées à l'aide d'un système NVLink multinœud. Vous pouvez créer un domaine ou un sous-bloc A4X NVLink en appliquant une stratégie de concentration qui spécifie une topologie
1x72. - Bloquer
- Un bloc A4X est composé de 25 sous-blocs (domaines NVLink), pour un total de 450 instances A4X (1 800 GPU). Les sous-blocs sont alignés sur les rails pour une mise à l'échelle efficace. Chaque sous-bloc nécessite une règle d'emplacement compacte. Par conséquent, pour un seul bloc A4X, vous pouvez créer 25 stratégies d'emplacement compact.
Le tableau suivant présente les options de topologie compatibles pour les instances A4X :
Topologie (gpuTopology) |
Number of GPUs | Nombre d'instances |
|---|---|---|
1x72 |
72 | 18 |
Présentation
La création d'instances par lot avec le type de machine A4X comprend les étapes suivantes :
Créer des réseaux VPC
Pour configurer le réseau pour le type de machine A4X, créez trois réseaux VPC pour les interfaces réseau suivantes :
- Deux réseaux VPC standards pour les interfaces réseau gVNIC. Celles-ci sont utilisées pour la communication d'hôte à hôte.
- Un réseau VPC avec le profil réseau RoCE est requis pour les cartes d'interface réseau CX-7 lorsque vous créez plusieurs sous-blocs A4X. Le réseau VPC RoCE doit comporter quatre sous-réseaux, un pour chaque carte d'interface réseau CX-7. Ces cartes réseau utilisent RDMA over Converged Ethernet (RoCE), qui fournit la communication à bande passante élevée et à faible latence essentielle pour l'évolutivité vers plusieurs sous-blocs A4X. Pour un seul sous-bloc A4X, vous pouvez ignorer ce réseau VPC, car la communication directe entre GPU au sein d'un même sous-bloc est gérée par le NVLink multinœud.
Pour en savoir plus sur la configuration des cartes d'interface réseau, consultez Examiner la bande passante réseau et la configuration des cartes d'interface réseau.
Créez les réseaux manuellement en suivant les guides d'instructions ou automatiquement à l'aide du script fourni.
Guides d'instructions
Pour créer les réseaux, vous pouvez suivre les instructions suivantes :
- Pour créer les réseaux VPC standards pour les gVNIC, consultez Créer et gérer des réseaux de cloud privé virtuel.
- Pour créer le réseau VPC RoCE, consultez Créer un réseau de cloud privé virtuel pour les cartes d'interface réseau RDMA.
Pour ces réseaux VPC, nous vous recommandons de définir l'unité de transmission maximale (MTU) sur une valeur plus élevée.
Pour le type de machine A4X, la MTU recommandée est de 8896 octets.
Pour connaître les paramètres MTU recommandés pour les autres types de machines GPU, consultez Paramètres MTU pour les types de machines GPU.
Script
Pour créer les réseaux, procédez comme suit.
Pour ces réseaux VPC, nous vous recommandons de définir l'unité de transmission maximale (MTU) sur une valeur plus élevée.
Pour le type de machine A4X, la MTU recommandée est de 8896 octets.
Pour connaître les paramètres MTU recommandés pour les autres types de machines GPU, consultez Paramètres MTU pour les types de machines GPU.
Utilisez le script suivant pour créer des réseaux VPC standards pour les gVNIC.
#!/bin/bash # Create regular VPC networks and subnets for the gVNICs for N in $(seq 0 1); do gcloud compute networks create GVNIC_NAME_PREFIX-net-$N \ --subnet-mode=custom \ --mtu=8896 gcloud compute networks subnets create GVNIC_NAME_PREFIX-sub-$N \ --network=GVNIC_NAME_PREFIX-net-$N \ --region=REGION \ --range=192.168.$N.0/24 gcloud compute firewall-rules create GVNIC_NAME_PREFIX-internal-$N \ --network=GVNIC_NAME_PREFIX-net-$N \ --action=ALLOW \ --rules=tcp:0-65535,udp:0-65535,icmp \ --source-ranges=192.168.0.0/16 done # Create SSH firewall rules gcloud compute firewall-rules create GVNIC_NAME_PREFIX-ssh \ --network=GVNIC_NAME_PREFIX-net-0 \ --action=ALLOW \ --rules=tcp:22 \ --source-ranges=IP_RANGE # Assumes that an external IP is only created for vNIC 0 gcloud compute firewall-rules create GVNIC_NAME_PREFIX-allow-ping-net-0 \ --network=GVNIC_NAME_PREFIX-net-0 \ --action=ALLOW \ --rules=icmp \ --source-ranges=IP_RANGESi vous avez besoin de plusieurs sous-blocs A4X, utilisez le script suivant pour créer le réseau VPC RoCE et les sous-réseaux pour les quatre cartes réseau CX-7 sur chaque instance A4X.
# List and make sure network profiles exist in the machine type's zone gcloud compute network-profiles list --filter "location.name=ZONE" # Create network for CX-7 gcloud compute networks create RDMA_NAME_PREFIX-mrdma \ --network-profile=ZONE-vpc-roce \ --subnet-mode custom \ --mtu=8896 # Create subnets for N in $(seq 0 3); do gcloud compute networks subnets create RDMA_NAME_PREFIX-mrdma-sub-$N \ --network=RDMA_NAME_PREFIX-mrdma \ --region=REGION \ --range=192.168.$((N+2)).0/24 & # offset to avoid overlap with gVNICs doneRemplacez les éléments suivants :
GVNIC_NAME_PREFIX: préfixe de nom personnalisé à utiliser pour les réseaux et sous-réseaux VPC standards des cartes gVNIC.RDMA_NAME_PREFIX: préfixe de nom personnalisé à utiliser pour le réseau et les sous-réseaux VPC RoCE pour les cartes réseau CX-7.ZONE: spécifiez une zone dans laquelle le type de machine que vous souhaitez utiliser est disponible, par exempleus-central1-a. Pour en savoir plus sur les régions, consultez Disponibilité des GPU par région et par zone.REGION: région dans laquelle vous souhaitez créer des sous-réseaux. Cette région doit correspondre à la zone spécifiée. Par exemple, si votre zone estus-central1-a, votre région estus-central1.IP_RANGE: plage d'adresses IP à utiliser pour les règles de pare-feu SSH.
- Facultatif : Pour vérifier que les ressources du réseau VPC ont bien été créées, vérifiez les paramètres réseau dans la console Google Cloud :
- Dans la console Google Cloud , accédez à la page Réseaux VPC.
- Recherchez dans la liste les réseaux que vous avez créés à l'étape précédente.
- Pour afficher les sous-réseaux, les règles de pare-feu et les autres paramètres réseau, cliquez sur le nom du réseau.
Créer une stratégie de concentration
Pour créer une stratégie de concentration, sélectionnez l'une des options suivantes :gcloud
Pour créer une stratégie de concentration, utilisez la
commande gcloud beta compute resource-policies create group-placement :
gcloud beta compute resource-policies create group-placement POLICY_NAME \
--collocation=collocated \
--gpu-topology=1x72 \
--region=REGION
Remplacez les éléments suivants :
POLICY_NAME: nom de la stratégie d'emplacement compact.REGION: région dans laquelle vous souhaitez créer la stratégie de concentration. Spécifiez une région dans laquelle le type de machine que vous souhaitez utiliser est disponible. Pour en savoir plus sur les régions, consultez Disponibilité des GPU par région et par zone.
REST
Pour créer une stratégie de concentration, envoyez une requête POST à la méthode resourcePolicies.insert en version bêta.
POST https://compute.googleapis.com/compute/beta/projects/PROJECT_ID/regions/REGION/resourcePolicies
{
"name": "POLICY_NAME",
"groupPlacementPolicy": {
"collocation": "COLLOCATED",
"gpuTopology": "1x72"
}
}
Remplacez les éléments suivants :
PROJECT_ID: ID de votre projetPOLICY_NAME: nom de la stratégie d'emplacement compact.REGION: région dans laquelle vous souhaitez créer la stratégie de concentration. Spécifiez une région dans laquelle le type de machine que vous souhaitez utiliser est disponible. Pour en savoir plus sur les régions, consultez Disponibilité des GPU par région et par zone.
Créer des instances A4X de manière groupée
Pour obtenir une topologie de GPU de 1x72, créez 18 instances. Lorsque vous créez les instances, appliquez la stratégie de concentration qui spécifie le champ gpuTopology. L'application de la règle garantit que Compute Engine crée les 18 instances dans un sous-bloc pour utiliser un domaine NVLink.
Si un sous-bloc ne dispose pas de la capacité nécessaire pour les 18 instances, la création groupée échoue et aucune instance n'est créée.
Si votre charge de travail peut fonctionner avec moins de 18 instances, vous pouvez définir le champ minCount sur le nombre minimal d'instances requis pour votre charge de travail. Si vous souhaitez utiliser la capacité disponible, définissez le champ minCount sur 1.
Pour créer des instances A4X de manière groupée, sélectionnez l'une des options suivantes.
Les commandes suivantes définissent également le niveau d'accès pour vos instances. Pour simplifier la gestion des autorisations, Google vous recommande de définir le niveau d'accès d'une instance surcloud-platform, puis d'utiliser des rôles IAM pour définir les services auxquels l'instance peut accéder. Pour en savoir plus, consultez les bonnes pratiques concernant les niveaux d'accès.
gcloud
Pour créer des VM de manière groupée, utilisez la
commande gcloud compute instances bulk create.
gcloud compute instances bulk create \
--name-pattern=NAME_PATTERN \
--count=COUNT \
--machine-type=a4x-highgpu-4g \
--image-family=IMAGE_FAMILY \
--image-project=IMAGE_PROJECT \
--region=REGION \
--boot-disk-type=hyperdisk-balanced \
--boot-disk-size=DISK_SIZE \
--scopes=cloud-platform \
--network-interface=nic-type=GVNIC,network=GVNIC_NAME_PREFIX-net-0,subnet=GVNIC_NAME_PREFIX-sub-0 \
--network-interface=nic-type=GVNIC,network=GVNIC_NAME_PREFIX-net-1,subnet=GVNIC_NAME_PREFIX-sub-1,no-address \
--network-interface=nic-type=MRDMA,network=RDMA_NAME_PREFIX-mrdma,subnet=RDMA_NAME_PREFIX-mrdma-sub-0,no-address \
--network-interface=nic-type=MRDMA,network=RDMA_NAME_PREFIX-mrdma,subnet=RDMA_NAME_PREFIX-mrdma-sub-1,no-address \
--network-interface=nic-type=MRDMA,network=RDMA_NAME_PREFIX-mrdma,subnet=RDMA_NAME_PREFIX-mrdma-sub-2,no-address \
--network-interface=nic-type=MRDMA,network=RDMA_NAME_PREFIX-mrdma,subnet=RDMA_NAME_PREFIX-mrdma-sub-3,no-address \
--reservation-affinity=specific \
--reservation=RESERVATION \
--provisioning-model=RESERVATION_BOUND \
--instance-termination-action=TERMINATION_ACTION \
--maintenance-policy=TERMINATE \
--restart-on-failure \
--resource-policies=POLICY_NAME
Remplacez les éléments suivants :
NAME_PATTERN: modèle de nom des VM. Par exemple, le modèle de nomvm-#génère des VM portant les nomsvm-1etvm-2, jusqu'à ce qu'il atteigne le nombre de VM spécifié par--count.COUNT: nombre de VM à créer.IMAGE_FAMILY: famille d'images à laquelle appartient l'image de l'OS que vous souhaitez utiliser. Pour obtenir la liste des systèmes d'exploitation compatibles, consultez la page Systèmes d'exploitation compatibles.IMAGE_PROJECT: ID du projet de l'image de l'OS.REGION: spécifiez une région dans laquelle le type de machine que vous souhaitez utiliser est disponible. Vous devez utiliser la même région que la stratégie de concentration. Pour en savoir plus sur les régions, consultez Disponibilité des GPU par région et par zone.DISK_SIZE: taille du disque de démarrage en Go.GVNIC_NAME_PREFIX: préfixe de nom que vous avez spécifié lors de la création des réseaux et sous-réseaux VPC standards qui utilisent des cartes d'interface réseau gVNIC.RDMA_NAME_PREFIX: préfixe de nom que vous avez spécifié lors de la création des réseaux et sous-réseaux VPC qui utilisent des cartes d'interface réseau RDMA.-
RESERVATION: nom de la réservation, d'un bloc ou d'un sous-bloc dans une réservation. Pour obtenir le nom de la réservation ou les blocs disponibles, consultez Afficher la capacité réservée. En fonction de vos exigences concernant l'emplacement des instances, choisissez l'une des options suivantes :- Pour créer les instances sur un bloc :
projects/RESERVATION_OWNER_PROJECT_ID/reservations/RESERVATION_NAME - Pour créer les instances sur un bloc spécifique :
projects/RESERVATION_OWNER_PROJECT_ID/reservations/RESERVATION_NAME/reservationBlocks/RESERVATION_BLOCK_NAME - Pour créer les instances dans un sous-bloc spécifique :
projects/RESERVATION_OWNER_PROJECT_ID/reservations/RESERVATION_NAME/reservationBlocks/RESERVATION_BLOCK_NAME/reservationSubBlocks/RESERVATION_SUBBLOCK_NAME
- Pour créer les instances sur un bloc :
TERMINATION_ACTION: indique si Compute Engine arrête (STOP) ou supprime (DELETE) la VM à la fin de la période de réservation.POLICY_NAME: nom de la stratégie d'emplacement compact.
REST
Pour créer des VM de manière groupée, envoyez une requête POST à la
méthode instances.bulkInsert.
POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/zones/ZONE/instances/bulkInsert
{
"namePattern":"NAME_PATTERN",
"count":"COUNT",
"instanceProperties":{
"machineType":"a4x-highgpu-4g",
"disks":[
{
"boot":true,
"initializeParams":{
"diskSizeGb":"DISK_SIZE",
"diskType":"hyperdisk-balanced",
"sourceImage":"projects/IMAGE_PROJECT/global/images/family/IMAGE_FAMILY"
},
"mode":"READ_WRITE",
"type":"PERSISTENT"
}
],
"serviceAccounts": [
{
"email": "default",
"scopes": [
"https://www.googleapis.com/auth/cloud-platform"
]
}
],
"networkInterfaces": [
{
"accessConfigs": [
{
"name": "external-nat",
"type": "ONE_TO_ONE_NAT"
}
],
"network": "projects/NETWORK_PROJECT_ID/global/networks/GVNIC_NAME_PREFIX-net-0",
"nicType": "GVNIC",
"subnetwork": "projects/NETWORK_PROJECT_ID/region/REGION/subnetworks/GVNIC_NAME_PREFIX-sub-0"
},
{
"network": "projects/NETWORK_PROJECT_ID/global/networks/GVNIC_NAME_PREFIX-net-1",
"nicType": "GVNIC",
"subnetwork": "projects/NETWORK_PROJECT_ID/region/REGION/subnetworks/GVNIC_NAME_PREFIX-sub-1"
},
{
"network": "projects/NETWORK_PROJECT_ID/global/networks/RDMA_NAME_PREFIX-mrdma",
"nicType": "MRDMA",
"subnetwork": "projects/NETWORK_PROJECT_ID/region/REGION/subnetworks/RDMA_NAME_PREFIX-mrdma-sub-0"
},
{
"network": "projects/NETWORK_PROJECT_ID/global/networks/RDMA_NAME_PREFIX-mrdma",
"nicType": "MRDMA",
"subnetwork": "projects/NETWORK_PROJECT_ID/region/REGION/subnetworks/RDMA_NAME_PREFIX-mrdma-sub-1"
},
{
"network": "projects/NETWORK_PROJECT_ID/global/networks/RDMA_NAME_PREFIX-mrdma",
"nicType": "MRDMA",
"subnetwork": "projects/NETWORK_PROJECT_ID/region/REGION/subnetworks/RDMA_NAME_PREFIX-mrdma-sub-2"
},
{
"network": "projects/NETWORK_PROJECT_ID/global/networks/RDMA_NAME_PREFIX-mrdma",
"nicType": "MRDMA",
"subnetwork": "projects/NETWORK_PROJECT_ID/region/REGION/subnetworks/RDMA_NAME_PREFIX-mrdma-sub-3"
}
],
"reservationAffinity":{
"consumeReservationType":"SPECIFIC_RESERVATION",
"key":"compute.googleapis.com/reservation-name",
"values":[
"RESERVATION"
]
},
"scheduling":{
"provisioningModel":"RESERVATION_BOUND",
"instanceTerminationAction":"DELETE",
"onHostMaintenance": "TERMINATE",
"automaticRestart":true
},
"resourcePolicies": [
"projects/PROJECT_ID/regions/REGION/resourcePolicies/POLICY_NAME"
]
}
}
Remplacez les éléments suivants :
PROJECT_ID: ID du projet dans lequel vous souhaitez créer la VM.ZONE: spécifiez une zone dans laquelle le type de machine que vous souhaitez utiliser est disponible. Vous devez utiliser une zone située dans la même région que la stratégie d'emplacement compact. Pour en savoir plus sur les régions, consultez Disponibilité des GPU par région et par zone.NAME_PATTERN: modèle de nom des VM. Par exemple, le modèle de nomvm-#génère des VM portant les nomsvm-1etvm-2, jusqu'à ce qu'il atteigne le nombre de VM spécifié par--count.COUNT: nombre de VM à créer.VM_NAME: Nom de la VM.DISK_SIZE: taille du disque de démarrage en Go.IMAGE_PROJECT: ID du projet de l'image de l'OS.IMAGE_FAMILY: famille d'images à laquelle appartient l'image de l'OS que vous souhaitez utiliser. Pour obtenir la liste des systèmes d'exploitation compatibles, consultez la page Systèmes d'exploitation compatibles.NETWORK_PROJECT_ID: ID du projet du réseau.GVNIC_NAME_PREFIX: préfixe de nom que vous avez spécifié lors de la création des réseaux et sous-réseaux VPC standards qui utilisent des cartes d'interface réseau gVNIC.REGION: région du sous-réseau.RDMA_NAME_PREFIX: préfixe de nom que vous avez spécifié lors de la création des réseaux et sous-réseaux VPC qui utilisent des cartes d'interface réseau RDMA.-
RESERVATION: nom de la réservation, d'un bloc ou d'un sous-bloc dans une réservation. Pour obtenir le nom de la réservation ou les blocs disponibles, consultez Afficher la capacité réservée. En fonction de vos exigences concernant l'emplacement des instances, choisissez l'une des options suivantes :- Pour créer les instances sur un bloc :
projects/RESERVATION_OWNER_PROJECT_ID/reservations/RESERVATION_NAME - Pour créer les instances sur un bloc spécifique :
projects/RESERVATION_OWNER_PROJECT_ID/reservations/RESERVATION_NAME/reservationBlocks/RESERVATION_BLOCK_NAME - Pour créer les instances dans un sous-bloc spécifique :
projects/RESERVATION_OWNER_PROJECT_ID/reservations/RESERVATION_NAME/reservationBlocks/RESERVATION_BLOCK_NAME/reservationSubBlocks/RESERVATION_SUBBLOCK_NAME
- Pour créer les instances sur un bloc :
TERMINATION_ACTION: indique si Compute Engine arrête (STOP) ou supprime (DELETE) la VM à la fin de la période de réservation.PROJECT_ID: ID du projet de la stratégie d'emplacement compact.REGION: région de la stratégie d'emplacement compact.POLICY_NAME: nom de la stratégie d'emplacement compact.
Pour en savoir plus sur les options de configuration permettant de créer des VM de manière groupée, consultez Créer des VM de manière groupée dans la documentation Compute Engine.
Étapes suivantes
- Présentation de l'exécution des charges de travail
- Résoudre les problèmes de consommation de réservations
- Afficher la topologie d'une instance de calcul
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2026/02/24 (UTC).