Ce document explique comment créer un groupe d'instances géré (MIG) qui utilise des types de machines A4X. Pour en savoir plus sur ce type de machine optimisé pour les accélérateurs, consultez A4X.
Créez un MIG si vous souhaitez gérer plusieurs machines virtuelles (VM) comme une seule entité. Pour en savoir plus sur les MIG, consultez Groupes d'instances gérés dans la documentation Compute Engine.
Pour découvrir d'autres méthodes de création de VM ou de clusters, consultez Présentation des options de déploiement.
Limites
Lorsque vous créez un MIG avec des VM A4X, tenez compte des limites applicables au type de machine et au MIG.
Limites pour les VM A4X
Les limites suivantes s'appliquent aux machines :
- Vous ne bénéficiez ni de remises automatiques proportionnelles à une utilisation soutenue ni de remises sur engagement d'utilisation flexible pour les instances qui utilisent ces types de machines. De plus, les types de machines A4X Max ne sont pas compatibles avec les remises sur engagement d'utilisation basées sur les ressources.
- Vous ne pouvez créer des instances que dans certaines régions et zones.
- Vous ne pouvez pas utiliser de disque persistant (régional ou zonal). Vous ne pouvez utiliser que Google Cloud Hyperdisk.
- Ces types de machines ne sont disponibles que sur la plate-forme NVIDIA Grace.
- Il n'est pas possible de modifier le type de machine pour les instances A4X Max ou A4X. Pour passer à l'un de ces types de machines ou en changer, vous devez créer une instance A4X Max ou A4X.
- Vous ne pouvez pas exécuter de systèmes d'exploitation Windows sur ces types de machines.
- Pour les instances A4X, lorsque vous utilisez
ethtool -Spour surveiller la mise en réseau des GPU, les compteurs de ports physiques se terminant par_phyne sont pas mis à jour. Il s'agit du comportement attendu pour les instances qui utilisent l'architecture de fonction virtuelle (VF) MRDMA. Pour en savoir plus, consultez Fonctions MRDMA et outils de surveillance du réseau. - Les instances A4X Max et A4X ne prennent pas en charge les éléments suivants :
- La location unique
- Les VM Spot
- Les VM à démarrage flexible
- Vous ne pouvez pas associer les disques Hyperdisk ML créés avant le 4 février 2026 aux types de machines A4X.
Limites du MIG
Lorsque vous créez un MIG avec des VM A4X, les limites suivantes s'appliquent :
Si vous créez un MIG régional, il ne pourra créer des VM que dans la zone contenant le profil de votre réseau VPC.
Vous ne pouvez pas configurer la flexibilité des instances dans le MIG.
Si vous appliquez une règle de charge de travail à un MIG, vous ne pouvez pas la modifier dans le MIG lorsque le groupe contient des VM. Pour modifier la règle dans un MIG comportant des VM, vous devez d'abord redimensionner le MIG à zéro.
Vous ne pouvez pas utiliser un modèle d'instance qui spécifie une règle d'emplacement pour créer un MIG qui utilise une règle de charge de travail.
Vous devez utiliser le modèle de provisionnement lié à la réservation. Les autres modèles de provisionnement ne sont pas acceptés.
Vous ne pouvez pas utiliser de requête de redimensionnement pour ajouter des VM au MIG. Vous devez définir la taille cible du MIG pour ajouter des VM.
Avant de commencer
Avant de créer un MIG, si vous ne l'avez pas déjà fait, procédez comme suit :
- Choisissez une option de consommation : l'option de consommation que vous choisissez détermine comment vous obtenez et utilisez les ressources GPU.
Pour en savoir plus, consultez Choisir une option de consommation.
- Obtenir de la capacité : le processus d'obtention de la capacité diffère pour chaque option de consommation.
Pour en savoir plus sur la procédure à suivre pour obtenir de la capacité pour l'option de consommation choisie, consultez Présentation de la capacité.
Rôles requis
Pour obtenir les autorisations nécessaires à la création d'un MIG, demandez à votre administrateur de vous attribuer le rôle IAM Administrateur d'instances Compute (v1) (roles/compute.instanceAdmin.v1) sur le projet.
Pour en savoir plus sur l'attribution de rôles, consultez Gérer l'accès aux projets, aux dossiers et aux organisations.
Ce rôle prédéfini contient les autorisations requises pour créer un MIG. Pour connaître les autorisations exactes requises, développez la section Autorisations requises :
Autorisations requises
Les autorisations suivantes sont requises pour créer un MIG :
-
Pour créer un MIG :
compute.instanceGroupManagers.createsur le projet
Vous pouvez également obtenir ces autorisations avec des rôles personnalisés ou d'autres rôles prédéfinis.
Principes de base d'A4X
Un cluster A4X est organisé en une hiérarchie de blocs et de sous-blocs pour faciliter les performances réseau à grande échelle et sans blocage. Il est essentiel de comprendre cette topologie lorsque vous réservez de la capacité et déployez des charges de travail.
- Instance A4X
- Une instance A4X est un type de machine A4X unique auquel sont associés quatre GPU.
- Domaine ou sous-bloc NVLink
- Un domaine NVLink, également appelé sous-bloc, est l'unité fondamentale de la capacité A4X. Un domaine NVLink se compose de 18 instances A4X (72 GPU) connectées à l'aide d'un système NVLink multinœud. Vous pouvez créer un domaine ou un sous-bloc A4X NVLink en appliquant une règle de charge de travail qui spécifie une topologie
1x72. - Bloquer
- Un bloc A4X est composé de 25 sous-blocs (domaines NVLink), pour un total de 450 instances A4X (1 800 GPU). Les sous-blocs sont alignés sur les rails pour une mise à l'échelle efficace. Chaque sous-bloc nécessite un MIG. Par conséquent, pour un seul bloc A4X, vous pouvez créer 25 MIG.
Le tableau suivant présente les options de topologie compatibles pour les instances A4X :
Topologie (acceleratorTopology) |
Number of GPUs | Nombre d'instances |
|---|---|---|
1x72 |
72 | 18 |
Présentation
La création d'un MIG avec le type de machine A4X comprend les étapes suivantes :
Créer des réseaux VPC
Pour configurer le réseau pour le type de machine A4X, créez trois réseaux VPC pour les interfaces réseau suivantes :
- Deux réseaux VPC standards pour les interfaces réseau gVNIC. Celles-ci sont utilisées pour la communication d'hôte à hôte.
- Un réseau VPC avec le profil réseau RoCE est requis pour les cartes d'interface réseau CX-7 lorsque vous créez plusieurs sous-blocs A4X. Le réseau VPC RoCE doit comporter quatre sous-réseaux, un pour chaque carte d'interface réseau CX-7. Ces cartes réseau utilisent RDMA over Converged Ethernet (RoCE), qui fournit la communication à bande passante élevée et à faible latence essentielle pour l'évolutivité vers plusieurs sous-blocs A4X. Pour un seul sous-bloc A4X, vous pouvez ignorer ce réseau VPC, car la communication directe entre GPU au sein d'un même sous-bloc est gérée par le NVLink multinœud.
Pour en savoir plus sur la configuration des cartes d'interface réseau, consultez Examiner la bande passante réseau et la configuration des cartes d'interface réseau.
Créez les réseaux manuellement en suivant les guides d'instructions ou automatiquement à l'aide du script fourni.
Guides d'instructions
Pour créer les réseaux, vous pouvez suivre les instructions suivantes :
- Pour créer les réseaux VPC standards pour les gVNIC, consultez Créer et gérer des réseaux de cloud privé virtuel.
- Pour créer le réseau VPC RoCE, consultez Créer un réseau de cloud privé virtuel pour les cartes d'interface réseau RDMA.
Pour ces réseaux VPC, nous vous recommandons de définir l'unité de transmission maximale (MTU) sur une valeur plus élevée.
Pour le type de machine A4X, la MTU recommandée est de 8896 octets.
Pour connaître les paramètres MTU recommandés pour les autres types de machines GPU, consultez Paramètres MTU pour les types de machines GPU.
Script
Pour créer les réseaux, procédez comme suit.
Pour ces réseaux VPC, nous vous recommandons de définir l'unité de transmission maximale (MTU) sur une valeur plus élevée.
Pour le type de machine A4X, la MTU recommandée est de 8896 octets.
Pour connaître les paramètres MTU recommandés pour les autres types de machines GPU, consultez Paramètres MTU pour les types de machines GPU.
Utilisez le script suivant pour créer des réseaux VPC standards pour les gVNIC.
#!/bin/bash # Create regular VPC networks and subnets for the gVNICs for N in $(seq 0 1); do gcloud compute networks create GVNIC_NAME_PREFIX-net-$N \ --subnet-mode=custom \ --mtu=8896 gcloud compute networks subnets create GVNIC_NAME_PREFIX-sub-$N \ --network=GVNIC_NAME_PREFIX-net-$N \ --region=REGION \ --range=192.168.$N.0/24 gcloud compute firewall-rules create GVNIC_NAME_PREFIX-internal-$N \ --network=GVNIC_NAME_PREFIX-net-$N \ --action=ALLOW \ --rules=tcp:0-65535,udp:0-65535,icmp \ --source-ranges=192.168.0.0/16 done # Create SSH firewall rules gcloud compute firewall-rules create GVNIC_NAME_PREFIX-ssh \ --network=GVNIC_NAME_PREFIX-net-0 \ --action=ALLOW \ --rules=tcp:22 \ --source-ranges=IP_RANGE # Assumes that an external IP is only created for vNIC 0 gcloud compute firewall-rules create GVNIC_NAME_PREFIX-allow-ping-net-0 \ --network=GVNIC_NAME_PREFIX-net-0 \ --action=ALLOW \ --rules=icmp \ --source-ranges=IP_RANGESi vous avez besoin de plusieurs sous-blocs A4X, utilisez le script suivant pour créer le réseau VPC RoCE et les sous-réseaux pour les quatre cartes réseau CX-7 sur chaque instance A4X.
# List and make sure network profiles exist in the machine type's zone gcloud compute network-profiles list --filter "location.name=ZONE" # Create network for CX-7 gcloud compute networks create RDMA_NAME_PREFIX-mrdma \ --network-profile=ZONE-vpc-roce \ --subnet-mode custom \ --mtu=8896 # Create subnets for N in $(seq 0 3); do gcloud compute networks subnets create RDMA_NAME_PREFIX-mrdma-sub-$N \ --network=RDMA_NAME_PREFIX-mrdma \ --region=REGION \ --range=192.168.$((N+2)).0/24 & # offset to avoid overlap with gVNICs doneRemplacez les éléments suivants :
GVNIC_NAME_PREFIX: préfixe de nom personnalisé à utiliser pour les réseaux et sous-réseaux VPC standards des cartes gVNIC.RDMA_NAME_PREFIX: préfixe de nom personnalisé à utiliser pour le réseau et les sous-réseaux VPC RoCE pour les cartes réseau CX-7.ZONE: spécifiez une zone dans laquelle le type de machine que vous souhaitez utiliser est disponible, par exempleus-central1-a. Pour en savoir plus sur les régions, consultez Disponibilité des GPU par région et par zone.REGION: région dans laquelle vous souhaitez créer des sous-réseaux. Cette région doit correspondre à la zone spécifiée. Par exemple, si votre zone estus-central1-a, votre région estus-central1.IP_RANGE: plage d'adresses IP à utiliser pour les règles de pare-feu SSH.
- Facultatif : Pour vérifier que les ressources du réseau VPC ont bien été créées, vérifiez les paramètres réseau dans la console Google Cloud :
- Dans la console Google Cloud , accédez à la page Réseaux VPC.
- Recherchez dans la liste les réseaux que vous avez créés à l'étape précédente.
- Pour afficher les sous-réseaux, les règles de pare-feu et les autres paramètres réseau, cliquez sur le nom du réseau.
Créer une règle de charge de travail
Vous ne pouvez pas modifier une règle de charge de travail après l'avoir créée. Pour apporter des modifications à une règle de charge de travail, vous devez en créer une.
Pour créer une stratégie de charge de travail, sélectionnez l'une des options suivantes :
gcloud
Pour créer une règle de charge de travail, utilisez la
commande gcloud compute resource-policies create workload-policy.
Pour la configuration réseau entre les accélérateurs, spécifiez l'option --accelerator-topology dans la commande.
Utilisez la commande suivante pour le type de machine A4X. La topologie d'accélérateur 1x72 indique 72 GPU connectés via un NVLink dans un bloc.
gcloud compute resource-policies create workload-policy WORKLOAD_POLICY_NAME \
--type=high-throughput \
--accelerator-topology=1x72 \
--region=REGION
Remplacez les éléments suivants :
WORKLOAD_POLICY_NAME: nom de la règle de charge de travail.REGION: région dans laquelle vous souhaitez créer la règle de charge de travail. Spécifiez une région dans laquelle vous souhaitez créer le MIG et où le type de machine que vous souhaitez utiliser est disponible. Pour en savoir plus sur les régions, consultez Disponibilité des GPU par région et par zone.
REST
Pour créer une règle de charge de travail, envoyez une requête POST à la méthode resourcePolicies.insert.
acceleratorTopology dans la requête.
Envoyez la requête suivante pour le type de machine A4X. La topologie d'accélérateur 1x72 indique 72 GPU connectés via un NVLink dans un bloc.
POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/REGION/resourcePolicies
{
"name": "WORKLOAD_POLICY_NAME"
"workloadPolicy": {
"type": "HIGH_THROUGHPUT",
"acceleratorTopology": "1x72"
}
}
Remplacez les éléments suivants :
PROJECT_ID: ID de votre projetREGION: région dans laquelle vous souhaitez créer la règle de charge de travail. Spécifiez une région dans laquelle vous souhaitez créer le MIG et le type de machine que vous souhaitez utiliser est disponible. Pour en savoir plus sur les régions, consultez Disponibilité des GPU par région et par zone.WORKLOAD_POLICY_NAME: nom de la règle de charge de travail.
Créer un modèle d'instance
Spécifiez les propriétés de VM pour un MIG en créant un modèle d'instance.
Pour créer un modèle d'instance, sélectionnez l'une des options suivantes.
Les commandes suivantes définissent également le niveau d'accès pour vos instances. Pour simplifier la gestion des autorisations, Google vous recommande de définir le niveau d'accès d'une instance surcloud-platform, puis d'utiliser des rôles IAM pour définir les services auxquels l'instance peut accéder. Pour en savoir plus, consultez les bonnes pratiques concernant les niveaux d'accès.
gcloud
Pour créer un modèle d'instance régional, exécutez la commande gcloud compute instance-templates create.
gcloud compute instance-templates create INSTANCE_TEMPLATE_NAME \
--machine-type=a4x-highgpu-4g \
--image-family=IMAGE_FAMILY \
--image-project=IMAGE_PROJECT \
--instance-template-region=REGION \
--boot-disk-type=hyperdisk-balanced \
--boot-disk-size=DISK_SIZE \
--scopes=cloud-platform \
--network-interface=nic-type=GVNIC,network=GVNIC_NAME_PREFIX-net-0,subnet=GVNIC_NAME_PREFIX-sub-0 \
--network-interface=nic-type=GVNIC,network=GVNIC_NAME_PREFIX-net-1,subnet=GVNIC_NAME_PREFIX-sub-1,no-address \
--network-interface=nic-type=MRDMA,network=RDMA_NAME_PREFIX-mrdma,subnet=RDMA_NAME_PREFIX-mrdma-sub-0,no-address \
--network-interface=nic-type=MRDMA,network=RDMA_NAME_PREFIX-mrdma,subnet=RDMA_NAME_PREFIX-mrdma-sub-1,no-address \
--network-interface=nic-type=MRDMA,network=RDMA_NAME_PREFIX-mrdma,subnet=RDMA_NAME_PREFIX-mrdma-sub-2,no-address \
--network-interface=nic-type=MRDMA,network=RDMA_NAME_PREFIX-mrdma,subnet=RDMA_NAME_PREFIX-mrdma-sub-3,no-address \
--reservation-affinity=specific \
--reservation=RESERVATION \
--provisioning-model=RESERVATION_BOUND \
--instance-termination-action=DELETE \
--maintenance-policy=TERMINATE \
--restart-on-failure
Remplacez les éléments suivants :
INSTANCE_TEMPLATE_NAME: nom du modèle d'instance.IMAGE_FAMILY: famille d'images à laquelle appartient l'image de l'OS que vous souhaitez utiliser. Pour obtenir la liste des systèmes d'exploitation compatibles, consultez la page Systèmes d'exploitation compatibles.IMAGE_PROJECT: ID du projet de l'image de l'OS.REGION: région dans laquelle vous souhaitez créer le modèle d'instance. Spécifiez une région dans laquelle le type de machine que vous souhaitez utiliser est disponible. Pour en savoir plus sur les régions, consultez Disponibilité des GPU par région et par zone.DISK_SIZE: taille du disque de démarrage en Go.GVNIC_NAME_PREFIX: préfixe de nom que vous avez spécifié lors de la création des réseaux et sous-réseaux VPC standards qui utilisent des cartes d'interface réseau gVNIC.RDMA_NAME_PREFIX: préfixe de nom que vous avez spécifié lors de la création des réseaux et sous-réseaux VPC qui utilisent des cartes d'interface réseau RDMA.-
RESERVATION: nom de la réservation, d'un bloc ou d'un sous-bloc dans une réservation. Pour obtenir le nom de la réservation ou les blocs disponibles, consultez Afficher la capacité réservée. En fonction de vos exigences concernant l'emplacement des instances, choisissez l'une des options suivantes :- Pour créer les instances sur un bloc :
projects/RESERVATION_OWNER_PROJECT_ID/reservations/RESERVATION_NAME - Pour créer les instances sur un bloc spécifique :
projects/RESERVATION_OWNER_PROJECT_ID/reservations/RESERVATION_NAME/reservationBlocks/RESERVATION_BLOCK_NAME - Pour créer les instances dans un sous-bloc spécifique :
projects/RESERVATION_OWNER_PROJECT_ID/reservations/RESERVATION_NAME/reservationBlocks/RESERVATION_BLOCK_NAME/reservationSubBlocks/RESERVATION_SUBBLOCK_NAME
- Pour créer les instances sur un bloc :
REST
Pour créer un modèle d'instance régional, envoyez une requête POST à la méthode regionInstanceTemplates.insert :
POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/REGION/instanceTemplates
{
"name":"INSTANCE_TEMPLATE_NAME",
"properties":{
"machineType":"a4x-highgpu-4g",
"disks":[
{
"boot":true,
"initializeParams":{
"diskSizeGb":"DISK_SIZE",
"diskType":"hyperdisk-balanced",
"sourceImage":"projects/IMAGE_PROJECT/global/images/family/IMAGE_FAMILY"
},
"mode":"READ_WRITE",
"type":"PERSISTENT"
}
],
"serviceAccounts": [
{
"email": "default",
"scopes": [
"https://www.googleapis.com/auth/cloud-platform"
]
}
],
"networkInterfaces": [
{
"accessConfigs": [
{
"name": "external-nat",
"type": "ONE_TO_ONE_NAT"
}
],
"network": "projects/NETWORK_PROJECT_ID/global/networks/GVNIC_NAME_PREFIX-net-0",
"nicType": "GVNIC",
"subnetwork": "projects/NETWORK_PROJECT_ID/region/REGION/subnetworks/GVNIC_NAME_PREFIX-sub-0"
},
{
"network": "projects/NETWORK_PROJECT_ID/global/networks/GVNIC_NAME_PREFIX-net-1",
"nicType": "GVNIC",
"subnetwork": "projects/NETWORK_PROJECT_ID/region/REGION/subnetworks/GVNIC_NAME_PREFIX-sub-1"
},
{
"network": "projects/NETWORK_PROJECT_ID/global/networks/RDMA_NAME_PREFIX-mrdma",
"nicType": "MRDMA",
"subnetwork": "projects/NETWORK_PROJECT_ID/region/REGION/subnetworks/RDMA_NAME_PREFIX-mrdma-sub-0"
},
{
"network": "projects/NETWORK_PROJECT_ID/global/networks/RDMA_NAME_PREFIX-mrdma",
"nicType": "MRDMA",
"subnetwork": "projects/NETWORK_PROJECT_ID/region/REGION/subnetworks/RDMA_NAME_PREFIX-mrdma-sub-1"
},
{
"network": "projects/NETWORK_PROJECT_ID/global/networks/RDMA_NAME_PREFIX-mrdma",
"nicType": "MRDMA",
"subnetwork": "projects/NETWORK_PROJECT_ID/region/REGION/subnetworks/RDMA_NAME_PREFIX-mrdma-sub-2"
},
{
"network": "projects/NETWORK_PROJECT_ID/global/networks/RDMA_NAME_PREFIX-mrdma",
"nicType": "MRDMA",
"subnetwork": "projects/NETWORK_PROJECT_ID/region/REGION/subnetworks/RDMA_NAME_PREFIX-mrdma-sub-3"
}
],
"reservationAffinity":{
"consumeReservationType":"SPECIFIC_RESERVATION",
"key":"compute.googleapis.com/reservation-name",
"values":[
"RESERVATION"
]
},
"scheduling":{
"provisioningModel":"RESERVATION_BOUND",
"instanceTerminationAction":"DELETE",
"onHostMaintenance": "TERMINATE",
"automaticRestart":true
}
}
}
Remplacez les éléments suivants :
INSTANCE_TEMPLATE_NAME: nom du modèle d'instance.IMAGE_FAMILY: famille d'images à laquelle appartient l'image de l'OS que vous souhaitez utiliser. Pour obtenir la liste des systèmes d'exploitation compatibles, consultez la page Systèmes d'exploitation compatibles.IMAGE_PROJECT: ID du projet de l'image de l'OS.REGION: région dans laquelle vous souhaitez créer le modèle d'instance. Spécifiez une région dans laquelle le type de machine que vous souhaitez utiliser est disponible. Pour en savoir plus sur les régions, consultez Disponibilité des GPU par région et par zone.DISK_SIZE: taille du disque de démarrage en Go.NETWORK_PROJECT_ID: ID du projet du réseau.GVNIC_NAME_PREFIX: préfixe de nom que vous avez spécifié lors de la création des réseaux et sous-réseaux VPC standards qui utilisent des cartes d'interface réseau gVNIC.REGION: région du sous-réseau.RDMA_NAME_PREFIX: préfixe de nom que vous avez spécifié lors de la création des réseaux et sous-réseaux VPC qui utilisent des cartes d'interface réseau RDMA.-
RESERVATION: nom de la réservation, d'un bloc ou d'un sous-bloc dans une réservation. Pour obtenir le nom de la réservation ou les blocs disponibles, consultez Afficher la capacité réservée. En fonction de vos exigences concernant l'emplacement des instances, choisissez l'une des options suivantes :- Pour créer les instances sur un bloc :
projects/RESERVATION_OWNER_PROJECT_ID/reservations/RESERVATION_NAME - Pour créer les instances sur un bloc spécifique :
projects/RESERVATION_OWNER_PROJECT_ID/reservations/RESERVATION_NAME/reservationBlocks/RESERVATION_BLOCK_NAME - Pour créer les instances dans un sous-bloc spécifique :
projects/RESERVATION_OWNER_PROJECT_ID/reservations/RESERVATION_NAME/reservationBlocks/RESERVATION_BLOCK_NAME/reservationSubBlocks/RESERVATION_SUBBLOCK_NAME
- Pour créer les instances sur un bloc :
Créer un MIG
Lorsque vous utilisez un type de machine A4X, vous devez créer un MIG en spécifiant sa taille cible.
Pour obtenir une topologie de GPU de 1x72, créez un MIG avec 18 instances. Lorsque vous créez le MIG, appliquez la stratégie de charge de travail qui spécifie le champ acceleratorTopology. L'application de la règle garantit que Compute Engine crée les 18 instances dans un sous-bloc pour utiliser un domaine NVLink.
Si un sous-bloc ne dispose pas de la capacité nécessaire pour les 18 instances, toute instance gérée qui ne peut pas être créée immédiatement restera à l'état CREATING jusqu'à ce que de la capacité devienne disponible. Ces instances gérées représentent les VM que le MIG crée lorsqu'il y a de la capacité.
Lorsque vous appliquez une stratégie de charge de travail avec le champ acceleratorTopology défini sur 1x72, vous ne pouvez pas créer plus de 18 instances dans un MIG. Si vous spécifiez plus de 18 instances, la création du MIG échoue. Pour créer plusieurs domaines NVLink, créez un MIG distinct pour chaque domaine et appliquez la même règle de charge de travail à chaque MIG.
Pour créer un MIG, sélectionnez l'une des options suivantes :
gcloud
Pour créer un MIG avec une taille cible spécifiée, utilisez la commande instance-groups managed
create.
Créez un MIG zonal ou régional comme suit :
- Pour créer un MIG zonal, utilisez la commande suivante :
gcloud compute instance-groups managed create MIG_NAME \ --template=INSTANCE_TEMPLATE_URL \ --size=TARGET_SIZE \ --workload-policy=WORKLOAD_POLICY_URL \ --zone=ZONE
- Pour créer un MIG régional, utilisez la commande suivante :
gcloud compute instance-groups managed create MIG_NAME \ --template=INSTANCE_TEMPLATE_URL \ --size=TARGET_SIZE \ --workload-policy=WORKLOAD_POLICY_URL \ --region=REGION
MIG_NAME: nom du MIG.INSTANCE_TEMPLATE_URL: URL du modèle d'instance que vous souhaitez utiliser pour créer des VM dans le MIG. L'URL peut contenir l'ID ou le nom du modèle d'instance. Spécifiez une des valeurs suivantes :- Pour un modèle d'instance régional :
projects/PROJECT_ID/regions/REGION/instanceTemplates/INSTANCE_TEMPLATE_ID - Pour un modèle d'instance global :
INSTANCE_TEMPLATE_ID
- Pour un modèle d'instance régional :
TARGET_SIZE: nombre de VM que vous souhaitez inclure dans le MIG. Pour la topologie d'accélérateur1x72, définissez la taille cible sur18.WORKLOAD_POLICY_URL: URL de la règle de charge de travail. Exemple :projects/example-project/regions/us-central1/resourcePolicies/example-workload-policy.ZONE: zone dans laquelle vous souhaitez créer le MIG. Spécifiez une zone dans la région de la règle de charge de travail.REGION: région dans laquelle vous souhaitez créer le MIG. Spécifiez la même région que celle de la règle de charge de travail. Pour un MIG régional, vous pouvez spécifier les zones de cette région au lieu de la région elle-même en utilisant l'indicateur--zones.
REST
Pour créer un MIG avec une taille cible spécifiée, envoyez une requête POST.
Créez un MIG zonal ou régional comme suit :
- Pour créer un MIG zonal, envoyez une requête
POSTà la méthodeinstanceGroupManagers.insert.POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/zones/ZONE/instanceGroupManagers { "versions": [ { "instanceTemplate": "INSTANCE_TEMPLATE_URL" } ], "name": "MIG_NAME", "instanceTemplate": "INSTANCE_TEMPLATE_URL", "targetSize": "TARGET_SIZE", "resourcePolicies": { "workloadPolicy": WORKLOAD_POLICY_URL } } - Pour créer un MIG régional, envoyez une requête
POSTà la méthoderegionInstanceGroupManagers.insert.POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/REGION/instanceGroupManagers { "versions": [ { "instanceTemplate": "INSTANCE_TEMPLATE_URL" } ], "name": "MIG_NAME", "instanceTemplate": "INSTANCE_TEMPLATE_URL", "targetSize": "TARGET_SIZE", "resourcePolicies": { "workloadPolicy": WORKLOAD_POLICY_URL } }
PROJECT_ID: ID du projet.ZONE: zone dans laquelle vous souhaitez créer le MIG. Spécifiez une zone dans la région de la règle de charge de travail.REGION: région dans laquelle vous souhaitez créer le MIG. Spécifiez la même région que celle de la règle de charge de travail.INSTANCE_TEMPLATE_URL: URL du modèle d'instance que vous souhaitez utiliser pour créer des VM dans le MIG. L'URL peut contenir l'ID ou le nom du modèle d'instance. Spécifiez une des valeurs suivantes :- Pour un modèle d'instance régional :
projects/PROJECT_ID/regions/REGION/instanceTemplates/INSTANCE_TEMPLATE_ID - Pour un modèle d'instance global :
INSTANCE_TEMPLATE_ID
- Pour un modèle d'instance régional :
MIG_NAME: nom du MIG.TARGET_SIZE: nombre de VM que vous souhaitez inclure dans le MIG. Pour la topologie d'accélérateur1x72, définissez la taille cible sur18.WORKLOAD_POLICY_URL: URL de la règle de charge de travail. Par exemple :projects/example-project/regions/us-central1/resourcePolicies/example-workload-policy.
Étape suivante
- Afficher la topologie d'une instance de calcul
- Surveiller les VM
- Signaler un hôte défectueux
- Résoudre les problèmes de consommation de réservations