GPU-VMs im Bulk erstellen

Mithilfe des Bulk-Erstellungsprozesses können Sie eine Gruppe von VMs mit angehängten GPUs erstellen. Bei der Bulk-Erstellung erhalten Sie eine Vorabvalidierung, bei der die Anfrage schnell fehlschlägt, wenn sie nicht umsetzbar ist. Wenn Sie außerdem das Regions-Flag verwenden, wählt die Bulk-Erstellungs-API automatisch die Zone aus, die über die Kapazität verfügt, um die Anfrage zu erfüllen.

Weitere Informationen zur Bulk-Erstellung finden Sie unter Informationen zur Bulk-Erstellung von VMs. Weitere Informationen zum Erstellen von VMs mit angehängten GPUs finden Sie unter Übersicht zum Erstellen einer Instanz mit angehängten GPUs.

Hinweise

  • Informationen zu Einschränkungen und zusätzlichen erforderlichen Schritten zum Erstellen von Instanzen mit angehängten GPUs, z. B. zum Auswählen eines Betriebssystem-Images und zum Prüfen des GPU-Kontingents, finden Sie unter Übersicht zum Erstellen einer Instanz mit angehängten GPUs.
  • Informationen zu Einschränkungen bei der Bulk-Erstellung finden Sie unter Informationen zur Bulk-Erstellung von VMs.
  • Richten Sie die Authentifizierung ein, falls Sie dies noch nicht getan haben. Bei der Authentifizierung wird Ihre Identität für den Zugriff auf Google Cloud Dienste und APIs überprüft. Zum Ausführen von Code oder Beispielen aus einer lokalen Entwicklungsumgebung können Sie sich so bei der Compute Engine authentifizieren:

    Select the tab for how you plan to use the samples on this page:

    gcloud

    1. Installieren Sie die Google Cloud CLI. Initialisieren Sie die Google Cloud CLI nach der Installation mit dem folgenden Befehl:

      gcloud init

      Wenn Sie einen externen Identitätsanbieter (IdP) verwenden, müssen Sie sich zuerst mit Ihrer föderierten Identität in der gcloud CLI anmelden.

    2. Set a default region and zone.

    REST

    Wenn Sie die REST API-Beispiele auf dieser Seite in einer lokalen Entwicklungsumgebung verwenden möchten, verwenden Sie die Anmeldedaten, die Sie der gcloud CLI bereitstellen.

      Installieren Sie die Google Cloud CLI. Initialisieren Sie die Google Cloud CLI nach der Installation mit dem folgenden Befehl:

      gcloud init

      Wenn Sie einen externen Identitätsanbieter (IdP) verwenden, müssen Sie sich zuerst mit Ihrer föderierten Identität in der gcloud CLI anmelden.

    Weitere Informationen finden Sie in der Dokumentation zur Google Cloud -Authentifizierung unter Für die Verwendung von REST authentifizieren.

Erforderliche Rollen

Bitten Sie Ihren Administrator, Ihnen die IAM-Rolle Compute Instance Admin (v1) (roles/compute.instanceAdmin.v1) für das Projekt zu gewähren, um die Berechtigungen zu erhalten, die Sie für die Erstellung von VMs benötigen. Weitere Informationen zum Zuweisen von Rollen finden Sie unter Zugriff auf Projekte, Ordner und Organisationen verwalten.

Diese vordefinierte Rolle enthält die Berechtigungen, die zum Erstellen von VMs erforderlich sind. Maximieren Sie den Abschnitt Erforderliche Berechtigungen, um die genau erforderlichen Berechtigungen anzuzeigen:

Erforderliche Berechtigungen

Folgende Berechtigungen sind zum Erstellen von VMs erforderlich:

  • compute.instances.create für das Projekt
  • Zum Erstellen der VM mit einem benutzerdefinierten Image: compute.images.useReadOnly für das Image
  • Zum Erstellen der VM mit einem Snapshot: compute.snapshots.useReadOnly für den Snapshot
  • Zum Erstellen der VM mit einer Instanzvorlage: compute.instanceTemplates.useReadOnly für die Instanzvorlage
  • Zum Angeben eines Subnetzes für Ihre VM: compute.subnetworks.use für das Projekt oder für das ausgewählte Subnetz
  • Zum Festlegen einer statischen IP-Adresse für die VM: compute.addresses.use für das Projekt
  • Zum Zuweisen einer externen IP-Adresse zur VM, wenn Sie ein VPC-Netzwerk verwenden: compute.subnetworks.useExternalIp für das Projekt oder für das ausgewählte Subnetz
  • Zum Zuweisen eines Legacy-Netzwerks zur VM: compute.networks.use für das Projekt
  • Zum Zuweisen einer externen IP-Adresse zur VM, wenn Sie ein Legacy-Netzwerk verwenden: compute.networks.useExternalIp für das Projekt
  • Zum Festlegen von Metadaten der VM-Instanz für die VM: compute.instances.setMetadata für das Projekt
  • Zum Festlegen von Tags für die VM: compute.instances.setTags für die VM
  • Zum Festlegen von Labels für die VM: compute.instances.setLabels für die VM
  • Zum Festlegen eines Dienstkontos für die VM: compute.instances.setServiceAccount für die VM
  • Zum Erstellen eines neuen Laufwerks für die VM: compute.disks.create für das Projekt
  • Zum Anhängen eines vorhandenen Laufwerks im Lese- oder Lese-/Schreibmodus: compute.disks.use für das Laufwerk
  • Zum Anhängen eines vorhandenen Laufwerks im Lesemodus: compute.disks.useReadOnly für das Laufwerk

Sie können diese Berechtigungen auch mit benutzerdefinierten Rollen oder anderen vordefinierten Rollen erhalten.

Übersicht

Wenn Sie VMs mit angehängten GPUs mithilfe der Bulk-Erstellungsmethode erstellen, können Sie VMs in einer Region (z. B. us-central1) oder in einer bestimmten Zone (z. B. us-central1-a) erstellen.

Wenn Sie eine Region angeben, platziert Compute Engine die VMs in einer beliebigen Zone innerhalb der Region, die GPUs unterstützt.

Maschinentypen

Die beschleunigungsoptimierte Maschinenfamilie umfasst mehrere Maschinentypen.

Jedem beschleunigungsoptimierten Maschinentyp ist ein bestimmtes NVIDIA-GPU-Modell angehängt, um den empfohlenen Arbeitslasttyp zu unterstützen.

KI- und ML-Arbeitslasten Grafiken und Visualisierung
Beschleunigeroptimierte Maschinentypen der A-Serie sind für Arbeitslasten aus den Bereichen Hochleistungs-Computing (HPC), künstliche Intelligenz (KI) und maschinelles Lernen (ML) konzipiert.

Bei diesen Maschinentypen wird das GPU-Modell automatisch an die Instanz angehängt.

Beschleunigungsoptimierte Maschinentypen der G-Serie sind für Arbeitslasten wie NVIDIA Omniverse-Simulationsarbeitslasten, grafikintensive Anwendungen, Videotranscodierung und virtuelle Desktops konzipiert. Diese Maschinentypen unterstützen NVIDIA RTX Virtual Workstations (vWS).

Bei diesen Maschinentypen wird das GPU-Modell automatisch an die Instanz angehängt.

  • A4X Max (NVIDIA GB300 Ultra Superchips)
    (nvidia-gb300)
  • A4X (NVIDIA GB200 Superchips)
    (nvidia-gb200)
  • A4 (NVIDIA B200)
    (nvidia-b200)
  • A3 Ultra (NVIDIA H200)
    (nvidia-h200-141gb)
  • A3 Mega (NVIDIA H100)
    (nvidia-h100-mega-80gb)
  • A3 High (NVIDIA H100)
    (nvidia-h100-80gb)
  • A3 Edge (NVIDIA H100)
    (nvidia-h100-80gb)
  • A2 Ultra (NVIDIA A100 80GB)
    (nvidia-a100-80gb)
  • A2 Standard (NVIDIA A100)
    (nvidia-a100-40gb)
  • G4 (NVIDIA RTX PRO 6000)
    (nvidia-rtx-pro-6000)
    (nvidia-rtx-pro-6000-vws)
  • G2 (NVIDIA L4)
    (nvidia-l4)
    (nvidia-l4-vws)

Gruppen von A4X-, A4- und A3 Ultra-VMs erstellen

Informationen zum Erstellen von Instanzen im Bulk für die Maschinenserien A4X, A4 und A3 Ultra finden Sie in der AI Hypercomputer-Dokumentation unter Übersicht über Bereitstellungsoptionen.

Gruppen von A3-, A2-, G4- und G2-VMs erstellen

In diesem Abschnitt wird beschrieben, wie Sie Instanzen für die Maschinenserien A3 High, A3 Mega, A3 Edge, A2 Standard, A2 Ultra, G4 und G2 mit der Google Cloud CLI oder REST im Bulk erstellen können.

gcloud

Verwenden Sie zum Erstellen einer Gruppe von VMs den Befehl gcloud compute instances bulk create. Weitere Informationen zu den Parametern und zur Verwendung dieses Befehls finden Sie unter VMs im Bulk erstellen.

Beispiel

In diesem Beispiel werden zwei VMs mit angehängten GPUs mit den folgenden Spezifikationen erstellt:

gcloud compute instances bulk create \
    --name-pattern="my-test-vm-#" \
    --region=REGION \
    --count=2 \
    --machine-type=MACHINE_TYPE \
    --boot-disk-size=200 \
    --image=IMAGE \
    --image-project=IMAGE_PROJECT \
    --on-host-maintenance=TERMINATE

Dabei gilt:

  • REGION: Die Region für die VMs. Diese Region muss den ausgewählten beschleunigungsoptimierten Maschinentyp unterstützen.
  • MACHINE_TYPE: Der ausgewählte Maschinentyp Wählen Sie eine der folgenden Optionen aus:

  • IMAGE: Ein Betriebssystem-Image, das GPUs unterstützt.

    Wenn Sie das neueste Image in einer Image-Familie verwenden möchten, ersetzen Sie das Flag --image durch das Flag --image-family und legen Sie dessen Wert auf eine Image-Familie fest, die GPUs unterstützt. Beispiel: --image-family=rocky-linux-8-optimized-gcp.

    Sie können auch ein benutzerdefiniertes Image oder Deep Learning VM Images angeben.

  • IMAGE_PROJECT: Das Compute Engine-Image-Projekt, zu dem das Betriebssystem-Image gehört. Wenn Sie ein benutzerdefiniertes Image oder Deep Learning VM Images verwenden, geben Sie das Projekt an, zu dem diese Images gehören.

  • VWS_ACCELERATOR_COUNT ist die Anzahl der benötigten virtuellen GPUs.

Falls erfolgreich sieht die Ausgabe etwa so aus:

NAME          ZONE
my-test-vm-1  us-central1-b
my-test-vm-2  us-central1-b
Bulk create request finished with status message: [VM instances created: 2, failed: 0.]

Optionale Flags

Wenn Sie Ihre Instanz weiter konfigurieren möchten, um die Anforderungen Ihrer Arbeitslast oder Ihres Betriebssystems zu erfüllen, fügen Sie beim Ausführen des gcloud compute instances bulk create-Befehls ein oder mehrere der folgenden Flags ein.

Funktion Beschreibung
Bereitstellungsmodell Legt das Bereitstellungsmodell für die Instanz fest. Geben Sie entweder SPOT oder FLEX_START an. FLEX_START wird für G4-Instanzen nicht unterstützt. Wenn Sie kein Modell angeben, wird das Standardmodell verwendet. Weitere Informationen finden Sie unter Bereitstellungsmodelle für Compute Engine-Instanzen.
--provisioning-model=PROVISIONING_MODEL
Virtuelle Workstation Gibt eine virtuelle NVIDIA RTX-Workstation (vWS) für Grafikarbeitslasten an. Diese Funktion wird nur für G4- und G2-Instanzen unterstützt.
--accelerator=type=VWS_ACCELERATOR_TYPE,count=VWS_ACCELERATOR_COUNT

Ersetzen Sie Folgendes:

  • Wählen Sie für VWS_ACCELERATOR_TYPE eine der folgenden Optionen aus:
    • Geben Sie für G4-Instanzen nvidia-rtx-pro-6000-vws an.
    • Geben Sie für G2-Instanzen nvidia-l4-vws an.
  • Geben Sie für VWS_ACCELERATOR_COUNT die Anzahl der benötigten virtuellen GPUs an.
Lokale SSD Hängt Ihrer Instanz eine oder mehrere lokale SSDs an. Lokale SSDs können als schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden.
    --local-ssd=interface=nvme \
    --local-ssd=interface=nvme \
    --local-ssd=interface=nvme ...
Die maximale Anzahl lokaler SSD-Laufwerke, die Sie pro VM-Instanz anhängen können, finden Sie unter Grenzwerte für lokale SSDs.
Netzwerkschnittstelle Hängt mehrere Netzwerkschnittstellen an Ihre Instanz an. Für g4-standard-384-Instanzen können Sie bis zu zwei Netzwerkschnittstellen anhängen. Mit diesem Flag können Sie eine Instanz mit zwei Netzwerkschnittstellen (2 × 200 Gbit/s) erstellen. Jede Netzwerkschnittstelle muss sich in einem eindeutigen VPC-Netzwerk befinden.

   --network-interface=network=VPC_NAME_1,subnet=SUBNET_NAME_1,nic-type=GVNIC \
   --network-interface=network=VPC_NAME_2,subnet=SUBNET_NAME_2,nic-type=GVNIC
   

Duale Netzwerkschnittstellen werden nur auf g4-standard-384-Maschinentypen unterstützt.

Ersetzen Sie Folgendes:

  • VPC_NAME: der Name Ihres VPC-Netzwerks.
  • SUBNET_NAME: der Name des Subnetzes, das Teil des angegebenen VPC-Netzwerk ist.

REST

Verwenden Sie die Methode instances.bulkInsert mit den erforderlichen Parametern, um mehrere VMs in einer Zone zu erstellen. Weitere Informationen zu den Parametern und zur Verwendung dieses Befehls finden Sie unter VMs im Bulk erstellen.

Beispiel

In diesem Beispiel werden zwei VMs mit angehängten GPUs mit den folgenden Spezifikationen erstellt:

  • VM-Namen: my-test-vm-1, my-test-vm-2
  • An jede VM sind zwei GPUs angehängt, für die der entsprechende beschleunigungsoptimierte Maschinentyps angegeben wird.

    POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/REGION/instances/bulkInsert
    {
    "namePattern":"my-test-vm-#",
    "count":"2",
    "instanceProperties": {
      "machineType":MACHINE_TYPE,
      "disks":[
        {
          "type":"PERSISTENT",
          "initializeParams":{
            "diskSizeGb":"200",
            "sourceImage":SOURCE_IMAGE_URI
          },
          "boot":true
        }
      ],
      "name": "default",
      "networkInterfaces":
      [
        {
          "network": "projects/PROJECT_ID/global/networks/default"
        }
      ],
      "scheduling":{
        "onHostMaintenance":"TERMINATE",
        ["automaticRestart":true]
      }
    }
    }
    

Dabei gilt:

  • PROJECT_ID: Ihre Projekt-ID.
  • REGION: Die Region für die VMs. Diese Region muss das ausgewählte GPU-Modell unterstützen.
  • MACHINE_TYPE: Der ausgewählte Maschinentyp Wählen Sie eine der folgenden Optionen aus:

  • SOURCE_IMAGE_URI: Der URI für das spezifische Image oder die Image-Familie, die Sie verwenden möchten.

    Beispiel:

    • Spezifisches Image: "sourceImage": "projects/rocky-linux-cloud/global/images/rocky-linux-8-optimized-gcp-v20220719"
    • Image-Familie: "sourceImage": "projects/rocky-linux-cloud/global/images/family/rocky-linux-8-optimized-gcp".

    Wenn Sie eine Image-Familie angeben, erstellt Compute Engine eine VM aus dem neuesten nicht verworfenen Betriebssystem-Image in dieser Familie. Weitere Informationen zur Verwendung von Image-Familien finden Sie unter Best Practices für Image-Familien.

Optionale Flags

Wenn Sie Ihre Instanz weiter konfigurieren möchten, um die Anforderungen Ihrer Arbeitslast oder Ihres Betriebssystems zu erfüllen, fügen Sie beim Ausführen der Methode instances.bulkInsert ein oder mehrere der folgenden Flags ein.

Funktion Beschreibung
Bereitstellungsmodell Um Ihre Kosten zu senken, können Sie ein anderes Bereitstellungsmodell angeben, indem Sie das Feld "provisioningModel": "PROVISIONING_MODEL" dem Objekt scheduling in Ihrer Anfrage hinzufügen. Wenn Sie angeben, dass Spot-VMs erstellt werden sollen, werden die Felder onHostMaintenance und automaticRestart ignoriert. Weitere Informationen finden Sie unter Bereitstellungsmodelle für Compute Engine-Instanzen.
    "scheduling":
     {
       "onHostMaintenance": "terminate",
       "provisioningModel": "PROVISIONING_MODEL"
     }
  

Ersetzen Sie PROVISIONING_MODEL durch einen der folgenden Werte:

  • STANDARD: (Standard) Eine Standardinstanz.
  • SPOT: Eine Spot-VM.
  • FLEX_START: Eine Flex-Start-VM. Flex-Start-VMs werden bis zu sieben Tage lang ausgeführt und können Ihnen helfen, stark nachgefragte Ressourcen wie GPUs zu einem reduzierten Preis zu erwerben. Dieses Bereitstellungsmodell wird für G4-Instanzen nicht unterstützt.
Virtuelle Workstation Gibt eine virtuelle NVIDIA RTX-Workstation (vWS) für Grafikarbeitslasten an. Diese Funktion wird nur für G4- und G2-Instanzen unterstützt.
   "guestAccelerators":
     [
       {
         "acceleratorCount": VWS_ACCELERATOR_COUNT,
         "acceleratorType": "projects/PROJECT_ID/zones/ZONE/acceleratorTypes/VWS_ACCELERATOR_TYPE"
       }
     ]
    

Ersetzen Sie Folgendes:

  • Wählen Sie für VWS_ACCELERATOR_TYPE eine der folgenden Optionen aus:
    • Geben Sie für G4-Instanzen nvidia-rtx-pro-6000-vws an.
    • Geben Sie für G2-Instanzen nvidia-l4-vws an.
  • Geben Sie für VWS_ACCELERATOR_COUNT die Anzahl der benötigten virtuellen GPUs an.
Lokale SSD Hängt Ihrer Instanz eine oder mehrere lokale SSDs an. Lokale SSDs können als schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden.
   {
     "type": "SCRATCH",
     "autoDelete": true,
     "initializeParams": {
       "diskType": "projects/PROJECT_ID/zones/ZONE/diskTypes/local-nvme-ssd"
     }
   }
  
Die maximale Anzahl lokaler SSD-Laufwerke, die Sie pro VM-Instanz anhängen können, finden Sie unter Grenzwerte für lokale SSDs.
Netzwerkschnittstelle Hängt mehrere Netzwerkschnittstellen an Ihre Instanz an. Für g4-standard-384-Instanzen können Sie bis zu zwei Netzwerkschnittstellen anhängen. So wird eine Instanz mit zwei Netzwerkschnittstellen (2 × 200 Gbit/s) erstellt. Jede Netzwerkschnittstelle muss sich in einem eindeutigen VPC-Netzwerk befinden.

   "networkInterfaces":
   [
     {
       "network": "projects/PROJECT_ID/global/networks/VPC_NAME_1",
       "subnetwork": "projects/PROJECT_ID/regions/REGION/subnetworks/SUBNET_NAME_1",
       "nicType": "GVNIC"
     },
     {
       "network": "projects/PROJECT_ID/global/networks/VPC_NAME_2",
       "subnetwork": "projects/PROJECT_ID/regions/REGION/subnetworks/SUBNET_NAME_2",
       "nicType": "GVNIC"
     }
   ]
  

Duale Netzwerkschnittstellen werden nur auf g4-standard-384-Maschinentypen unterstützt.

Ersetzen Sie Folgendes:

  • VPC_NAME: der Name Ihres VPC-Netzwerks.
  • SUBNET_NAME: der Name des Subnetzes, das Teil des angegebenen VPC-Netzwerk ist.

Gruppen von N1-VMs für allgemeine Zwecke erstellen

Sie erstellen eine Gruppe von VMs mit angehängten GPUs über die Google Cloud CLI oder REST.

In diesem Abschnitt wird beschrieben, wie Sie VMs mit folgenden GPU-Typen erstellen:

NVIDIA-GPUs:

  • NVIDIA T4: nvidia-tesla-t4
  • NVIDIA P4: nvidia-tesla-p4
  • NVIDIA P100: nvidia-tesla-p100
  • NVIDIA V100: nvidia-tesla-v100

NVIDIA RTX Virtuelle Workstation (vWS) (ehemals NVIDIA GRID):

  • Virtuelle NVIDIA T4-Workstation: nvidia-tesla-t4-vws
  • Virtuelle NVIDIA P100-Workstation: nvidia-tesla-p4-vws
  • Virtuelle NVIDIA P100-Workstation: nvidia-tesla-p100-vws

    Für diese virtuellen Workstations wird Ihrer Instanz automatisch eine Lizenz für NVIDIA RTX Virtual Workstation (vWS) hinzugefügt.

gcloud

Verwenden Sie zum Erstellen einer Gruppe von VMs den Befehl gcloud compute instances bulk create. Weitere Informationen zu den Parametern und zur Verwendung dieses Befehls finden Sie unter VMs im Bulk erstellen.

Beispiel

Im folgenden Beispiel werden zwei VMs mit angehängten GPUs mit den folgenden Spezifikationen erstellt:

  • VM-Namen: my-test-vm-1, my-test-vm-2
  • VMs, die in einer beliebigen Zone in us-central1 erstellt wurden, die GPUs unterstützt
  • An jede VM sind zwei T4-GPUs angehängt. Diese werden mit dem Flag „Beschleunigertyp“ und „Beschleunigeranzahl“ angegeben
  • Auf jeder VM sind GPU-Treiber installiert
  • Jede VM verwendet das Deep Learning VM Image pytorch-latest-gpu-v20211028-debian-10
gcloud compute instances bulk create \
    --name-pattern="my-test-vm-#" \
    --count=2 \
    --region=us-central1 \
    --machine-type=n1-standard-2 \
    --accelerator type=nvidia-tesla-t4,count=2 \
    --boot-disk-size=200 \
    --metadata="install-nvidia-driver=True" \
    --scopes="https://www.googleapis.com/auth/cloud-platform" \
    --image=pytorch-latest-gpu-v20211028-debian-10 \
    --image-project=deeplearning-platform-release \
    --on-host-maintenance=TERMINATE --restart-on-failure

Falls erfolgreich sieht die Ausgabe etwa so aus:

NAME          ZONE
my-test-vm-1  us-central1-b
my-test-vm-2  us-central1-b
Bulk create request finished with status message: [VM instances created: 2, failed: 0.]

REST

Verwenden Sie die Methode instances.bulkInsert mit den erforderlichen Parametern, um mehrere VMs in einer Zone zu erstellen. Weitere Informationen zu den Parametern und zur Verwendung dieses Befehls finden Sie unter VMs im Bulk erstellen.

Beispiel

Im folgenden Beispiel werden zwei VMs mit angehängten GPUs mit den folgenden Spezifikationen erstellt:

  • VM-Namen: my-test-vm-1, my-test-vm-2
  • VMs, die in einer beliebigen Zone in us-central1 erstellt wurden, die GPUs unterstützt
  • An jede VM sind zwei T4-GPUs angehängt. Diese werden mit dem Flag „Beschleunigertyp“ und „Beschleunigeranzahl“ angegeben
  • Auf jeder VM sind GPU-Treiber installiert
  • Jede VM verwendet das Deep Learning VM Image pytorch-latest-gpu-v20211028-debian-10

Ersetzen Sie PROJECT_ID durch Ihre Projekt-ID.

POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/us-central1/instances/bulkInsert

{
    "namePattern":"my-test-vm-#",
    "count":"2",
    "instanceProperties": {
      "machineType":"n1-standard-2",
      "disks":[
        {
          "type":"PERSISTENT",
          "initializeParams":{
            "diskSizeGb":"200",
            "sourceImage":"projects/deeplearning-platform-release/global/images/pytorch-latest-gpu-v20211028-debian-10"
          },
          "boot":true
        }
      ],
      "name": "default",
      "networkInterfaces":
      [
        {
          "network": "projects/PROJECT_ID/global/networks/default"
        }
      ],
      "guestAccelerators":
      [
        {
          "acceleratorCount": 2,
          "acceleratorType": "nvidia-tesla-t4"
        }
      ],
      "scheduling":{
        "onHostMaintenance":"TERMINATE",
        "automaticRestart":true
      },
      "metadata":{
        "items":[
          {
            "key":"install-nvidia-driver",
            "value":"True"
          }
        ]
      }
  }
 }

Nächste Schritte