Weitere Informationen zur Bulk-Erstellung finden Sie unter Informationen zur Bulk-Erstellung von VMs. Weitere Informationen zum Erstellen von VMs mit angehängten GPUs finden Sie unter Übersicht zum Erstellen einer Instanz mit angehängten GPUs.
Hinweise
- Informationen zu Einschränkungen und zusätzlichen erforderlichen Schritten zum Erstellen von Instanzen mit angehängten GPUs, z. B. zum Auswählen eines Betriebssystem-Images und zum Prüfen des GPU-Kontingents, finden Sie unter Übersicht zum Erstellen einer Instanz mit angehängten GPUs.
- Informationen zu Einschränkungen bei der Bulk-Erstellung finden Sie unter Informationen zur Bulk-Erstellung von VMs.
-
Richten Sie die Authentifizierung ein, falls Sie dies noch nicht getan haben.
Bei der Authentifizierung wird Ihre Identität für den Zugriff auf Google Cloud Dienste und APIs überprüft. Zum Ausführen von Code oder Beispielen aus einer lokalen Entwicklungsumgebung können Sie sich so bei der Compute Engine authentifizieren:
Select the tab for how you plan to use the samples on this page:
gcloud
-
Installieren Sie die Google Cloud CLI. Initialisieren Sie die Google Cloud CLI nach der Installation mit dem folgenden Befehl:
gcloud initWenn Sie einen externen Identitätsanbieter (IdP) verwenden, müssen Sie sich zuerst mit Ihrer föderierten Identität in der gcloud CLI anmelden.
- Set a default region and zone.
REST
Wenn Sie die REST API-Beispiele auf dieser Seite in einer lokalen Entwicklungsumgebung verwenden möchten, verwenden Sie die Anmeldedaten, die Sie der gcloud CLI bereitstellen.
Installieren Sie die Google Cloud CLI. Initialisieren Sie die Google Cloud CLI nach der Installation mit dem folgenden Befehl:
gcloud initWenn Sie einen externen Identitätsanbieter (IdP) verwenden, müssen Sie sich zuerst mit Ihrer föderierten Identität in der gcloud CLI anmelden.
Weitere Informationen finden Sie in der Dokumentation zur Google Cloud -Authentifizierung unter Für die Verwendung von REST authentifizieren.
Erforderliche Rollen
Bitten Sie Ihren Administrator, Ihnen die IAM-Rolle Compute Instance Admin (v1) (
roles/compute.instanceAdmin.v1) für das Projekt zu gewähren, um die Berechtigungen zu erhalten, die Sie für die Erstellung von VMs benötigen. Weitere Informationen zum Zuweisen von Rollen finden Sie unter Zugriff auf Projekte, Ordner und Organisationen verwalten.Diese vordefinierte Rolle enthält die Berechtigungen, die zum Erstellen von VMs erforderlich sind. Maximieren Sie den Abschnitt Erforderliche Berechtigungen, um die genau erforderlichen Berechtigungen anzuzeigen:
Erforderliche Berechtigungen
Folgende Berechtigungen sind zum Erstellen von VMs erforderlich:
compute.instances.createfür das Projekt-
Zum Erstellen der VM mit einem benutzerdefinierten Image:
compute.images.useReadOnlyfür das Image -
Zum Erstellen der VM mit einem Snapshot:
compute.snapshots.useReadOnlyfür den Snapshot -
Zum Erstellen der VM mit einer Instanzvorlage:
compute.instanceTemplates.useReadOnlyfür die Instanzvorlage -
Zum Angeben eines Subnetzes für Ihre VM:
compute.subnetworks.usefür das Projekt oder für das ausgewählte Subnetz -
Zum Festlegen einer statischen IP-Adresse für die VM:
compute.addresses.usefür das Projekt -
Zum Zuweisen einer externen IP-Adresse zur VM, wenn Sie ein VPC-Netzwerk verwenden:
compute.subnetworks.useExternalIpfür das Projekt oder für das ausgewählte Subnetz -
Zum Zuweisen eines Legacy-Netzwerks zur VM:
compute.networks.usefür das Projekt -
Zum Zuweisen einer externen IP-Adresse zur VM, wenn Sie ein Legacy-Netzwerk verwenden:
compute.networks.useExternalIpfür das Projekt -
Zum Festlegen von Metadaten der VM-Instanz für die VM:
compute.instances.setMetadatafür das Projekt -
Zum Festlegen von Tags für die VM:
compute.instances.setTagsfür die VM -
Zum Festlegen von Labels für die VM:
compute.instances.setLabelsfür die VM -
Zum Festlegen eines Dienstkontos für die VM:
compute.instances.setServiceAccountfür die VM -
Zum Erstellen eines neuen Laufwerks für die VM:
compute.disks.createfür das Projekt -
Zum Anhängen eines vorhandenen Laufwerks im Lese- oder Lese-/Schreibmodus:
compute.disks.usefür das Laufwerk -
Zum Anhängen eines vorhandenen Laufwerks im Lesemodus:
compute.disks.useReadOnlyfür das Laufwerk
Sie können diese Berechtigungen auch mit benutzerdefinierten Rollen oder anderen vordefinierten Rollen erhalten.
Übersicht
Wenn Sie VMs mit angehängten GPUs mithilfe der Bulk-Erstellungsmethode erstellen, können Sie VMs in einer Region (z. B.
us-central1) oder in einer bestimmten Zone (z. B.us-central1-a) erstellen.Wenn Sie eine Region angeben, platziert Compute Engine die VMs in einer beliebigen Zone innerhalb der Region, die GPUs unterstützt.
Maschinentypen
Die beschleunigungsoptimierte Maschinenfamilie umfasst mehrere Maschinentypen.
Jedem beschleunigungsoptimierten Maschinentyp ist ein bestimmtes NVIDIA-GPU-Modell angehängt, um den empfohlenen Arbeitslasttyp zu unterstützen.
KI- und ML-Arbeitslasten Grafiken und Visualisierung Beschleunigeroptimierte Maschinentypen der A-Serie sind für Arbeitslasten aus den Bereichen Hochleistungs-Computing (HPC), künstliche Intelligenz (KI) und maschinelles Lernen (ML) konzipiert. Bei diesen Maschinentypen wird das GPU-Modell automatisch an die Instanz angehängt.
Beschleunigungsoptimierte Maschinentypen der G-Serie sind für Arbeitslasten wie NVIDIA Omniverse-Simulationsarbeitslasten, grafikintensive Anwendungen, Videotranscodierung und virtuelle Desktops konzipiert. Diese Maschinentypen unterstützen NVIDIA RTX Virtual Workstations (vWS). Bei diesen Maschinentypen wird das GPU-Modell automatisch an die Instanz angehängt.
- A4X Max
(NVIDIA GB300 Ultra Superchips)
(nvidia-gb300) - A4X
(NVIDIA GB200 Superchips)
(nvidia-gb200) - A4
(NVIDIA B200)
(nvidia-b200) - A3 Ultra
(NVIDIA H200)
(nvidia-h200-141gb) - A3 Mega
(NVIDIA H100)
(nvidia-h100-mega-80gb) - A3 High
(NVIDIA H100)
(nvidia-h100-80gb) - A3 Edge
(NVIDIA H100)
(nvidia-h100-80gb) - A2 Ultra
(NVIDIA A100 80GB)
(nvidia-a100-80gb) - A2 Standard
(NVIDIA A100)
(nvidia-a100-40gb)
Gruppen von A4X-, A4- und A3 Ultra-VMs erstellen
Informationen zum Erstellen von Instanzen im Bulk für die Maschinenserien A4X, A4 und A3 Ultra finden Sie in der AI Hypercomputer-Dokumentation unter Übersicht über Bereitstellungsoptionen.
Gruppen von A3-, A2-, G4- und G2-VMs erstellen
In diesem Abschnitt wird beschrieben, wie Sie Instanzen für die Maschinenserien A3 High, A3 Mega, A3 Edge, A2 Standard, A2 Ultra, G4 und G2 mit der Google Cloud CLI oder REST im Bulk erstellen können.
gcloud
Verwenden Sie zum Erstellen einer Gruppe von VMs den Befehl
gcloud compute instances bulk create. Weitere Informationen zu den Parametern und zur Verwendung dieses Befehls finden Sie unter VMs im Bulk erstellen.Beispiel
In diesem Beispiel werden zwei VMs mit angehängten GPUs mit den folgenden Spezifikationen erstellt:
- VM-Namen:
my-test-vm-1,my-test-vm-2 - An jede VM sind zwei GPUs angehängt, für die der entsprechende beschleunigungsoptimierte Maschinentyps angegeben wird.
gcloud compute instances bulk create \ --name-pattern="my-test-vm-#" \ --region=REGION \ --count=2 \ --machine-type=MACHINE_TYPE \ --boot-disk-size=200 \ --image=IMAGE \ --image-project=IMAGE_PROJECT \ --on-host-maintenance=TERMINATEDabei gilt:
REGION: Die Region für die VMs. Diese Region muss den ausgewählten beschleunigungsoptimierten Maschinentyp unterstützen.MACHINE_TYPE: Der ausgewählte Maschinentyp Wählen Sie eine der folgenden Optionen aus:- Ein A3 High-Maschinentyp
- Ein A3 Mega-Maschinentyp
- Ein A3 Edge-Maschinentyp
- Ein A2-Standardmaschinentyp
- Ein A2 Ultra-Maschinentyp
- Ein G4-Maschinentyp
- Ein G2-Maschinentyp
G2-Maschinentypen unterstützen auch benutzerdefinierten Arbeitsspeicher. Der Arbeitsspeicher muss ein Vielfaches von 1.024 MB sein und innerhalb des unterstützten Arbeitsspeicherbereichs liegen. Geben Sie beispielsweise
--machine-type=g2-custom-4-19456an, um eine VM mit 4 vCPUs und 19 GB Arbeitsspeicher zu erstellen.
IMAGE: Ein Betriebssystem-Image, das GPUs unterstützt.Wenn Sie das neueste Image in einer Image-Familie verwenden möchten, ersetzen Sie das Flag
--imagedurch das Flag--image-familyund legen Sie dessen Wert auf eine Image-Familie fest, die GPUs unterstützt. Beispiel:--image-family=rocky-linux-8-optimized-gcp.Sie können auch ein benutzerdefiniertes Image oder Deep Learning VM Images angeben.
IMAGE_PROJECT: Das Compute Engine-Image-Projekt, zu dem das Betriebssystem-Image gehört. Wenn Sie ein benutzerdefiniertes Image oder Deep Learning VM Images verwenden, geben Sie das Projekt an, zu dem diese Images gehören.VWS_ACCELERATOR_COUNTist die Anzahl der benötigten virtuellen GPUs.
Falls erfolgreich sieht die Ausgabe etwa so aus:
NAME ZONE my-test-vm-1 us-central1-b my-test-vm-2 us-central1-b Bulk create request finished with status message: [VM instances created: 2, failed: 0.]
Optionale Flags
Wenn Sie Ihre Instanz weiter konfigurieren möchten, um die Anforderungen Ihrer Arbeitslast oder Ihres Betriebssystems zu erfüllen, fügen Sie beim Ausführen des
gcloud compute instances bulk create-Befehls ein oder mehrere der folgenden Flags ein.Funktion Beschreibung Bereitstellungsmodell Legt das Bereitstellungsmodell für die Instanz fest. Geben Sie entweder SPOToderFLEX_STARTan.FLEX_STARTwird für G4-Instanzen nicht unterstützt. Wenn Sie kein Modell angeben, wird das Standardmodell verwendet. Weitere Informationen finden Sie unter Bereitstellungsmodelle für Compute Engine-Instanzen.--provisioning-model=PROVISIONING_MODEL
Virtuelle Workstation Gibt eine virtuelle NVIDIA RTX-Workstation (vWS) für Grafikarbeitslasten an. Diese Funktion wird nur für G4- und G2-Instanzen unterstützt. --accelerator=type=VWS_ACCELERATOR_TYPE,count=VWS_ACCELERATOR_COUNT
Ersetzen Sie Folgendes:
- Wählen Sie für
VWS_ACCELERATOR_TYPEeine der folgenden Optionen aus:- Geben Sie für G4-Instanzen
nvidia-rtx-pro-6000-vwsan. - Geben Sie für G2-Instanzen
nvidia-l4-vwsan.
- Geben Sie für G4-Instanzen
- Geben Sie für
VWS_ACCELERATOR_COUNTdie Anzahl der benötigten virtuellen GPUs an.
Lokale SSD Hängt Ihrer Instanz eine oder mehrere lokale SSDs an. Lokale SSDs können als schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden. Die maximale Anzahl lokaler SSD-Laufwerke, die Sie pro VM-Instanz anhängen können, finden Sie unter Grenzwerte für lokale SSDs.--local-ssd=interface=nvme \ --local-ssd=interface=nvme \ --local-ssd=interface=nvme ...Netzwerkschnittstelle Hängt mehrere Netzwerkschnittstellen an Ihre Instanz an. Für g4-standard-384-Instanzen können Sie bis zu zwei Netzwerkschnittstellen anhängen. Mit diesem Flag können Sie eine Instanz mit zwei Netzwerkschnittstellen (2 × 200 Gbit/s) erstellen. Jede Netzwerkschnittstelle muss sich in einem eindeutigen VPC-Netzwerk befinden.--network-interface=network=VPC_NAME_1,subnet=SUBNET_NAME_1,nic-type=GVNIC \ --network-interface=network=VPC_NAME_2,subnet=SUBNET_NAME_2,nic-type=GVNIC
Duale Netzwerkschnittstellen werden nur auf
g4-standard-384-Maschinentypen unterstützt.Ersetzen Sie Folgendes:
VPC_NAME: der Name Ihres VPC-Netzwerks.SUBNET_NAME: der Name des Subnetzes, das Teil des angegebenen VPC-Netzwerk ist.
REST
Verwenden Sie die Methode
instances.bulkInsertmit den erforderlichen Parametern, um mehrere VMs in einer Zone zu erstellen. Weitere Informationen zu den Parametern und zur Verwendung dieses Befehls finden Sie unter VMs im Bulk erstellen.Beispiel
In diesem Beispiel werden zwei VMs mit angehängten GPUs mit den folgenden Spezifikationen erstellt:
- VM-Namen:
my-test-vm-1,my-test-vm-2 An jede VM sind zwei GPUs angehängt, für die der entsprechende beschleunigungsoptimierte Maschinentyps angegeben wird.
POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/REGION/instances/bulkInsert { "namePattern":"my-test-vm-#", "count":"2", "instanceProperties": { "machineType":MACHINE_TYPE, "disks":[ { "type":"PERSISTENT", "initializeParams":{ "diskSizeGb":"200", "sourceImage":SOURCE_IMAGE_URI }, "boot":true } ], "name": "default", "networkInterfaces": [ { "network": "projects/PROJECT_ID/global/networks/default" } ], "scheduling":{ "onHostMaintenance":"TERMINATE", ["automaticRestart":true] } } }
Dabei gilt:
PROJECT_ID: Ihre Projekt-ID.REGION: Die Region für die VMs. Diese Region muss das ausgewählte GPU-Modell unterstützen.MACHINE_TYPE: Der ausgewählte Maschinentyp Wählen Sie eine der folgenden Optionen aus:- Ein A3 High-Maschinentyp
- Ein A3 Mega-Maschinentyp
- Ein A3 Edge-Maschinentyp
- Ein A2-Standardmaschinentyp
- Ein A2 Ultra-Maschinentyp
- Ein G4-Maschinentyp
- Ein G2-Maschinentyp.
G2-Maschinentypen unterstützen auch benutzerdefinierten Arbeitsspeicher. Der Arbeitsspeicher muss ein Vielfaches von 1.024 MB sein und innerhalb des unterstützten Arbeitsspeicherbereichs liegen. Der Maschinentypname für eine Instanz mit 4 vCPUs und 19 GB Arbeitsspeicher wäre beispielsweise
g2-custom-4-19456.
SOURCE_IMAGE_URI: Der URI für das spezifische Image oder die Image-Familie, die Sie verwenden möchten.Beispiel:
- Spezifisches Image:
"sourceImage": "projects/rocky-linux-cloud/global/images/rocky-linux-8-optimized-gcp-v20220719" - Image-Familie:
"sourceImage": "projects/rocky-linux-cloud/global/images/family/rocky-linux-8-optimized-gcp".
Wenn Sie eine Image-Familie angeben, erstellt Compute Engine eine VM aus dem neuesten nicht verworfenen Betriebssystem-Image in dieser Familie. Weitere Informationen zur Verwendung von Image-Familien finden Sie unter Best Practices für Image-Familien.
- Spezifisches Image:
Optionale Flags
Wenn Sie Ihre Instanz weiter konfigurieren möchten, um die Anforderungen Ihrer Arbeitslast oder Ihres Betriebssystems zu erfüllen, fügen Sie beim Ausführen der Methode
instances.bulkInsertein oder mehrere der folgenden Flags ein.Funktion Beschreibung Bereitstellungsmodell Um Ihre Kosten zu senken, können Sie ein anderes Bereitstellungsmodell angeben, indem Sie das Feld "provisioningModel": "PROVISIONING_MODEL"dem Objektschedulingin Ihrer Anfrage hinzufügen. Wenn Sie angeben, dass Spot-VMs erstellt werden sollen, werden die FelderonHostMaintenanceundautomaticRestartignoriert. Weitere Informationen finden Sie unter Bereitstellungsmodelle für Compute Engine-Instanzen."scheduling": { "onHostMaintenance": "terminate", "provisioningModel": "PROVISIONING_MODEL" }Ersetzen Sie
PROVISIONING_MODELdurch einen der folgenden Werte:STANDARD: (Standard) Eine Standardinstanz.SPOT: Eine Spot-VM.FLEX_START: Eine Flex-Start-VM. Flex-Start-VMs werden bis zu sieben Tage lang ausgeführt und können Ihnen helfen, stark nachgefragte Ressourcen wie GPUs zu einem reduzierten Preis zu erwerben. Dieses Bereitstellungsmodell wird für G4-Instanzen nicht unterstützt.
Virtuelle Workstation Gibt eine virtuelle NVIDIA RTX-Workstation (vWS) für Grafikarbeitslasten an. Diese Funktion wird nur für G4- und G2-Instanzen unterstützt. "guestAccelerators": [ { "acceleratorCount": VWS_ACCELERATOR_COUNT, "acceleratorType": "projects/PROJECT_ID/zones/ZONE/acceleratorTypes/VWS_ACCELERATOR_TYPE" } ]Ersetzen Sie Folgendes:
- Wählen Sie für
VWS_ACCELERATOR_TYPEeine der folgenden Optionen aus:- Geben Sie für G4-Instanzen
nvidia-rtx-pro-6000-vwsan. - Geben Sie für G2-Instanzen
nvidia-l4-vwsan.
- Geben Sie für G4-Instanzen
- Geben Sie für
VWS_ACCELERATOR_COUNTdie Anzahl der benötigten virtuellen GPUs an.
Lokale SSD Hängt Ihrer Instanz eine oder mehrere lokale SSDs an. Lokale SSDs können als schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden. Die maximale Anzahl lokaler SSD-Laufwerke, die Sie pro VM-Instanz anhängen können, finden Sie unter Grenzwerte für lokale SSDs.{ "type": "SCRATCH", "autoDelete": true, "initializeParams": { "diskType": "projects/PROJECT_ID/zones/ZONE/diskTypes/local-nvme-ssd" } }Netzwerkschnittstelle Hängt mehrere Netzwerkschnittstellen an Ihre Instanz an. Für g4-standard-384-Instanzen können Sie bis zu zwei Netzwerkschnittstellen anhängen. So wird eine Instanz mit zwei Netzwerkschnittstellen (2 × 200 Gbit/s) erstellt. Jede Netzwerkschnittstelle muss sich in einem eindeutigen VPC-Netzwerk befinden."networkInterfaces": [ { "network": "projects/PROJECT_ID/global/networks/VPC_NAME_1", "subnetwork": "projects/PROJECT_ID/regions/REGION/subnetworks/SUBNET_NAME_1", "nicType": "GVNIC" }, { "network": "projects/PROJECT_ID/global/networks/VPC_NAME_2", "subnetwork": "projects/PROJECT_ID/regions/REGION/subnetworks/SUBNET_NAME_2", "nicType": "GVNIC" } ]Duale Netzwerkschnittstellen werden nur auf
g4-standard-384-Maschinentypen unterstützt.Ersetzen Sie Folgendes:
VPC_NAME: der Name Ihres VPC-Netzwerks.SUBNET_NAME: der Name des Subnetzes, das Teil des angegebenen VPC-Netzwerk ist.
Gruppen von N1-VMs für allgemeine Zwecke erstellen
Sie erstellen eine Gruppe von VMs mit angehängten GPUs über die Google Cloud CLI oder REST.
In diesem Abschnitt wird beschrieben, wie Sie VMs mit folgenden GPU-Typen erstellen:
NVIDIA-GPUs:
- NVIDIA T4:
nvidia-tesla-t4 - NVIDIA P4:
nvidia-tesla-p4 - NVIDIA P100:
nvidia-tesla-p100 - NVIDIA V100:
nvidia-tesla-v100
NVIDIA RTX Virtuelle Workstation (vWS) (ehemals NVIDIA GRID):
- Virtuelle NVIDIA T4-Workstation:
nvidia-tesla-t4-vws - Virtuelle NVIDIA P100-Workstation:
nvidia-tesla-p4-vws Virtuelle NVIDIA P100-Workstation:
nvidia-tesla-p100-vwsFür diese virtuellen Workstations wird Ihrer Instanz automatisch eine Lizenz für NVIDIA RTX Virtual Workstation (vWS) hinzugefügt.
gcloud
Verwenden Sie zum Erstellen einer Gruppe von VMs den Befehl
gcloud compute instances bulk create. Weitere Informationen zu den Parametern und zur Verwendung dieses Befehls finden Sie unter VMs im Bulk erstellen.Beispiel
Im folgenden Beispiel werden zwei VMs mit angehängten GPUs mit den folgenden Spezifikationen erstellt:
- VM-Namen:
my-test-vm-1,my-test-vm-2 - VMs, die in einer beliebigen Zone in
us-central1erstellt wurden, die GPUs unterstützt - An jede VM sind zwei T4-GPUs angehängt. Diese werden mit dem Flag „Beschleunigertyp“ und „Beschleunigeranzahl“ angegeben
- Auf jeder VM sind GPU-Treiber installiert
- Jede VM verwendet das Deep Learning VM Image
pytorch-latest-gpu-v20211028-debian-10
gcloud compute instances bulk create \ --name-pattern="my-test-vm-#" \ --count=2 \ --region=us-central1 \ --machine-type=n1-standard-2 \ --accelerator type=nvidia-tesla-t4,count=2 \ --boot-disk-size=200 \ --metadata="install-nvidia-driver=True" \ --scopes="https://www.googleapis.com/auth/cloud-platform" \ --image=pytorch-latest-gpu-v20211028-debian-10 \ --image-project=deeplearning-platform-release \ --on-host-maintenance=TERMINATE --restart-on-failureFalls erfolgreich sieht die Ausgabe etwa so aus:
NAME ZONE my-test-vm-1 us-central1-b my-test-vm-2 us-central1-b Bulk create request finished with status message: [VM instances created: 2, failed: 0.]
REST
Verwenden Sie die Methode
instances.bulkInsertmit den erforderlichen Parametern, um mehrere VMs in einer Zone zu erstellen. Weitere Informationen zu den Parametern und zur Verwendung dieses Befehls finden Sie unter VMs im Bulk erstellen.Beispiel
Im folgenden Beispiel werden zwei VMs mit angehängten GPUs mit den folgenden Spezifikationen erstellt:
- VM-Namen:
my-test-vm-1,my-test-vm-2 - VMs, die in einer beliebigen Zone in
us-central1erstellt wurden, die GPUs unterstützt - An jede VM sind zwei T4-GPUs angehängt. Diese werden mit dem Flag „Beschleunigertyp“ und „Beschleunigeranzahl“ angegeben
- Auf jeder VM sind GPU-Treiber installiert
- Jede VM verwendet das Deep Learning VM Image
pytorch-latest-gpu-v20211028-debian-10
Ersetzen Sie
PROJECT_IDdurch Ihre Projekt-ID.POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/us-central1/instances/bulkInsert { "namePattern":"my-test-vm-#", "count":"2", "instanceProperties": { "machineType":"n1-standard-2", "disks":[ { "type":"PERSISTENT", "initializeParams":{ "diskSizeGb":"200", "sourceImage":"projects/deeplearning-platform-release/global/images/pytorch-latest-gpu-v20211028-debian-10" }, "boot":true } ], "name": "default", "networkInterfaces": [ { "network": "projects/PROJECT_ID/global/networks/default" } ], "guestAccelerators": [ { "acceleratorCount": 2, "acceleratorType": "nvidia-tesla-t4" } ], "scheduling":{ "onHostMaintenance":"TERMINATE", "automaticRestart":true }, "metadata":{ "items":[ { "key":"install-nvidia-driver", "value":"True" } ] } } }Nächste Schritte
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2026-01-06 (UTC).
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2026-01-06 (UTC)."],[],[]] -