Übersicht über die Bereitstellungsoptionen

Wenn Sie Arbeitslasten aus den Bereichen künstliche Intelligenz (KI), maschinelles Lernen (ML) oder Hochleistungs-Computing (HPC) ausführen möchten, können Sie KI-optimierte Compute Engine-Instanzen und -Cluster bereitstellen, die A4X-, A4-, A3 Ultra-, A3 Mega- und A3 High-Maschinen (8 GPUs) verwenden. Weitere Informationen zu den Funktionen dieser Maschinen, mit denen Sie KI- und ML-Cluster im großen Maßstab ausführen können, finden Sie unter Clusterverwaltung – Übersicht.

Sie können A4X-, A4-, A3 Ultra-, A3 Mega- und A3 High-Instanzen (8 GPUs) direkt über Compute Engine oder über andere Dienste erstellen, die auf Compute Engine-Instanzen ausgeführt werden, z. B. Cluster Toolkit oder Google Kubernetes Engine.

Wählen Sie eine der folgenden Optionen aus, um die für Ihren Anwendungsfall am besten geeigneten Compute-Instanzen oder ‑Cluster zu erstellen:

Option Anwendungsfall
Cluster Director Sie möchten einen vollständig verwalteten Dienst, der die Einrichtung und Konfiguration Ihrer Slurm-Cluster automatisiert. Mit Cluster Director können Sie Rechen-, Netzwerk- und Speicherressourcen für Ihre Cluster konfigurieren, um die Leistung zu maximieren und Ausfallzeiten zu minimieren. Weitere Informationen finden Sie unter KI-optimierten Cluster auf Grundlage einer Vorlage erstellen.
Cluster Toolkit

Sie möchten Open-Source-Software verwenden, die die Bereitstellung von Slurm- und GKE-Clustern vereinfacht. Cluster Toolkit ist so konzipiert, dass es sich in hohem Maße anpassen und erweitern lässt. Weitere Informationen finden Sie unter:

GKE Sie möchten Ihren Google Kubernetes Engine-Cluster basierend auf den Anforderungen Ihrer Arbeitslast maximal flexibel konfigurieren. Weitere Informationen finden Sie unter Benutzerdefinierten KI-optimierten Google Kubernetes Engine-Cluster erstellen.
Compute Engine verwenden

Sie möchten die volle Kontrolle über die Infrastrukturschicht haben, damit Sie Ihren eigenen Orchestrator einrichten können. Weitere Informationen nachstehend: