Übersicht über die Bereitstellungsoptionen

Zum Ausführen von Arbeitslasten aus den Bereichen künstliche Intelligenz (KI), maschinelles Lernen (ML) oder Hochleistungs-Computing (HPC) können Sie KI-optimierte Compute Engine-Instanzen und -Cluster bereitstellen, die A4X-, A4-, A3 Ultra-, A3 Mega- und A3 High-Maschinen (8 GPUs) verwenden. Weitere Informationen zu den Funktionen dieser Maschinen, mit denen Sie KI- und ML Cluster im großen Maßstab ausführen können, finden Sie unter Übersicht zur Clusterverwaltung.

Sie können A4X-, A4-, A3 Ultra-, A3 Mega- und A3 High-Instanzen (8 GPUs) direkt über Compute Engine oder über andere Dienste erstellen, die auf Compute Engine-Instanzen ausgeführt werden, z. B. Cluster Toolkit oder Google Kubernetes Engine.

Wählen Sie eine der folgenden Optionen aus, um die am besten geeignete Option zum Erstellen von Compute-Instanzen oder -Clustern für Ihren Anwendungsfall zu finden:

Option Anwendungsfall
Cluster Director Sie möchten einen vollständig verwalteten Dienst, der die Einrichtung und Konfiguration Ihrer Slurm-Cluster automatisiert. Mit Cluster Director können Sie Compute-, Netzwerk- und Speicherressourcen für Ihre Cluster konfigurieren, um die Leistung zu maximieren und Ausfallzeiten zu minimieren. Weitere Informationen finden Sie unter Vollständig verwalteten Slurm-Cluster für KI-Arbeitslasten erstellen.
Cluster Toolkit

Sie möchten Open-Source-Software verwenden, die die Bereitstellung von Slurm- und GKE-Clustern vereinfacht. Cluster Toolkit ist hochgradig anpassbar und erweiterbar. Weitere Informationen nachstehend:

GKE Sie möchten maximale Flexibilität bei der Konfiguration Ihres Google Kubernetes Engine-Clusters basierend auf den Anforderungen Ihrer Arbeitslast. Weitere Informationen finden Sie unter Benutzerdefinierten KI-optimierten Google Kubernetes Engine-Cluster erstellen.
Compute Engine verwenden

Sie möchten die vollständige Kontrolle über die Infrastrukturschicht haben, damit Sie Ihren eigenen Orchestrator einrichten können. Weitere Informationen nachstehend: