GPU マシンタイプ

このドキュメントでは、AI Hypercomputer がサポートする GPU マシンシリーズについて説明します。これらのマシンシリーズを使用する Compute Engine インスタンスとクラスタを作成して、AI、ML、ハイ パフォーマンス コンピューティング(HPC)のワークロードを実行できます。

AI Hypercomputer で GPU を使用するには、アクセラレータ最適化マシン ファミリーのほとんどのマシンシリーズを使用できます。アクセラレータ最適化マシン ファミリーの各マシンシリーズは、特定の GPU モデルを使用します。アクセラレータ最適化マシン ファミリーの詳細については、アクセラレータ最適化マシン ファミリーをご覧ください。

次のセクションでは、AI Hypercomputer がサポートするアクセラレータ最適化マシンシリーズについて説明します。

A4X Max と A4X シリーズ

このセクションでは、A4X Max マシンシリーズと A4X マシンシリーズで使用可能な構成の概要を説明します。これらのマシンシリーズの詳細については、Compute Engine ドキュメントの A4X および A4X Max アクセラレータ最適化マシンシリーズをご覧ください。

A4X Max(ベアメタル)

A4X Max マシンタイプは、NVIDIA GB300 Grace Blackwell Ultra Superchip(nvidia-gb300)を使用しており、基盤モデルのトレーニングとサービングに最適です。A4X Max マシンタイプは、ベアメタル インスタンスとして使用できます。

A4X Max は、NVIDIA GB300 NVL72 に基づくエクサスケール プラットフォームです。各マシンには、Arm Neoverse V2 コアの NVIDIA Grace CPU を搭載した 2 つのソケットがあります。これらの CPU は、高速チップ間(NVLink-C2C)通信対応の 4 つの NVIDIA B300 Blackwell GPU に接続されています。

アタッチされた NVIDIA GB300 Grace Blackwell Ultra Superchip
マシンタイプ vCPU 数1 インスタンスのメモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)2 GPU 数 GPU メモリ3
(GB HBM3e)
a4x-maxgpu-4g-metal 144 960 12,000 6 3,600 4 1,116

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリであり、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

A4X

A4X マシンタイプは、NVIDIA GB200 Grace Blackwell Superchip(nvidia-gb200)を使用しており、基盤モデルのトレーニングとサービングに最適です。

A4X は、NVIDIA GB200 NVL72 に基づくエクサスケール プラットフォームです。各マシンには、Arm Neoverse V2 コアの NVIDIA Grace CPU を搭載した 2 つのソケットがあります。これらの CPU は、高速チップ間(NVLink-C2C)通信対応の 4 つの NVIDIA B200 Blackwell GPU に接続されています。

アタッチされた NVIDIA GB200 Grace Blackwell Superchip
マシンタイプ vCPU 数1 インスタンスのメモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)2 GPU 数 GPU メモリ3
(GB HBM3e)
a4x-highgpu-4g 140 884 12,000 6 2,000 4 744

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリであり、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

A4 シリーズ

このセクションでは、A4 マシンシリーズで使用可能な構成の概要を説明します。このマシンシリーズの詳細については、Compute Engine ドキュメントの A4 アクセラレータ最適化マシンシリーズをご覧ください。

A4

A4 マシンタイプには NVIDIA B200 Blackwell GPUnvidia-b200)がアタッチされており、基盤モデルのトレーニングとサービングに最適です。

アタッチされた NVIDIA B200 Blackwell GPU
マシンタイプ vCPU 数1 インスタンスのメモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)2 GPU 数 GPU メモリ3
(GB HBM3e)
a4-highgpu-8g 224 3,968 12,000 10 3,600 8 1,440

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリであり、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

A3 シリーズ

このセクションでは、A3 マシンシリーズで使用可能な構成の概要を説明します。このマシンシリーズの詳細については、Compute Engine ドキュメントの A3 アクセラレータ最適化マシンシリーズをご覧ください。

A3 Ultra

A3 Ultra マシンタイプには NVIDIA H200 SXM GPUnvidia-h200-141gb)が割り当てられており、A3 シリーズで最も高いネットワーク パフォーマンスを提供します。A3 Ultra マシンタイプは、基盤モデルのトレーニングとサービングに最適です。

アタッチされた NVIDIA H200 GPU
マシンタイプ vCPU 数1 インスタンスのメモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)2 GPU 数 GPU メモリ3
(GB HBM3e)
a3-ultragpu-8g 224 2,952 12,000 10 3,600 8 1128

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリであり、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

A3 Mega

A3 Mega マシンタイプには NVIDIA H100 SXM GPU が搭載されており、大規模なモデルのトレーニングとマルチホスト推論に最適です。
アタッチされた NVIDIA H100 GPU
マシンタイプ vCPU 数1 インスタンスのメモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)2 GPU 数 GPU メモリ3
(GB HBM3)
a3-megagpu-8g 208 1,872 6,000 9 1,800 8 640

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリであり、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

A3 High

A3 High マシンタイプには NVIDIA H100 SXM GPU が搭載されており、大規模なモデル推論とモデルのファインチューニングの両方に適しています。
アタッチされた NVIDIA H100 GPU
マシンタイプ vCPU 数1 インスタンスのメモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)2 GPU 数 GPU メモリ3
(GB HBM3)
a3-highgpu-1g 26 234 750 1 25 1 80
a3-highgpu-2g 52 468 1,500 1 50 2 160
a3-highgpu-4g 104 936 3,000 1 100 4 320
a3-highgpu-8g 208 1,872 6,000 5 1,000 8 640

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリであり、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

A3 Edge

A3 Edge マシンタイプには NVIDIA H100 SXM GPU が搭載されており、サービング専用に設計されています。限定されたリージョン セットで使用できます。
アタッチされた NVIDIA H100 GPU
マシンタイプ vCPU 数1 インスタンスのメモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)2 GPU 数 GPU メモリ3
(GB HBM3)
a3-edgegpu-8g 208 1,872 6,000 5 8 640

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリであり、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

次のステップ

GPU の詳細については、Compute Engine のドキュメントの次のページをご覧ください。