このドキュメントでは、AI Hypercomputer がサポートする GPU マシンシリーズについて説明します。これらのマシンシリーズを使用する Compute Engine インスタンスとクラスタを作成して、AI、ML、ハイ パフォーマンス コンピューティング(HPC)のワークロードを実行できます。
AI Hypercomputer で GPU を使用するには、アクセラレータ最適化マシン ファミリーのほとんどのマシンシリーズを使用できます。アクセラレータ最適化マシン ファミリーの各マシンシリーズは、特定の GPU モデルを使用します。アクセラレータ最適化マシン ファミリーの詳細については、アクセラレータ最適化マシン ファミリーをご覧ください。
次のセクションでは、AI Hypercomputer がサポートするアクセラレータ最適化マシンシリーズについて説明します。
A4X Max と A4X シリーズ
このセクションでは、A4X Max マシンシリーズと A4X マシンシリーズで使用可能な構成の概要を説明します。これらのマシンシリーズの詳細については、Compute Engine ドキュメントの A4X および A4X Max アクセラレータ最適化マシンシリーズをご覧ください。
A4X Max(ベアメタル)
A4X Max マシンタイプは、NVIDIA GB300 Grace Blackwell Ultra Superchip(nvidia-gb300)を使用しており、基盤モデルのトレーニングとサービングに最適です。A4X Max マシンタイプは、ベアメタル インスタンスとして使用できます。
A4X Max は、NVIDIA GB300 NVL72 に基づくエクサスケール プラットフォームです。各マシンには、Arm Neoverse V2 コアの NVIDIA Grace CPU を搭載した 2 つのソケットがあります。これらの CPU は、高速チップ間(NVLink-C2C)通信対応の 4 つの NVIDIA B300 Blackwell GPU に接続されています。
| アタッチされた NVIDIA GB300 Grace Blackwell Ultra Superchip | |||||||
|---|---|---|---|---|---|---|---|
| マシンタイプ | vCPU 数1 | インスタンスのメモリ(GB) | アタッチされたローカル SSD(GiB) | 物理 NIC の数 | 最大ネットワーク帯域幅(Gbps)2 | GPU 数 | GPU メモリ3 (GB HBM3e) |
a4x-maxgpu-4g-metal |
144 | 960 | 12,000 | 6 | 3,600 | 4 | 1,116 |
1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリであり、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。
A4X
A4X マシンタイプは、NVIDIA GB200 Grace Blackwell Superchip(nvidia-gb200)を使用しており、基盤モデルのトレーニングとサービングに最適です。
A4X は、NVIDIA GB200 NVL72 に基づくエクサスケール プラットフォームです。各マシンには、Arm Neoverse V2 コアの NVIDIA Grace CPU を搭載した 2 つのソケットがあります。これらの CPU は、高速チップ間(NVLink-C2C)通信対応の 4 つの NVIDIA B200 Blackwell GPU に接続されています。
| アタッチされた NVIDIA GB200 Grace Blackwell Superchip | |||||||
|---|---|---|---|---|---|---|---|
| マシンタイプ | vCPU 数1 | インスタンスのメモリ(GB) | アタッチされたローカル SSD(GiB) | 物理 NIC の数 | 最大ネットワーク帯域幅(Gbps)2 | GPU 数 | GPU メモリ3 (GB HBM3e) |
a4x-highgpu-4g |
140 | 884 | 12,000 | 6 | 2,000 | 4 | 744 |
1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリであり、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。
A4 シリーズ
このセクションでは、A4 マシンシリーズで使用可能な構成の概要を説明します。このマシンシリーズの詳細については、Compute Engine ドキュメントの A4 アクセラレータ最適化マシンシリーズをご覧ください。
A4
A4 マシンタイプには NVIDIA B200 Blackwell GPU(nvidia-b200)がアタッチされており、基盤モデルのトレーニングとサービングに最適です。
| アタッチされた NVIDIA B200 Blackwell GPU | |||||||
|---|---|---|---|---|---|---|---|
| マシンタイプ | vCPU 数1 | インスタンスのメモリ(GB) | アタッチされたローカル SSD(GiB) | 物理 NIC の数 | 最大ネットワーク帯域幅(Gbps)2 | GPU 数 | GPU メモリ3 (GB HBM3e) |
a4-highgpu-8g |
224 | 3,968 | 12,000 | 10 | 3,600 | 8 | 1,440 |
1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリであり、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。
A3 シリーズ
このセクションでは、A3 マシンシリーズで使用可能な構成の概要を説明します。このマシンシリーズの詳細については、Compute Engine ドキュメントの A3 アクセラレータ最適化マシンシリーズをご覧ください。
A3 Ultra
A3 Ultra マシンタイプには NVIDIA H200 SXM GPU(nvidia-h200-141gb)が割り当てられており、A3 シリーズで最も高いネットワーク パフォーマンスを提供します。A3 Ultra マシンタイプは、基盤モデルのトレーニングとサービングに最適です。
| アタッチされた NVIDIA H200 GPU | |||||||
|---|---|---|---|---|---|---|---|
| マシンタイプ | vCPU 数1 | インスタンスのメモリ(GB) | アタッチされたローカル SSD(GiB) | 物理 NIC の数 | 最大ネットワーク帯域幅(Gbps)2 | GPU 数 | GPU メモリ3 (GB HBM3e) |
a3-ultragpu-8g |
224 | 2,952 | 12,000 | 10 | 3,600 | 8 | 1128 |
1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリであり、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。
A3 Mega
A3 Mega マシンタイプには NVIDIA H100 SXM GPU が搭載されており、大規模なモデルのトレーニングとマルチホスト推論に最適です。| アタッチされた NVIDIA H100 GPU | |||||||
|---|---|---|---|---|---|---|---|
| マシンタイプ | vCPU 数1 | インスタンスのメモリ(GB) | アタッチされたローカル SSD(GiB) | 物理 NIC の数 | 最大ネットワーク帯域幅(Gbps)2 | GPU 数 | GPU メモリ3 (GB HBM3) |
a3-megagpu-8g |
208 | 1,872 | 6,000 | 9 | 1,800 | 8 | 640 |
1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリであり、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。
A3 High
A3 High マシンタイプには NVIDIA H100 SXM GPU が搭載されており、大規模なモデル推論とモデルのファインチューニングの両方に適しています。| アタッチされた NVIDIA H100 GPU | |||||||
|---|---|---|---|---|---|---|---|
| マシンタイプ | vCPU 数1 | インスタンスのメモリ(GB) | アタッチされたローカル SSD(GiB) | 物理 NIC の数 | 最大ネットワーク帯域幅(Gbps)2 | GPU 数 | GPU メモリ3 (GB HBM3) |
a3-highgpu-1g |
26 | 234 | 750 | 1 | 25 | 1 | 80 |
a3-highgpu-2g |
52 | 468 | 1,500 | 1 | 50 | 2 | 160 |
a3-highgpu-4g |
104 | 936 | 3,000 | 1 | 100 | 4 | 320 |
a3-highgpu-8g |
208 | 1,872 | 6,000 | 5 | 1,000 | 8 | 640 |
1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリであり、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。
A3 Edge
A3 Edge マシンタイプには NVIDIA H100 SXM GPU が搭載されており、サービング専用に設計されています。限定されたリージョン セットで使用できます。| アタッチされた NVIDIA H100 GPU | |||||||
|---|---|---|---|---|---|---|---|
| マシンタイプ | vCPU 数1 | インスタンスのメモリ(GB) | アタッチされたローカル SSD(GiB) | 物理 NIC の数 | 最大ネットワーク帯域幅(Gbps)2 | GPU 数 | GPU メモリ3 (GB HBM3) |
a3-edgegpu-8g |
208 | 1,872 | 6,000 | 5 |
|
8 | 640 |
1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリであり、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。
次のステップ
GPU の詳細については、Compute Engine のドキュメントの次のページをご覧ください。
- Compute Engine の GPU について学習する。
- GPU のリージョンとゾーンの可用性を確認する。
- GPU の料金について学習する。