アクセラレータ最適化マシン ファミリー

このドキュメントでは、NVIDIA GPU が事前に接続された仮想マシン(VM)インスタンスを提供するアクセラレータ最適化マシン ファミリーについて説明します。これらのインスタンスは、人工知能(AI)、機械学習(ML)、ハイ パフォーマンス コンピューティング(HPC)、グラフィック処理を多用するアプリケーション専用に設計されています。

アクセラレータ最適化マシン ファミリーは、A4X、A4、A3、A2、G4、G2 のマシンシリーズで使用できます。シリーズ内の各マシンタイプには、特定のモデルと数の NVIDIA GPU がアタッチされています。N1 汎用マシンタイプに一部の GPU モデルをアタッチすることもできます。

次のセクションでは、GPU ワークロードに基づいて推奨されるマシンシリーズについて説明します。

ワークロード タイプ 推奨マシンタイプ
モデルの事前トレーニング A4X、A4、A3 Ultra、A3 Mega、A3 High、A2

最適なマシンシリーズを特定するには、AI Hypercomputer のドキュメントのモデルの事前トレーニングに関する推奨事項をご覧ください。

モデルのファインチューニング A4X、A4、A3 Ultra、A3 Mega、A3 High、A2、G4(プレビュー版

最適なものを特定するには、AI Hypercomputer のドキュメントのモデルのファインチューニングに関する推奨事項をご覧ください。

推論のサービング A4X、A4、A3 Ultra、A3 Mega、A3 High、A3 Edge、A2、G4(プレビュー

最適なものを特定するには、AI Hypercomputer のドキュメントで推論のサービングに関する推奨事項をご覧ください。

グラフィックを多用するワークロード G4(プレビュー)、G2、N1+T4
ハイ パフォーマンス コンピューティング ハイ パフォーマンス コンピューティングのワークロードでは、アクセラレータ最適化マシンシリーズが適しています。最適なものは、GPU にオフロードする必要がある計算量によって異なります。

詳細については、AI Hypercomputer のドキュメントで HPC の推奨事項をご覧ください。

料金と使用オプション

消費オプションとは、コンピューティング リソースを取得して使用する方法を指します。Google Cloud は、アタッチされている GPU、事前定義された vCPU、メモリ、バンドルされたローカル SSD(該当する場合)に対して、アクセラレータ最適化マシンタイプを課金します。アクセラレータ最適化インスタンスの割引は、使用する消費オプションによって異なります。アクセラレータ最適化インスタンスの料金の詳細については、VM インスタンスの料金ページのアクセラレータ最適化マシンタイプ ファミリーのセクションをご覧ください。

アクセラレータ最適化インスタンスの割引は、選択した消費オプションによって異なります。

  • オンデマンド: リソースベースのコミットメントを購入すると、一部のリソースに対して確約利用割引(CUD)を受けることができます。ただし、オンデマンド オプションで使用する GPU とローカル SSD ディスクは CUD の対象外です。GPU とローカル SSD ディスクの CUD を受け取るには、代わりに予約オプションのいずれかを使用します。
  • Spot: Spot VM には、Spot VM の料金に基づいて自動的に割引が適用されます。
  • Flex Start(プレビュー): Flex Start 使用オプションを使用してプロビジョニングされたインスタンスには、Dynamic Workload Scheduler の料金に基づいて自動的に割引が適用されます。
  • 予約: アクセラレータ最適化マシンタイプのリソースに CUD を適用するには、リソースベースのコミットメントを購入します。GPU とローカル SSD ディスクのコミットメントには、それらのリソースの予約を関連付ける必要があります。

マシンタイプ別の使用オプションの可用性

次の表に、マシンシリーズ別の各消費オプションの可用性を示します。使用量オプションの選択方法については、AI Hypercomputer のドキュメントで使用量モデルを選択するをご覧ください。

マシンタイプ オンデマンド Spot Flex Start (プレビュー) オンデマンド予約 将来の予約 (プレビュー版) カレンダー モードの将来の予約 (プレビュー) AI Hypercomputer の将来の予約 (プレビュー)
A4X
A4
A3 Ultra
  • A3 Mega
  • 8 個の GPU を備えた A3 High
  • A3 Edge
8 個未満の GPU を搭載した A3 High
A2 Ultra と A2 Standard
G4(プレビュー 1
G2

1このマシンシリーズにアクセスする方法については、Google アカウント チームにお問い合わせください。

A4X マシンシリーズ

A4X マシンシリーズは、NVIDIA GB200 NVL72 ラックスケール アーキテクチャに基づくエクサスケール プラットフォームで実行され、最大 140 個の vCPU と 884 GB のメモリを備えています。このマシンシリーズは、コンピューティングとメモリを大量に消費する、ネットワークにバインドされた ML トレーニング、および HPC ワークロード用に最適化されています。A4X マシンシリーズは、単一のマシンタイプで使用できます。

A4X マシンタイプを使用して作成された VM インスタンスには、次の機能があります。

  • NVIDIA GB200 Superchip による GPU アクセラレーション: A4X インスタンスには NVIDIA GB200 Superchip が自動的にアタッチされます。これらの Superchip には NVIDIA B200 GPU が搭載されており、GPU あたり 180 GB のメモリを提供します。A4X には、Arm® Neoverse™ V2 コアの NVIDIA Grace™ CPU を搭載した 2 つのソケットがあります。これらの CPU は、高速チップ間(NVLink-C2C)通信対応の 4 つの B200 GPU に接続されています。

  • NVIDIA Grace CPU プラットフォーム: A4X インスタンスは NVIDIA Grace CPU プラットフォームを使用します。プラットフォームの詳細については、CPU プラットフォームをご覧ください。

  • 業界トップクラスの NVLink スケーラビリティ: マルチノード NVLink は、単一ドメインで最大 72 個の GPU にスケールアップします。NVIDIA B200 GPU は、GPU あたり双方向で 1,800 Gbps の GPU NVLink 帯域幅を提供します。システム内の 4 個の GPU 間のオールツーオール NVLink トポロジでは、NVLink 帯域幅の合計は最大 130 TB/秒です。

  • RoCE によるネットワーク機能の強化: A4X インスタンスでは、RDMA over Converged Ethernet(RoCE)により、NVIDIA ConnectX-7(CX-7)ネットワーク インターフェース カード(NIC)と Google のデータセンター全体を網羅する 4 方向のレール整列型ネットワークを組み合わせ、ネットワーク パフォーマンスを向上させています。A4X インスタンスは、RDMA over Converged Ethernet(RoCE)を活用することで、クラスタ内のインスタンス間のスループットを A4 インスタンスと比べて大幅に向上させています。

    CX-7 NIC は、4 方向のレール整列型ネットワーク トポロジで物理的に分離されているため、A4X インスタンスは 72 個の GPU のグループでスケールアウトし、単一の非ブロッキング クラスタで数千個の GPU までスケールアウトできます。

  • ネットワーク速度の向上: A3 マシンタイプを使用して作成されたインスタンスと比較して、ネットワーク速度が最大 4 倍向上しています。

  • データ転送と復元の仮想化の最適化: A4X インスタンスの Peripheral Component Interconnect Express(PCIe)トポロジは、ワークロードがデータ転送の最適化に使用できる、より正確な局所情報を提供します。

    GPU は、障害からの正常な復旧のための関数レベルリセット(FLR)と、特定のシナリオにおける同時実行の改善のためのアトミック オペレーションのサポートも公開しています。

  • ローカル SSD と Hyperdisk のサポート: A4X インスタンスには、12,000 GiB のローカル SSD が自動的に追加されます。ローカル SSD は、高速のスクラッチ ディスクとして、または I/O ボトルネックを防止しながらデータを GPU にフィードする場合に使用できます。

    より高いストレージ パフォーマンスを必要とするアプリケーションの場合は、最大 512 TiB の Hyperdisk を A4X インスタンスにアタッチできます。

  • 高密度割り当てとトポロジ対応のスケジューリングのサポート: A4X インスタンスをプロビジョニングする場合は、高密度で割り当てられた容量のブロックをリクエストできます。ホストマシンは、物理的に互いに近い場所に割り当てられ、リソースのブロックとしてプロビジョニングされ、動的 ML ネットワーク ファブリックで相互接続されるため、ネットワーク ホップを最小限に抑え、レイテンシを最小限に抑えるように最適化できます。また、A4X は、ジョブの配置に使用できるノードレベルとクラスタレベルのトポロジ情報を提供します。

A4X マシンタイプ

A4X アクセラレータ最適化マシンタイプは、NVIDIA GB200 Grace Blackwell Superchip(nvidia-gb200)を使用しており、基盤モデルのトレーニングとサービングに最適です。

A4X は、NVIDIA GB200 NVL72 に基づくエクサスケール プラットフォームです。各マシンには、Arm Neoverse V2 コアの NVIDIA Grace CPU を搭載した 2 つのソケットがあります。これらの CPU は、高速チップ間(NVLink-C2C)通信対応の 4 つの NVIDIA B200 Blackwell GPU に接続されています。

アタッチされた NVIDIA GB200 Grace Blackwell Superchip
マシンタイプ vCPU 数1 インスタンスのメモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)2 GPU 数 GPU メモリ3
(GB HBM3e)
a4x-highgpu-4g 140 884 12,000 6 2,000 4 720

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

A4X の制限事項

A4X インスタンスでサポートされているディスクタイプ

A4X インスタンスでは、次のブロック ストレージ タイプを使用できます。

  • Hyperdisk Balanced(hyperdisk-balanced): ブートディスクでサポートされている唯一のディスクタイプです。
  • Hyperdisk Extreme(hyperdisk-extreme
  • ローカル SSD: A4X マシンタイプを使用して作成されたインスタンスに自動的に追加されます。
インスタンスあたりのディスクの最大数1
マシンタイプ すべての Hyperdisk Hyperdisk Balanced Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme アタッチされたローカル SSD
a4x-highgpu-4g 128 128 なし なし 8 32

1Hyperdisk の使用量は、マシンタイプの料金体系とは別に課金されます。ディスクの料金については、Hyperdisk の料金をご覧ください。

ディスクと容量の上限

さまざまな Hyperdisk タイプを組み合わせてインスタンスにアタッチできますが、すべてのディスクタイプの最大合計ディスク容量(TiB)は、すべての Hyperdisk で 512 TiB を超えることはできません。

容量の上限の詳細については、 Hyperdisk のサイズとアタッチメントの上限をご覧ください。

A4 マシンシリーズ

A4 マシンシリーズには、最大 224 個の vCPU と 3,968 GB のメモリを備えたマシンタイプがあります。A4 インスタンスは、ほとんどの GPU アクセラレーテッド ワークロードに対し、以前の GPU インスタンス タイプの最大 3 倍のパフォーマンスを提供します。A4 は、特に大規模な ML トレーニング ワークロード(数百または数千の GPU など)に推奨されます。A4 マシンシリーズは、単一のマシンタイプで使用できます。

A4 マシンタイプを使用して作成された VM インスタンスには、次の機能があります。

  • NVIDIA B200 GPU による GPU アクセラレーション: A4 インスタンスには NVIDIA B200 GPU が自動的にアタッチされ、GPU あたり 180 GB の GPU メモリが提供されます。

  • 第 5 世代 Intel Xeon スケーラブル プロセッサ(Emerald Rapids): 最大 4.0 GHz のシングルコア最大ターボ周波数を維持します。このプロセッサの詳細については、CPU プラットフォームをご覧ください。

  • 業界トップクラスの NVLink スケーラビリティ: NVIDIA B200 GPU は、GPU あたり双方向で 1,800 Gbps の GPU NVLink 帯域幅を提供します。

    システム内の 8 個の GPU 間のオールツーオール NVLink トポロジでは、NVLink 帯域幅の合計は最大 14.4 Tbps です。

  • RoCE によるネットワーク機能の強化: RDMA over Converged Ethernet(RoCE)により、NVIDIA ConnectX-7 ネットワーク インターフェース カード(NIC)と Google のデータセンター全体を網羅する 4 方向のレール整列型ネットワークを組み合わせ、ネットワーク パフォーマンスを向上させています。A4 インスタンスは、RDMA over Converged Ethernet(RoCE)を活用することで、A3 Ultra マシンタイプで実行されているインスタンスを除くほとんどの A3 インスタンスと比べ、クラスタ内のインスタンス間のスループットを大幅に向上させています。

  • ネットワーク速度の向上: 前世代の A2 インスタンスと比較して、ネットワーク速度が最大 4 倍向上しています。

    ネットワークの詳細については、ネットワーク帯域幅と GPU をご覧ください。

  • データ転送と復元の仮想化の最適化: A4 インスタンスの Peripheral Component Interconnect Express(PCIe)トポロジは、ワークロードがデータ転送の最適化に使用できる、より正確な局所情報を提供します。

    GPU は、障害からの正常な復旧のための関数レベルリセット(FLR)と、特定のシナリオにおける同時実行の改善のためのアトミック オペレーションのサポートも公開しています。

  • ローカル SSD と Hyperdisk のサポート: A4 インスタンスには、12,000 GiB のローカル SSD が自動的に追加されます。ローカル SSD は、高速のスクラッチ ディスクとして、または I/O ボトルネックを防止しながらデータを GPU にフィードする場合に使用できます。

    より高いストレージ パフォーマンスを必要とするアプリケーションの場合は、最大 512 TiB の Hyperdisk を A4 インスタンスにアタッチすることもできます。

  • 高密度割り当てとトポロジ対応のスケジューリングのサポート: A4 インスタンスをプロビジョニングする場合は、高密度で割り当てられた容量のブロックをリクエストできます。ホストマシンは、物理的に互いに近い場所に割り当てられ、リソースのブロックとしてプロビジョニングされ、動的 ML ネットワーク ファブリックで相互接続されるため、ネットワーク ホップを最小限に抑え、レイテンシを最小限に抑えるように最適化できます。また、ジョブの配置に使用できるノードレベルとクラスタレベルのトポロジ情報を取得できます。

A4 マシンタイプ

A4 アクセラレータ最適化マシンタイプには、NVIDIA B200 Blackwell GPUnvidia-b200)がアタッチされており、基盤モデルのトレーニングとサービングに最適です。

接続された NVIDIA B200 Blackwell GPU
マシンタイプ vCPU 数1 インスタンスのメモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)2 GPU 数 GPU メモリ3
(GB HBM3e)
a4-highgpu-8g 224 3,968 12,000 10 3,600 8 1,440

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

A4 制限事項

  • 容量をリクエストできるのは、A4 マシンタイプのサポートされている使用オプションを使用する場合のみです。
  • A4 マシンタイプを使用するインスタンスは、継続利用割引フレキシブル確約利用割引の対象外となります。
  • A4 マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • A4 マシンタイプを使用するインスタンスでは、 Persistent Disk(リージョンまたはゾーン)を使用できません。
  • A4 マシンタイプは、Emerald Rapids CPU プラットフォームでのみ使用できます。
  • 既存のインスタンスのマシンタイプを A4 マシンタイプに変更することはできません。新しい A4 インスタンスの作成は可能です。A4 マシンタイプを使用してインスタンスを作成した後、マシンタイプを変更することはできません。
  • A4 マシンタイプは、単一テナンシーをサポートしません。
  • A4 マシンタイプでは Windows オペレーティング システムを実行できません。

A4 インスタンスでサポートされているディスクタイプ

A4 インスタンスでは、次のブロック ストレージ タイプを使用できます。

  • Hyperdisk Balanced(hyperdisk-balanced): ブートディスクでサポートされている唯一のディスクタイプです。
  • Hyperdisk Extreme(hyperdisk-extreme
  • ローカル SSD: A4 マシンタイプを使用して作成されたインスタンスに自動的に追加されます。
インスタンスあたりのディスクの最大数1
マシンタイプ すべての Hyperdisk Hyperdisk Balanced Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme アタッチされたローカル SSD
a4-highgpu-8g 128 128 なし なし 8 32

1Hyperdisk の使用量は、マシンタイプの料金体系とは別に課金されます。ディスクの料金については、Hyperdisk の料金をご覧ください。

ディスクと容量の上限

さまざまな Hyperdisk タイプを組み合わせてインスタンスにアタッチできますが、すべてのディスクタイプの最大合計ディスク容量(TiB)は、すべての Hyperdisk で 512 TiB を超えることはできません。

容量の上限の詳細については、 Hyperdisk のサイズとアタッチメントの上限をご覧ください。

A3 マシンシリーズ

A3 マシンシリーズは、最大 224 個の vCPU と 2,944 GB のメモリを備えています。このマシンシリーズは、コンピューティングとメモリを大量に消費する、ネットワークにバインドされた ML トレーニング、および HPC ワークロード用に最適化されています。A3 マシンシリーズは、A3 Ultra、A3 Mega、A3 High、A3 Edge の各マシンタイプで使用できます。

A3 マシンタイプを使用して作成された VM インスタンスには、次の機能があります。

機能 A3 Ultra A3 Mega、High、Edge
GPU アクセラレーション

NVIDIA H200 SXM GPU がアタッチされています。GPU あたり 141 GB の GPU メモリを提供し、大規模言語モデルと HPC ワークロードをサポートするために、より大きく高速なメモリを提供します。

NVIDIA H100 SXM GPU がアタッチされています。GPU あたり 80 GB の GPU メモリを提供し、Transformer ベースの大規模言語モデル、データベース、HPC に最適です。

Intel Xeon スケーラブル プロセッサ

第 5 世代 Intel Xeon スケーラブル プロセッサ(Emerald Rapids)を搭載し、最大 4.0 GHz のシングルコア最大ターボ周波数を維持します。このプロセッサの詳細については、CPU プラットフォームをご覧ください。

第 4 世代 Intel Xeon スケーラブル プロセッサ(Sapphire Rapids)を搭載し、シングルコア ターボ時に最大 3.3 GHz の周波数を維持します。このプロセッサの詳細については、CPU プラットフォームをご覧ください。

業界トップクラスの NVLink スケーラビリティ

NVIDIA H200 GPU は、一方向でピーク時に 900 GB/秒の GPU NVLink 帯域幅を提供します。

システム内の 8 個の GPU 間のオールツーオール NVLink トポロジでは、NVLink 帯域幅の合計は最大 7.2 TB/秒です。

NVIDIA H100 GPU は、一方向でピーク時に 450 GB/秒の GPU NVLink 帯域幅を提供します。

システム内の 8 個の GPU 間のオールツーオール NVLink トポロジでは、NVLink 帯域幅の合計は最大 7.2 TB/秒です。

拡張ネットワーキング このマシンタイプでは、RDMA over Converged Ethernet(RoCE)により、NVIDIA ConnectX-7 ネットワーク インターフェース カード(NIC)と Google のデータセンター全体を網羅する 4 方向のレール整列型ネットワークを組み合わせ、ネットワーク パフォーマンスを向上させています。a3-ultragpu-8g マシンタイプは、RDMA over Converged Ethernet(RoCE)を活用することで、他の A3 マシンタイプよりもクラスタ内のインスタンス間のスループットを大幅に向上させています。
  • A3 Mega マシンタイプでは、GPUDirect-TCPXO によって TCP プロトコルがオフロードされるため、GPUDirect-TCPX を上回るパフォーマンスの向上が得られます。GPUDirect-TCPXO を活用する a3-megagpu-8g マシンタイプでは、A3 High マシンタイプと A3 Edge マシンタイプと比較して 2 倍のネットワーク帯域幅を使用できます。
  • A3 Edge マシンタイプと A3 High マシンタイプでは、GPUDirect-TCPX により、データパケットのペイロードを GPU メモリからネットワーク インターフェースに直接転送できるため、ネットワーク パフォーマンスが向上します。GPUDirect-TCPX を活用することで、これらのマシンタイプではクラスタ内のインスタンス間のスループットが A2 または G2 アクセラレータ最適化マシンタイプと比較して大幅に向上します。
ネットワーク速度の向上

前世代の A2 マシンシリーズと比較して、ネットワーク速度が最大 4 倍向上しています。

ネットワーキングの詳細については、ネットワーク帯域幅と GPU をご覧ください。

前世代の A2 マシンシリーズと比較して、ネットワーキング速度が最大 2.5 倍向上しています。

ネットワーキングの詳細については、ネットワーク帯域幅と GPU をご覧ください。

仮想化の最適化

A3 インスタンスの Peripheral Component Interconnect Express(PCIe)トポロジは、ワークロードがデータ転送の最適化に使用できる、より正確な局所情報を提供します。

GPU は、障害からの正常な復旧のための関数レベルリセット(FLR)と、特定のシナリオにおける同時実行の改善のためのアトミック オペレーションのサポートも公開しています。

ローカル SSD、Persistent Disk、Hyperdisk のサポート

ローカル SSD は、高速のスクラッチ ディスクとして、または I/O ボトルネックを防止しながらデータを GPU にフィードする場合に使用できます。ローカル SSD は次のようにアタッチされます。

  • A3 Ultra インスタンスには、12,000 GiB のローカル SSD が自動的に追加されます。
  • A3 Mega、High、Edge インスタンスには、6,000 GiB のローカル SSD が自動的に追加されます。

より高いストレージ パフォーマンスを必要とするアプリケーションの場合は、これらのシリーズのマシンタイプに最大 512 TiB の Persistent Disk と Hyperdisk をアタッチできます。一部のマシンタイプでは、最大 257 TiB の Persistent Disk もサポートされています。

コンパクト プレースメント ポリシーのサポート

データセンター内のインスタンスの物理的な配置をより細かく制御できます。

これにより、単一のアベイラビリティ ゾーン内に配置されるインスタンスの低レイテンシと高帯域幅を実現できます。

詳細については、コンパクト プレースメント ポリシーについてをご覧ください。

A3 Ultra マシンタイプ

A3 Ultra マシンタイプには NVIDIA H200 SXM GPUnvidia-h200-141gb)がアタッチされており、A3 シリーズで最も高いネットワーク パフォーマンスを提供します。A3 Ultra マシンタイプは、基盤モデルのトレーニングとサービングに最適です。

接続された NVIDIA H200 GPU
マシンタイプ vCPU 数1 インスタンスのメモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)2 GPU 数 GPU メモリ3
(GB HBM3e)
a3-ultragpu-8g 224 2,952 12,000 10 3,600 8 1128

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

A3 Ultra の制限事項

  • 容量をリクエストできるのは、A3 Ultra マシンタイプのサポートされている使用オプションを使用する場合のみです。
  • A3 Ultra マシンタイプを使用するインスタンスは、継続利用割引フレキシブル確約利用割引の対象外となります。
  • A3 Ultra マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • A3 Ultra マシンタイプを使用するインスタンスでは、 Persistent Disk(リージョンまたはゾーン)を使用できません。
  • A3 Ultra マシンタイプは、Emerald Rapids CPU プラットフォームでのみ使用できます。
  • 既存のインスタンスのマシンタイプを A3 Ultra マシンタイプに変更することはできません。新しい A3-ultra インスタンスの作成は可能です。A3 Ultra マシンタイプを使用してインスタンスを作成した後、マシンタイプを変更することはできません。
  • A3 Ultra マシンタイプは、単一テナンシーをサポートしません。
  • A3 Ultra マシンタイプでは Windows オペレーティング システムを実行できません。

A3 Mega マシンタイプ

A3 Mega マシンタイプには NVIDIA H100 SXM GPU が搭載されており、大規模なモデルのトレーニングとマルチホスト推論に最適です。
アタッチされた NVIDIA H100 GPU
マシンタイプ vCPU 数1 インスタンスのメモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)2 GPU 数 GPU メモリ3
(GB HBM3)
a3-megagpu-8g 208 1,872 6,000 9 1,800 8 640

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

A3 Mega の制限事項

  • 容量をリクエストできるのは、A3 Mega マシンタイプのサポートされている使用オプションを使用する場合のみです。
  • A3 Mega マシンタイプを使用するインスタンスは、継続利用割引フレキシブル確約利用割引の対象外となります。
  • A3 Mega マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • A3 Mega マシンタイプを使用するインスタンスでは、リージョン Persistent Disk を使用できません。
  • A3 Mega マシンタイプは、Sapphire Rapids CPU プラットフォームでのみ使用できます。
  • 既存のインスタンスのマシンタイプを A3 Mega マシンタイプに変更することはできません。新しい A3-mega インスタンスの作成は可能です。A3 Mega マシンタイプを使用してインスタンスを作成した後は、マシンタイプを変更できません。
  • A3 Mega マシンタイプは、単一テナンシーをサポートしません。
  • A3 Mega マシンタイプでは Windows オペレーティング システムを実行できません。

A3 High マシンタイプ

A3 High マシンタイプには NVIDIA H100 SXM GPU が搭載されており、大規模なモデル推論とモデルのファインチューニングの両方に適しています。
アタッチされた NVIDIA H100 GPU
マシンタイプ vCPU 数1 インスタンスのメモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)2 GPU 数 GPU メモリ3
(GB HBM3)
a3-highgpu-1g 26 234 750 1 25 1 80
a3-highgpu-2g 52 468 1,500 1 50 2 160
a3-highgpu-4g 104 936 3,000 1 100 4 320
a3-highgpu-8g 208 1,872 6,000 5 1,000 8 640

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

A3 High の制限事項

A3 Edge マシンタイプ

A3 Edge マシンタイプには NVIDIA H100 SXM GPU が搭載されており、サービング専用に設計されています。限定されたリージョン セットで使用できます。
アタッチされた NVIDIA H100 GPU
マシンタイプ vCPU 数1 インスタンスのメモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)2 GPU 数 GPU メモリ3
(GB HBM3)
a3-edgegpu-8g 208 1,872 6,000 5 8 640

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

A3 Edge の制限事項

  • 容量をリクエストできるのは、A3 Edge マシンタイプのサポートされている使用オプションを使用する場合のみです。
  • A3 Edge マシンタイプを使用するインスタンスは、継続利用割引フレキシブル確約利用割引の対象外となります。
  • A3 Edge マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • A3 Edge マシンタイプを使用するインスタンスでは、リージョン Persistent Disk を使用できません。
  • A3 Edge マシンタイプは、Sapphire Rapids CPU プラットフォームでのみ使用できます。
  • 既存のインスタンスのマシンタイプを A3 Edge マシンタイプに変更することはできません。新しい A3-edge インスタンスの作成は可能です。A3 Edge マシンタイプを使用してインスタンスを作成した後は、マシンタイプを変更できません。
  • A3 Edge マシンタイプは、単一テナンシーをサポートしません。
  • A3 Edge マシンタイプでは Windows オペレーティング システムを実行できません。

A3 インスタンスでサポートされているディスクタイプ

A3 Ultra

A3 Ultra インスタンスでは、次のブロック ストレージ タイプを使用できます。

  • Hyperdisk Balanced(hyperdisk-balanced): ブートディスクでサポートされている唯一のディスクタイプです。
  • Hyperdisk Balanced High Availability(hyperdisk-balanced-high-availability
  • Hyperdisk Extreme(hyperdisk-extreme
  • ローカル SSD: A3 マシンタイプを使用して作成されたインスタンスに自動的に追加されます。
インスタンスあたりのディスクの最大数1
マシン
タイプ
すべての Hyperdisk Hyperdisk Balanced Hyperdisk Balanced High Availability Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme アタッチされた
ローカル SSD
ディスク
a3-ultragpu-8g 128 128 128 なし なし 8 32

1Hyperdisk の使用量は、マシンタイプの料金体系とは別に課金されます。ディスクの料金については、Hyperdisk の料金をご覧ください。

A3 Mega

A3 Mega インスタンスでは、次のブロック ストレージ タイプを使用できます。

  • バランス永続ディスク(pd-balanced
  • SSD(パフォーマンス)Persistent Disk(pd-ssd
  • Hyperdisk Balanced(hyperdisk-balanced
  • Hyperdisk Balanced High Availability(hyperdisk-balanced-high-availability
  • Hyperdisk ML(hyperdisk-ml
  • Hyperdisk Extreme(hyperdisk-extreme
  • Hyperdisk Throughput(hyperdisk-throughput
  • ローカル SSD: A3 マシンタイプを使用して作成されたインスタンスに自動的に追加されます。
インスタンスあたりのディスクの最大数1
マシン
タイプ
すべての Hyperdisk Hyperdisk Balanced Hyperdisk Balanced High Availability Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme アタッチされた
ローカル SSD
ディスク
a3-megagpu-8g 128 32 32 64 64 8 16

1Hyperdisk と Persistent Disk の使用量は、マシンタイプの料金体系とは別に課金されます。ディスクの料金については、Persistent Disk と Hyperdisk の料金をご覧ください。

A3 High

A3 High インスタンスでは、次のブロック ストレージ タイプを使用できます。

  • バランス永続ディスク(pd-balanced
  • SSD(パフォーマンス)Persistent Disk(pd-ssd
  • Hyperdisk Balanced(hyperdisk-balanced
  • Hyperdisk Balanced High Availability(hyperdisk-balanced-high-availability
  • Hyperdisk ML(hyperdisk-ml
  • Hyperdisk Extreme(hyperdisk-extreme
  • Hyperdisk Throughput(hyperdisk-throughput
  • ローカル SSD: A3 マシンタイプを使用して作成されたインスタンスに自動的に追加されます。
インスタンスあたりのディスクの最大数1
マシン
タイプ
すべての Hyperdisk Hyperdisk Balanced Hyperdisk Balanced High Availability Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme アタッチされた
ローカル SSD
ディスク
a3-highgpu-1g 128 32 32 64 64 なし 2
a3-highgpu-2g 128 32 32 64 64 なし 4
a3-highgpu-4g 128 32 32 64 64 8 8
a3-highgpu-8g 128 32 32 64 64 8 16

1Hyperdisk と Persistent Disk の使用量は、マシンタイプの料金体系とは別に課金されます。ディスクの料金については、Persistent Disk と Hyperdisk の料金をご覧ください。

A3 Edge

A3 Edge インスタンスでは、次のブロック ストレージ タイプを使用できます。

  • バランス永続ディスク(pd-balanced
  • SSD(パフォーマンス)Persistent Disk(pd-ssd
  • Hyperdisk Balanced(hyperdisk-balanced
  • Hyperdisk Balanced High Availability(hyperdisk-balanced-high-availability
  • Hyperdisk ML(hyperdisk-ml
  • Hyperdisk Extreme(hyperdisk-extreme
  • Hyperdisk Throughput(hyperdisk-throughput
  • ローカル SSD: A3 マシンタイプを使用して作成されたインスタンスに自動的に追加されます。
インスタンスあたりのディスクの最大数1
マシンタイプ すべての Hyperdisk Hyperdisk Balanced Hyperdisk Balanced High Availability Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme アタッチされたローカル SSD
a3-edgegpu-8g 128 32 32 64 64 8 16

1Hyperdisk と Persistent Disk の使用量は、マシンタイプの料金体系とは別に課金されます。ディスクの料金については、Persistent Disk と Hyperdisk の料金をご覧ください。

ディスクと容量の上限

マシンタイプでサポートされている場合、Hyperdisk ボリュームと Persistent Disk ボリュームを組み合わせてインスタンスにアタッチできますが、次の制限が適用されます。

  • Hyperdisk ボリュームと Persistent Disk ボリュームの合計数は、インスタンスあたり 128 以下でなければなりません。
  • すべてのディスクタイプの最大合計ディスク容量(TiB)は、次の値を超えることができません。

    • vCPU が 32 個未満のマシンタイプの場合:

      • すべての Hyperdisk またはすべての Persistent Disk は 257 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 257 TiB
    • vCPU が 32 個以上のマシンタイプの場合:

      • すべての Hyperdisk は 512 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 512 TiB
      • すべての Persistent Disk は 257 TiB

容量の上限の詳細については、Hyperdisk のサイズとアタッチメントの上限Persistent Disk の最大容量をご覧ください。

A2 マシンシリーズ

A2 マシンシリーズは、A2 標準マシンタイプと A2 Ultra マシンタイプで用意されています。これらのマシンタイプは、12~96 個の vCPU と最大 1,360 GB のメモリを備えています。

A2 マシンタイプを使用して作成された VM インスタンスには、次の機能があります。

  • GPU アクセラレーション: 各 A2 インスタンスには NVIDIA A100 GPU が搭載されています。これらは、A100 40 GB と A100 80 GB の両方のオプションで利用できます。

  • 業界トップクラスの NVLink スケーリング。GPU 間で 600 GBps のピーク NVLink 帯域幅を実現します。たとえば、16 個の GPU を使用するシステムの場合、NVLink の帯域幅は合計で最大 9.6 TBps となります。これらの 16 個の GPU は、統合されたメモリ領域を備えた 1 つのハイ パフォーマンス アクセラレータとして使用できます。これにより、最大 10 PFLOPS のコンピューティング能力と、最大 20 PFLOPS の推論コンピューティング能力を実現し、AI、ディープ ラーニング、ML のワークロードに使用できます。

  • コンピューティング速度の改善: アタッチされた NVIDIA A100 GPU は、前世代の NVIDIA V100 GPU と比較して、コンピューティング速度が最大 10 倍向上しています。

    A2 マシンシリーズでは、最大 100 Gbps のネットワーク帯域幅を使用できます。

  • ローカル SSD、Persistent Disk、Hyperdisk のサポート: 高速のスクラッチ ディスクとして使用する場合や、I/O ボトルネックを防止しながら GPU にデータをフィードする場合、A2 マシンタイプは次のようにローカル SSD をサポートします。

    • A2 標準マシンタイプの場合、インスタンスの作成時に最大 3,000 GiB のローカル SSD を追加できます。
    • A2 Ultra マシンタイプの場合、インスタンスの作成時にローカル SSD が自動的にアタッチされます。

    より高いストレージ パフォーマンスを必要とするアプリケーションの場合は、最大 257 TiB の Persistent Disk と 512 TiB の Hyperdisk ボリュームを A2 インスタンスにアタッチすることもできます。

  • コンパクト プレースメント ポリシーのサポート: データセンター内のインスタンスの物理的な配置をより細かく制御できます。これにより、単一のアベイラビリティ ゾーン内に配置されるインスタンスの低レイテンシと高帯域幅を実現できます。詳しくは、コンパクト プレースメント ポリシーを使用してレイテンシを短縮するをご覧ください。

A2 マシンシリーズでは、次のマシンタイプを使用できます。

A2 Ultra マシンタイプ

これらのマシンタイプには、一定の数の A100 80 GB GPU が使用されます。A2 Ultra マシンタイプを使用して作成されたインスタンスには、ローカル SSD が自動的にアタッチされます。

アタッチされた NVIDIA A100 80 GB GPU
マシンタイプ vCPU 数1 インスタンスのメモリ(GB) アタッチされたローカル SSD(GiB) 最大ネットワーク帯域幅(Gbps)2 GPU 数 GPU メモリ3
(GB HBM2e)
a2-ultragpu-1g 12 170 375 24 1 80
a2-ultragpu-2g 24 340 750 32 2 160
a2-ultragpu-4g 48 680 1,500 50 4 320
a2-ultragpu-8g 96 1,360 3,000 100 8 640

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

A2 Ultra の制限事項

  • 容量をリクエストできるのは、A2 Ultra マシンタイプのサポートされている使用量オプションを使用する場合のみです。
  • A2 Ultra マシンタイプを使用するインスタンスは、継続利用割引フレキシブル確約利用割引の対象外となります。
  • A2 Ultra マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • A2 Ultra マシンタイプは、Cascade Lake プラットフォームでのみ使用できます。
  • インスタンスが A2 Ultra マシンタイプを使用している場合、マシンタイプを変更することはできません。別の A2 Ultra マシンタイプやその他のマシンタイプを使用するには、新しいインスタンスを作成する必要があります。
  • 他のマシンタイプを A2 Ultra マシンタイプに変更することはできません。A2 Ultra マシンタイプを使用するインスタンスが必要な場合は、新しいインスタンスを作成する必要があります。
  • A2 Ultra マシンタイプを使用する Windows インスタンスでは、アタッチされたローカル SSD のクイック フォーマットを行うことができません。これらのローカル SSD をフォーマットするには、diskpart ユーティリティを使用し、format fs=ntfs label=tmpfs を指定して完全フォーマットを行う必要があります。

A2 標準マシンタイプ

これらのマシンタイプには、固定数の A100 40 GB GPU があります。 A2 標準インスタンスの作成時にローカル SSD ディスクを追加することもできます。アタッチできるディスクの数については、複数のローカル SSD ディスクを選択する必要があるマシンタイプをご覧ください。

アタッチされた NVIDIA A100 40 GB GPU
マシンタイプ vCPU 数1 インスタンスのメモリ(GB) サポート対象のローカル SSD 最大ネットワーク帯域幅(Gbps)2 GPU 数 GPU メモリ3
(GB HBM2)
a2-highgpu-1g 12 85 はい 24 1 40
a2-highgpu-2g 24 170 はい 32 2 80
a2-highgpu-4g 48 340 はい 50 4 160
a2-highgpu-8g 96 680 はい 100 8 320
a2-megagpu-16g 96 1,360 はい 100 16 640

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

A2 標準の制限事項

  • 容量をリクエストできるのは、A2 標準マシンタイプのサポートされている消費オプションを使用する場合のみです。
  • A2 標準マシンタイプを使用するインスタンスは、継続利用割引フレキシブル確約利用割引の対象外となります。
  • A2 標準マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • A2 標準マシンタイプは、Cascade Lake プラットフォームでのみ使用できます。
  • インスタンスが A2 標準マシンタイプを使用している場合は、ある A2 標準マシンタイプから別の A2 標準マシンタイプにのみ切り替えることができます。他のマシンタイプには変更できません。詳細については、アクセラレータ最適化インスタンスを変更するをご覧ください。
  • a2-megagpu-16g A2 標準マシンタイプでは Windows オペレーティング システムを使用できません。Windows オペレーティング システムを使用する場合は、別の A2 標準マシンタイプを選択します。
  • A2 標準マシンタイプを使用する Windows インスタンスでは、アタッチされたローカル SSD のクイック フォーマットを行うことができません。これらのローカル SSD をフォーマットするには、diskpart ユーティリティを使用し、format fs=ntfs label=tmpfs を指定して完全フォーマットを行う必要があります。
  • A2 標準マシンタイプは、単一テナンシーをサポートしません。

A2 インスタンスでサポートされているディスクタイプ

A2 インスタンスでは、次のブロック ストレージ タイプを使用できます。

  • Hyperdisk ML(hyperdisk-ml
  • バランス永続ディスク(pd-balanced
  • SSD(パフォーマンス)Persistent Disk(pd-ssd
  • 標準永続ディスク(pd-standard
  • ローカル SSD: A2 Ultra マシンタイプを使用して作成されたインスタンスには自動的にアタッチされます。

マシンタイプでサポートされている場合、Hyperdisk ボリュームと Persistent Disk ボリュームを組み合わせてインスタンスにアタッチできますが、次の制限が適用されます。

  • Hyperdisk ボリュームと Persistent Disk ボリュームの合計数は、インスタンスあたり 128 以下でなければなりません。
  • すべてのディスクタイプの最大合計ディスク容量(TiB)は、次の値を超えることができません。

    • vCPU が 32 個未満のマシンタイプの場合:

      • すべての Hyperdisk またはすべての Persistent Disk は 257 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 257 TiB
    • vCPU が 32 個以上のマシンタイプの場合:

      • すべての Hyperdisk は 512 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 512 TiB
      • すべての Persistent Disk は 257 TiB

容量の上限の詳細については、Hyperdisk のサイズとアタッチメントの上限Persistent Disk の最大容量をご覧ください。

G4 マシンシリーズ

G4 マシンシリーズは AMD EPYC Turin CPU プラットフォームを使用し、NVIDIA RTX PRO 6000 Blackwell Server Edition GPU を搭載しています。このマシンシリーズは、前世代の G2 マシンシリーズと比較して大幅に改善されており、GPU メモリの増加、GPU メモリ帯域幅の増加、ネットワーク帯域幅の増加が実現されています。

G4 インスタンスには、最大 384 個の vCPU、1,440 GB のメモリ、12 TiB の Titanium SSD ディスクが接続されています。G4 インスタンスは、最大 400 Gbps の標準ネットワーク パフォーマンスも提供します。

このマシンシリーズは、NVIDIA Omniverse シミュレーション ワークロード、グラフィックを多用するアプリケーション、動画のコード変換、仮想デスクトップなどのワークロードを対象としています。また、G4 マシンシリーズは、A シリーズのマシンタイプと比較して、単一ホストの推論とモデル チューニングを実行するための低コストのソリューションも提供します。

G4 マシンタイプを使用するインスタンスには、次の機能があります。

  • NVIDIA RTX PRO 6000 Blackwell Server Edition GPU による GPU アクセラレーション: G4 インスタンスには NVIDIA RTX PRO 6000 Blackwell Server Edition GPU が自動的にアタッチされ、GPU あたり 96 GB の GPU メモリが提供されます。

  • 第 5 世代 AMD EPYC Turin CPU プラットフォーム: このプラットフォームは、最大 4.1 GHz の持続型最大ブースト周波数を実現します。このプロセッサの詳細については、CPU プラットフォームをご覧ください。

  • 次世代のグラフィックス パフォーマンス: NVIDIA RTX PRO 6000 GPU は、G2 マシンシリーズにアタッチされている NVIDIA L4 GPU よりもパフォーマンスと機能が大幅に向上しています。これらのアップグレードは次のとおりです。

    • 第 5 世代の Tensor コア: これらのコアは、FP4 精度と DLSS 4 マルチフレーム生成のサポートを導入しています。第 5 世代の Tensor コアを使用することで、NVIDIA RTX PRO 6000 GPU は、NVIDIA L4 GPU と比較してパフォーマンスが向上し、ローカル LLM 開発やコンテンツ作成などのタスクを高速化します。
    • 第 4 世代 RT コア: これらのコアは、前世代の NVIDIA L4 GPU の最大 2 倍のレイ トレーシング パフォーマンスを実現し、設計および製造ワークロードのレンダリングを高速化します。
    • コア数: NVIDIA RTX PRO 6000 GPU には、24,064 個の CUDA コア、752 個の第 5 世代 Tensor コア、188 個の第 4 世代 RT コアが含まれています。この更新は、7,680 個の CUDA コアと 240 個の Tensor コアを備えた L4 GPU などの前世代と比較して大幅な増加となります。
  • マルチインスタンス GPU(MIG): この機能を使用すると、単一の GPU を単一の VM インスタンス上の最大 4 つの完全に分離された GPU インスタンスに分割できます。NVIDIA MIG の詳細については、NVIDIA のドキュメントの NVIDIA マルチインスタンス GPU をご覧ください。

  • Peripheral Component Interconnect Express(PCIe)Gen 5 のサポート: G4 インスタンスは PCI Express Gen 5 をサポートしています。これにより、G2 インスタンスで使用されている PCIe Gen 3 と比較して、CPU メモリから GPU へのデータ転送速度が向上します。

  • Titanium SSD と Hyperdisk のサポート: G4 インスタンスは、最大 12,000 GiB の Titanium SSD のアタッチをサポートしています。Titanium SSD は、高速のスクラッチ ディスクを提供するか、データを GPU にフィードして、I/O ボトルネックを回避します。

    より高いストレージ パフォーマンスを必要とするアプリケーションの場合、G4 インスタンスは最大 512 TiB の Hyperdisk のアタッチもサポートしています。

  • GPU ピアツーピア(P2P)通信: G4 インスタンスは GPU P2P 通信をサポートしており、同じインスタンス内の GPU 間でデータを直接転送できます。これにより、データ転送のレイテンシが短縮され、CPU リソースが解放されるため、マルチ GPU ワークロードのパフォーマンスが大幅に向上します。詳細については、G4 GPU ピアツーピア(P2P)通信をご覧ください。

G4 マシンタイプ

G4 アクセラレータ最適化マシンタイプは、 NVIDIA RTX PRO 6000 Blackwell Server Edition GPUnvidia-rtx-pro-6000)を使用し、NVIDIA Omniverse シミュレーション ワークロード、グラフィックを多用するアプリケーション、動画のトランスコーディング、仮想デスクトップに適しています。また、G4 マシンタイプは、A シリーズのマシンタイプと比較して、単一ホストの推論とモデル チューニングを実行するための低コストのソリューションを提供します。

接続された NVIDIA RTX PRO 6000 GPU
マシンタイプ vCPU 数1 インスタンスのメモリ(GB) サポートされている Titanium SSD の最大容量(GiB)2 物理 NIC の数 最大ネットワーク帯域幅(Gbps)3 GPU 数 GPU メモリ4
(GB GDDR7)
g4-standard-48 48 180 1,500 1 50 1 96
g4-standard-96 96 360 3,000 1 100 2 192
g4-standard-192 192 720 6,000 1 200 4 384
g4-standard-384 384 1,440 12,000 2 400 8 768

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2G4 インスタンスの作成時に Titanium SSD ディスクを追加できます。アタッチできるディスクの数については、複数のローカル SSD ディスクを選択する必要があるマシンタイプをご覧ください。
3 最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。
4GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

G4 の制限事項

  • 容量をリクエストできるのは、G4 マシンタイプのサポートされている使用オプションを使用する場合のみです。
  • G4 マシンタイプを使用するインスタンスは、継続利用割引フレキシブル確約利用割引の対象外となります。
  • G4 マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • G4 マシンタイプを使用するインスタンスでは、Persistent Disk(リージョンまたはゾーン)を使用できません。
  • G4 マシンタイプは、AMD EPYC Turin 第 5 世代プラットフォームでのみ使用できます。
  • オンデマンド インスタンスのみを作成できます。予約、Flex Start VM、Spot VM はサポートされていません。G4 インスタンスの使用を開始するには、Google アカウント チームにお問い合わせください。
  • G4 インスタンスは us-central1-b でのみ作成できます。
  • G4 マシンタイプを使用するインスタンスでは、Hyperdisk Balanced ディスクタイプと Hyperdisk Extreme ディスクタイプのみを使用できます。
  • G4 マシンタイプを使用するインスタンスに確約利用割引を適用することはできません。
  • G4 マシンタイプを使用する Confidential VM インスタンスは作成できません。
  • 単一テナントノードに G4 インスタンスを作成することはできません。
  • NVIDIA RTX 仮想ワークステーション(vWS)を使用する G4 インスタンスを作成することはできません。

G4 インスタンスでサポートされているディスクタイプ

G4 インスタンスでは、次のブロック ストレージ タイプを使用できます。

  • Hyperdisk Balanced(hyperdisk-balanced
  • Hyperdisk Extreme(hyperdisk-extreme
  • Titanium SSD: G4 マシンタイプを使用して作成されたインスタンスに Titanium SSD を追加できます。

インスタンスあたりのディスクの最大数1
マシンタイプ すべての Hyperdisk Hyperdisk Balanced Hyperdisk Extreme Titanium SSD
g4-standard-48 32 32 0 4
g4-standard-96 32 32 8 8
g4-standard-192 64 64 8 16
g4-standard-384 128 128 8 32

1Hyperdisk の使用量は、マシンタイプの料金体系とは別に課金されます。ディスクの料金については、Hyperdisk の料金をご覧ください。

さまざまな Hyperdisk タイプを組み合わせてインスタンスにアタッチできますが、すべてのディスクタイプの最大合計ディスク容量(TiB)は、すべての Hyperdisk で 512 TiB を超えることはできません。

容量の上限の詳細については、 Hyperdisk のサイズとアタッチメントの上限をご覧ください。

G4 ピアツーピア(P2P)通信

G4 インスタンスは、GPU 間の直接ピアツーピア(P2P)通信を使用して、マルチ GPU ワークロードのパフォーマンスを向上させます。この機能により、同じ G4 インスタンスに接続された GPU は、PCIe バスを介してデータを直接交換できます。これにより、CPU のメインメモリを介してデータを転送する必要がなくなります。この直接パスにより、レイテンシが短縮され、CPU 使用率が低下し、GPU 間の有効帯域幅が増加します。P2P 通信により、機械学習(ML)トレーニングやハイ パフォーマンス コンピューティング(HPC)などのマルチ GPU アプリケーションが大幅に高速化されます。

通常、この機能を使用するためにアプリケーション コードを変更する必要はありません。P2P を使用するように NCCL を構成するだけで済みます。NCCL を構成するには、ワークロードを実行する前に、マシンタイプに基づいて G4 インスタンスで NCCL_P2P_LEVEL 環境変数を設定します。

  • 2 個または 4 個の GPU(g4-standard-96g4-standard-192)を使用する G4 インスタンスの場合: NCCL_P2P_LEVEL=PHB を設定します。
  • 8 個の GPU を備えた G4 インスタンス(g4-standard-384)の場合: NCCL_P2P_LEVEL=SYS を設定します。

次のいずれかのオプションを使用して環境変数を設定します。

  • コマンドラインで、アプリケーションを実行するシェル セッションで適切なエクスポート コマンド(export NCCL_P2P_LEVEL=SYS など)を実行します。この設定を永続的にするには、このコマンドをシェルの起動スクリプト(~/.bashrc など)に追加します。
  • /etc/nccl.conf にある NCCL 構成ファイルに適切な設定(NCCL_P2P_LEVEL=SYS など)を追加します。

主なメリットとパフォーマンス

  • 2 つ以上の GPU を備えた G4 インスタンスでマルチ GPU ワークロードを高速化する: g4-standard-96g4-standard-192g4-standard-384 マシンタイプで実行されるアプリケーションのランタイムを高速化します。
  • 高帯域幅の通信を提供: GPU 間の高速データ転送を可能にします。
  • NCCL のパフォーマンスを向上させる: P2P を使用しない通信と比較して、NVIDIA Collective Communication Library(NCCL)を使用するアプリケーションのパフォーマンスを大幅に向上させます。Google のハイパーバイザは、この P2P 通信をインスタンス内で安全に分離します。

    • 4 つの GPU インスタンス(g4-standard-192)では、すべての GPU が単一の NUMA ノードに配置され、最も効率的な P2P 通信が可能になります。これにより、AllgatherAllreduceReduceScatter などのコレクティブで最大 2.04 倍のパフォーマンス向上が実現します。
    • 8 つの GPU インスタンス(g4-standard-384)では、GPU は 2 つの NUMA ノードに分散されます。これらのノード内およびノード間のトラフィックの P2P 通信が高速化され、同じコレクティブで最大 2.19 倍のパフォーマンス向上が実現します。

G2 マシンシリーズ

G2 マシンシリーズは、4~96 個の vCPU と最大 432 GB のメモリを備えた標準マシンタイプで使用できます。このマシンシリーズは、推論ワークロードとグラフィック ワークロード用に最適化されています。G2 マシンシリーズは、複数の構成を持つ単一の標準マシンタイプで使用できます。

G2 マシンタイプを使用して作成されたインスタンスには、次の機能があります。

  • GPU アクセラレーション: 各 G2 マシンタイプには NVIDIA L4 GPU が搭載されています。

  • 推論速度の改善: G2 マシンタイプは、ML 推論速度を向上させ、メモリ要件を減らす FP8(8 ビット浮動小数点)データ型をサポートしています。

  • 次世代のグラフィックス パフォーマンス: NVIDIA L4 GPU は、第 3 世代の RT コアおよび NVIDIA DLSS 3(ディープ ラーニング スーパー サンプリング)テクノロジー使用することで、グラフィックス パフォーマンスが最大 3 倍向上します。

  • 高パフォーマンスのネットワーク帯域幅: G2 マシンタイプでは、最大 100 Gbps のネットワーク帯域幅を使用できます。

  • ローカル SSD、Persistent Disk、Hyperdisk のサポート: G2 インスタンスには最大 3,000 GiB のローカル SSD を追加できます。高速のスクラッチ ディスクとして、または I/O ボトルネックを防止しながらデータを GPU にフィードするために使用できます。

    より多くの永続ストレージを必要とするアプリケーションの場合は、Hyperdisk ボリュームと Persistent Disk ボリュームを G2 インスタンスにアタッチすることもできます。最大ストレージ容量は、インスタンスの vCPU の数によって異なります。詳細については、サポートされているディスクタイプをご覧ください。

  • コンパクト プレースメント ポリシーのサポート: データセンター内のインスタンスの物理的な配置をより細かく制御できます。これにより、単一のアベイラビリティ ゾーン内に配置されるインスタンスの低レイテンシと高帯域幅を実現できます。詳しくは、コンパクト プレースメント ポリシーを使用してレイテンシを短縮するをご覧ください。

G2 マシンタイプ

G2 アクセラレータ最適化マシンタイプには NVIDIA L4 GPU がアタッチされており、費用対効果に優れた推論、グラフィック処理を多用するワークロード、ハイ パフォーマンス コンピューティング ワークロードに最適です。

各 G2 マシンタイプにはデフォルトのメモリとカスタムメモリ範囲もあります。カスタムメモリ範囲はマシンタイプごとにインスタンスに割り当てることができるメモリの量を定義します。G2 インスタンスの作成時にローカル SSD ディスクを追加することもできます。アタッチできるディスクの数については、複数のローカル SSD ディスクを選択する必要があるマシンタイプをご覧ください。

アタッチされた NVIDIA L4 GPU
マシンタイプ vCPU 数1 デフォルトのインスタンス メモリ(GB) カスタム インスタンス メモリ範囲(GB) サポート対象の最大ローカル SSD(GiB) 最大ネットワーク帯域幅(Gbps)2 GPU 数 GPU メモリ3(GB GDDR6)
g2-standard-4 4 16 16~32 375 10 1 24
g2-standard-8 8 32 32~54 375 16 1 24
g2-standard-12 12 48 48~54 375 16 1 24
g2-standard-16 16 64 54~64 375 32 1 24
g2-standard-24 24 96 96~108 750 32 2 48
g2-standard-32 32 128 96~128 375 32 1 24
g2-standard-48 48 192 192~216 1,500 50 4 96
g2-standard-96 96 384 384~432 3,000 100 8 192

1vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
2最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅の詳細については、ネットワーク帯域幅をご覧ください。
3 GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、グラフィックを多用するワークロードの高帯域幅の需要に対応するように設計されています。

G2 の制限事項

  • 容量をリクエストできるのは、G2 マシンタイプのサポートされている使用オプションを使用する場合のみです。
  • G2 マシンタイプを使用するインスタンスは、継続利用割引フレキシブル確約利用割引の対象外となります。
  • G2 マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • G2 マシンタイプは、Cascade Lake プラットフォームでのみ使用できます。
  • 標準 Persistent Disk(pd-standard)は、G2 マシンタイプを使用するインスタンスではサポートされていません。サポートされているディスクタイプについては、G2 でサポートされているディスクタイプをご覧ください。
  • G2 マシンタイプを使用するインスタンスでマルチインスタンス GPU を作成することはできません。
  • G2 インスタンスのマシンタイプを変更する必要がある場合は、アクセラレータ最適化インスタンスを変更するをご覧ください。
  • G2 マシンタイプを使用するインスタンスのブートディスクとして Deep Learning VM Image を使用することはできません。
  • Container-Optimized OS の現在のデフォルト ドライバは、G2 マシンタイプで実行される L4 GPU をサポートしていません。また、Container-Optimized OS は特定のドライバセットのみをサポートしています。G2 マシンタイプで Container-Optimized OS を使用する場合は、次の点に注意してください。
    • 推奨される最小の NVIDIA ドライバ バージョン 525.60.13 以降をサポートする Container-Optimized OS のバージョンを使用します。詳細については、Container-Optimized OS のリリースノートをご覧ください。
    • ドライバをインストールするときに、L4 GPU で動作する最新の最新バージョンを指定します。 例: sudo cos-extensions install gpu -- -version=525.60.13
  • 次のシナリオでは、Google Cloud CLI または REST を使用して G2 インスタンスを作成する必要があります。
    • カスタムメモリ値を指定する必要があります。
    • 表示可能な CPU コアの数をカスタマイズする必要があります。

G2 インスタンスでサポートされているディスクタイプ

G2 インスタンスでは、次のブロック ストレージ タイプを使用できます。

  • バランス永続ディスク(pd-balanced
  • SSD(パフォーマンス)Persistent Disk(pd-ssd
  • Hyperdisk ML(hyperdisk-ml
  • Hyperdisk Throughput(hyperdisk-throughput
  • ローカル SSD

マシンタイプでサポートされている場合、Hyperdisk ボリュームと Persistent Disk ボリュームを組み合わせてインスタンスにアタッチできますが、次の制限が適用されます。

  • Hyperdisk ボリュームと Persistent Disk ボリュームの合計数は、インスタンスあたり 128 以下でなければなりません。
  • すべてのディスクタイプの最大合計ディスク容量(TiB)は、次の値を超えることができません。

    • vCPU が 32 個未満のマシンタイプの場合:

      • すべての Hyperdisk またはすべての Persistent Disk は 257 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 257 TiB
    • vCPU が 32 個以上のマシンタイプの場合:

      • すべての Hyperdisk は 512 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 512 TiB
      • すべての Persistent Disk は 257 TiB

容量の上限の詳細については、Hyperdisk のサイズとアタッチメントの上限Persistent Disk の最大容量をご覧ください。

次のステップ