このドキュメントでは、Compute Engine で実行される GPU 仮想マシン(VM)インスタンスの機能と制限事項について説明します。
Compute Engine で特定のワークロードを高速化するには、GPU がアタッチされたアクセラレータ最適化インスタンスをデプロイするか、N1 汎用インスタンスに GPU をアタッチします。Compute Engine は、インスタンスに パススルー モードで GPU を提供します。パススルー モードでは、インスタンスで GPU とそのメモリを直接制御できます。
一部の GPU マシンタイプは AI Hypercomputer でも使用できます。AI Hypercomputer は、AI と ML のワークロードをサポートするように最適化されたスーパーコンピューティング システムです。このオプションは、Google Kubernetes Engine(GKE)スケジューラや Slurm スケジューラの統合を含む、パフォーマンスが最適化された密な割り当てのインフラストラクチャを作成する場合に推奨されます。
サポートされているマシンタイプ
アクセラレータ最適化マシン ファミリーと N1 汎用マシン ファミリーは GPU をサポートしています。アクセラレータ最適化マシンタイプを使用するインスタンスの場合、Compute Engine はインスタンスの作成時に GPU を自動的にアタッチします。N1 マシンタイプを使用するインスタンスでは、インスタンスの作成中または作成後に GPU をインスタンスに割り当てます。GPU は、他のマシンタイプと互換性がありません。
アクセラレータ最適化マシンタイプ
各アクセラレータ最適化マシンタイプには、特定モデルの NVIDIA GPU が接続されています。3D 可視化などのグラフィックを多用するワークロードが存在する場合は、NVIDIA RTX 仮想ワークステーション(vWS)を使用する仮想ワークステーションを作成することもできます。NVIDIA RTX 仮想ワークステーションは、一部の GPU モデルで使用できます。
マシンタイプ | GPU モデル | NVIDIA RTX 仮想ワークステーション(vWS)モデル |
---|---|---|
A4X | NVIDIA GB200 Grace Blackwell Superchips(nvidia-gb200 )。各 Superchip には 4 個の NVIDIA B200 Blackwell GPU が搭載されています。 |
|
A4 | NVIDIA B200 Blackwell GPU(nvidia-b200 ) |
|
A3 Ultra | NVIDIA H200 SXM GPU(nvidia-h200-141gb ) |
|
A3 Mega | NVIDIA H100 SXM GPU(nvidia-h100-mega-80gb ) |
|
A3 High、A3 Edge | NVIDIA H100 SXM GPU(nvidia-h100-80gb ) |
|
A2 Ultra | NVIDIA A100 80 GB GPU(nvidia-a100-80gb ) |
|
A2 標準 | NVIDIA A100 40 GB GPU(nvidia-a100-40gb ) |
|
G4(プレビュー) | NVIDIA RTX PRO 6000 Blackwell Server Edition(nvidia-rtx-pro-6000 ) |
|
G2 | NVIDIA L4 GPU(nvidia-l4 ) |
NVIDIA L4 仮想ワークステーション GPU(nvidia-l4-vws ) |
詳細については、アクセラレータ最適化マシン ファミリーをご覧ください。
N1 汎用マシンタイプ
N1 共有コア(f1-micro
と g1-small
)を除くほとんどの N1 マシンタイプには、次の GPU モデルを接続できます。
NVIDIA GPU:
- NVIDIA T4:
nvidia-tesla-t4
- NVIDIA P4:
nvidia-tesla-p4
- NVIDIA P100:
nvidia-tesla-p100
- NVIDIA V100:
nvidia-tesla-v100
NVIDIA RTX 仮想ワークステーション(vWS)(旧称 NVIDIA GRID):
- NVIDIA T4 仮想ワークステーション:
nvidia-tesla-t4-vws
- NVIDIA P4 仮想ワークステーション:
nvidia-tesla-p4-vws
NVIDIA P100 仮想ワークステーション:
nvidia-tesla-p100-vws
これらの仮想ワークステーションの場合、NVIDIA RTX 仮想ワークステーション(vWS)ライセンスがインスタンスに自動的に追加されます。
N1 汎用ファミリーでは、事前定義されたマシンタイプまたはカスタム マシンタイプのいずれかを使用できます。
Spot VM 上の GPU
Spot VM には、低価格のスポット価格で GPU を追加できます。Spot VM に接続された GPU は、通常の GPU と同様に機能しますが、維持されるのは VM の存続期間中のみです。GPU を接続した Spot VM は、すべての Spot VM と同じプリエンプション プロセスに従います。
Spot VM の GPU に専用の Preemptible GPU
割り当てをリクエストすることを検討してください。詳細については、Spot VM の割り当てをご覧ください。
メンテナンス イベント中は、GPU を使用する Spot VM がデフォルトでプリエンプトされます。この VM を自動的に再起動することはできません。プリエンプトされた後で VM を再作成する場合には、マネージド インスタンス グループを使用します。マネージド インスタンス グループは、vCPU、メモリ、GPU リソースが利用可能であれば、VM インスタンスを再作成します。
VM のプリエンプト前に警告を受けるようにする場合、またはメンテナンス イベントの終了後に VM が自動的に再起動するように構成する場合は、GPU を搭載した標準の VM を使用します。GPU を搭載した標準 VM の場合、Compute Engine はプリエンプションの 1 時間前に通知を送信します。
VM の実行が開始してから 1 分以内に VM がプリエンプトされた場合、Compute Engine では GPU に対する課金を行いません。
GPU がアタッチされた Spot VM の作成方法については、GPU が接続された VM を作成すると Spot VM の作成をご覧ください。 たとえば、Spot VM を使用して A3 Ultra インスタンスまたは A4 インスタンスを作成するをご覧ください。
実行時間が事前に定義されているインスタンスの GPU
通常、標準プロビジョニング モデルを使用するインスタンスは、プリエンプティブルの数量に基づく割り当てを使用できません。プリエンプティブル割り当ては一時的なワークロードを対象としており、通常はより利用しやすいものです。プロジェクトにプリエンプティブル割り当てがなく、プリエンプティブル割り当てをリクエストしたことがない場合、プロジェクト内のすべてのインスタンスは標準の数量に基づく割り当てを使用します。
プリエンプティブルの数量に基づく割り当てをリクエストする場合、標準プロビジョニング モデルを使用するインスタンスは、プリエンプティブルの数量に基づく割り当てを使用するために次のすべての条件を満たす必要があります。
- インスタンスに GPU がアタッチされている。
maxRunDuration
フィールドまたはterminationTime
フィールドを使用して、事前に定義された実行時間の後にインスタンスが自動的に削除されるように構成されている。詳しくは以下をご覧ください。- インスタンスに予約の使用が許可されていない。詳細については、コンピューティング インスタンスが予約を使用しないようにするをご覧ください。
時間制限のある GPU ワークロードにプリエンプティブル割り当てを使用すると、連続実行時間とプリエンプティブルの数量に基づく割り当ての高取得可能性の両方のメリットを享受できます。詳細については、プリエンプティブル割り当てをご覧ください。
GPU と Confidential VMs
A3 マシンシリーズで Intel TDX を使用する Confidential VM インスタンスで GPU を使用できます。詳細については、Confidential VM のサポートされている構成をご覧ください。GPU を使用して Confidential VM インスタンスを作成する方法については、GPU を使用して Confidential VM インスタンスを作成するをご覧ください。
GPU とブロック ストレージ
GPU マシンタイプを使用してインスタンスを作成するときに、インスタンスに永続的ブロック ストレージまたは一時的なブロック ストレージを追加できます。一時的でないデータを保存するには、Hyperdisk や Persistent Disk などの永続ブロック ストレージを使用します。これらのディスクはインスタンスのライフサイクルから独立しているためです。永続ストレージ上のデータは、インスタンスを削除した後も保持できます。
一時的なスクラッチ ストレージまたはキャッシュの場合は、インスタンスの作成時にローカル SSD ディスクを追加して、一時的なブロック ストレージを使用します。
Persistent Disk ボリュームと Hyperdisk ボリュームを使用する永続ブロック ストレージ
GPU 対応インスタンスには、Persistent Disk をアタッチし、Hyperdisk ボリュームを選択できます。
ML とサービング ワークロードには、Hyperdisk ML ボリュームを使用します。これにより、スループットの向上とデータ読み込み時間の短縮が実現します。GPU アイドル時間が短くなるため、Hyperdisk ML は ML ワークロードにとって費用対効果の高いオプションとなります。
Hyperdisk ML ボリュームは読み取り専用のマルチアタッチをサポートしているため、同じディスクを複数のインスタンスにアタッチして、各インスタンスが同じデータにアクセスできるようにできます。
GPU をサポートするマシンシリーズでサポートされているディスクタイプの詳細については、N1 とアクセラレータ最適化 マシンシリーズのページをご覧ください。
ローカル SSD ディスク
ローカル SSD ディスクは、キャッシュ、データ処理、その他の一時的なデータ用の高速な一時ストレージです。ローカル SSD ディスクは、インスタンスをホストするサーバーに物理的にアタッチされているため、高速ストレージを提供します。ローカル SSD ディスクは、インスタンスが再起動するとデータが失われるため、一時ストレージを提供します。
永続性に関する厳しい要件を持つデータをローカル SSD ディスクに保存しないでください。一時的でないデータを保存するには、代わりに永続ストレージを使用します。
GPU が搭載されたインスタンスを手動で停止すると、ローカル SSD のデータを保持できますが、一定の制限があります。詳細については、ローカル SSD のドキュメントをご覧ください。
GPU タイプでのローカル SSD のリージョン サポートについては、GPU リージョンとゾーンごとのローカル SSD の可用性をご覧ください。
GPU とホストのメンテナンス
Compute Engine は、ホストサーバーでメンテナンス イベントを実行すると、GPU がアタッチされているインスタンスを常に停止します。インスタンスにローカル SSD ディスクがアタッチされている場合、インスタンスの停止後にローカル SSD データが失われます。
メンテナンス イベントの処理については、GPU ホスト メンテナンス イベントの処理をご覧ください。
GPU の料金
GPU がアタッチされたインスタンスの場合、次のような費用が発生します。
スポット、Flex Start、または予約にバインドされたプロビジョニング モデルを使用して GPU をプロビジョニングするように Compute Engine にリクエストすると、GPU のタイプに応じて割引価格が適用されます。
GPU がアタッチされているほとんどのインスタンスには、vCPU と同様に継続利用割引(SUD)が適用されます。仮想ワークステーションの GPU を選択すると、Compute Engine によって NVIDIA RTX 仮想ワークステーション ライセンスがインスタンスに自動的に追加されます。
GPU の時間単位および月単位の料金については、GPU の料金ページをご覧ください。
確約利用割引で GPU を予約する
特定のゾーンで GPU リソースを予約する方法については、予約の種類を選択するをご覧ください。
特定のゾーンで GPU の確約利用割引を受けるには、GPU のリソースベースのコミットメントを購入して、一致する GPU を指定する予約をコミットメントに関連付ける必要があります。詳細については、リソースベースのコミットメントに予約を関連付けるをご覧ください。
GPU の制限事項
GPU がアタッチされたインスタンスには、次の制限事項が適用されます。
GPU をサポートしているのは、アクセラレータ最適化(A4X、A4、A3、A2、G2)マシンタイプと汎用 N1 マシンタイプのみです。
Compute Engine のシステムとユーザーを保護するため、新しいプロジェクトにはグローバル GPU 割り当てが設定されます。この割り当ては、サポート対象のすべてのゾーンで作成できる GPU の総数を制限するものです。GPU 割り当てをリクエストするときは、各リージョンで作成する GPU モデルに対する割り当てに加え、すべてのゾーンにおけるすべてのタイプの GPU の総数に対するグローバル割り当てもリクエストする必要があります。
GPU を使用するインスタンスには、インスタンスに追加する GPU ごとに、vCPU の最大数が設定されます。各種 GPU 構成で使用可能な vCPU とメモリの範囲を確認するには、GPU リストをご覧ください。
GPU が正しく機能するにはデバイス ドライバが必要です。Compute Engine で動作する NVIDIA GPU では、最小限のドライバ バージョンを使用する必要があります。ドライバ バージョンの詳細については、必要な NVIDIA ドライバのバージョンをご覧ください。
Compute Engine SLA は、アタッチされた GPU モデルが一般提供されている場合にのみ、アタッチされた GPU モデルを使用するインスタンスを対象とします。
複数のゾーンがあるリージョンの場合、Compute Engine SLA は、GPU モデルがそのリージョン内の複数のゾーンで使用可能な場合にのみ、インスタンスを対象とします。リージョンごとの GPU モデルについては、GPU のリージョンとゾーンをご覧ください。
Compute Engine は、GPU あたり 1 人の同時利用ユーザーをサポートしています。
また、GPU がアタッチされている各マシンタイプの制限事項もご覧ください。
次のステップ
- GPU が接続されたインスタンスを作成する方法を学習する。
- GPU の追加または削除方法を学習する。
- GPU を接続した Confidential VM インスタンスの作成方法を学習する。