このページでは、PyTorch などのツールがプリインストールされた PyTorch Deep Learning VM Images インスタンスを作成する方法について説明します。PyTorch インスタンスは、 Google Cloud コンソール内の Cloud Marketplace から、またはコマンドラインを使用して作成できます。
始める前に
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
- Deep Learning VM で GPU を使用する場合は、[割り当て] ページで、プロジェクトで十分な GPU を使用できることを確認してください。GPU が割り当てページのリストにない場合や、さらに GPU 割り当てが必要な場合には、割り当て量の増加をリクエストしてください。
Google Cloud コンソールの Deep Learning VM Cloud Marketplace ページに移動します。
[Get started] をクリックします。
デプロイ名を入力します。これは、VM 名のルートとして使用されます。Compute Engine は、この名前に
-vmを追加してインスタンス名を設定します。ゾーンを選択します。
[マシンタイプ] で、VM に必要な仕様を選択します。マシンタイプの詳細をご覧ください。
[GPU] で、GPU のタイプと GPU の数を選択します。GPU を使用しない場合は、[GPU を削除します] ボタンをクリックして、ステップ 7 に進みます。GPU の詳細をご覧ください。
- GPU のタイプを選択します。すべての GPU タイプがすべてのゾーンで利用できるわけではありません。サポートされている組み合わせを探します。
- GPU の数を選択します。選択できる GPU の数は GPU によって異なります。サポートされている組み合わせを探します。
[フレームワーク] で、[PyTorch 1.8 + fast.ai 2.1(CUDA 11.0)] を選択します。
GPU を使用している場合は、NVIDIA ドライバが必要です。ドライバは手動でもインストールできますが、[Install NVIDIA GPU driver automatically on first startup] を選択することもできます。
[Enable access to JupyterLab via URL instead of SSH (Beta)] を選択することもできます。このベータ機能を有効にすると、URL を使用して JupyterLab インスタンスにアクセスできます。Google Cloud プロジェクトで編集者またはオーナーのロールを持っているユーザーは誰でもこの URL にアクセスできます。現在、この機能は米国、EU、アジアでのみ機能します。
ブートディスクの種類とブートディスクのサイズを選択します。
必要なネットワーク設定を選択します。
[デプロイ] をクリックします。
- Google Cloud CLI のインストールの手順を使用して、Google Cloud CLI をダウンロードしてインストールします。
- Cloud SDK の初期化手順に沿って SDK を初期化します。
--image-familyは、pytorch-latest-cpuまたはpytorch-VERSION-cpuのいずれかにする必要があります(たとえば、pytorch-1-13-cpu)。--image-projectがdeeplearning-platform-releaseでなければなりません。--image-familyは、pytorch-latest-gpuまたはpytorch-VERSION-CUDA-VERSIONのいずれかにする必要があります(たとえば、pytorch-1-10-cu110)。--image-projectがdeeplearning-platform-releaseでなければなりません。--maintenance-policyがTERMINATEでなければなりません。詳細については、GPU の制限をご覧ください。--acceleratorには、使用する GPU タイプを指定します。--accelerator="type=TYPE,count=COUNT"の形式で指定する必要があります。例:--accelerator="type=nvidia-tesla-p100,count=2"。使用可能な GPU の種類と数のリストについては、GPU モデルの表をご覧ください。すべての GPU タイプがすべてのリージョンでサポートされているわけではありません。詳細については、GPU のリージョンとゾーンの可用性をご覧ください。
--metadataを使用すると、NVIDIA ドライバを自動的にインストールするように指定できます。値はinstall-nvidia-driver=Trueです。指定した場合、初回起動時に Compute Engine によって最新の安定したドライバが読み込まれ、必要な手順が実行されます(ドライバをアクティブにするための最後の再起動を含む)。上記の手順で、コマンドラインから新しいインスタンスを作成します。
gcloud compute instances createコマンドに以下を追加します。--preemptible
Cloud Marketplace から PyTorch Deep Learning VM インスタンスを作成する
Cloud Marketplace から PyTorch Deep Learning VM インスタンスを作成するには、次の手順を実行します。
NVIDIA ドライバのインストールを選択した場合、インストールが完了するまでに 3~5 分かかります。
VM がデプロイされると、ページが更新され、インスタンスにアクセスする手順が表示されます。
コマンドラインから PyTorch Deep Learning VM インスタンスを作成する
Google Cloud CLI を使用して新しい Deep Learning VM インスタンスを作成するには、まず Google Cloud CLI をインストールして初期化する必要があります。
Cloud Shell で gcloud を使用するには、Cloud Shell の起動手順に沿って Cloud Shell をアクティブにします。
GPU を使用しない場合
最新の PyTorch イメージ ファミリーと 1 つの CPU を使用して Deep Learning VM インスタンスを作成するには、コマンドラインで次のように入力します。
export IMAGE_FAMILY="pytorch-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release
オプション:
GPU を使用する場合
Compute Engine には、仮想マシン インスタンスに GPU を追加するオプションがあります。多くの場合、GPU を使用することで複雑なデータ処理や機械学習タスクを高速化できます。GPU の詳細については、Compute Engine の GPU をご覧ください。
最新の PyTorch イメージ ファミリーと 1 つ以上の接続された GPU を使用して Deep Learning VM インスタンスを作成するには、コマンドラインで次のように入力します。
export IMAGE_FAMILY="pytorch-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release \
--maintenance-policy=TERMINATE \
--accelerator="type=nvidia-tesla-v100,count=1" \
--metadata="install-nvidia-driver=True"
オプション:
NVIDIA ドライバのインストールを選択した場合、インストールが完了するまでに 3~5 分かかります。
VM が完全にプロビジョニングされるまでに、最大で 5 分ほどかかることがあります。その間、マシンに SSH で接続することはできません。インストールが完了したら、ドライバのインストールが正常に完了したことを確認するために、SSH で接続して nvidia-smi を実行します。
構成が完了すると、イメージのスナップショットを保存できます。スナップショットを使用することで、ドライバのインストールを待つことなく、派生インスタンスを起動できるようになります。
プリエンプティブル インスタンスを作成する
プリエンプティブルな Deep Learning VM インスタンスを作成できます。プリエンプティブル インスタンスは、通常のインスタンスよりはるかに低価格で作成、実行できるインスタンスです。ただし、他のタスクがリソースへのアクセスを必要とする場合、Compute Engine がこのインスタンスを停止(プリエンプト)する可能性があります。プリエンプティブル インスタンスは 24 時間後に必ず停止します。プリエンプティブル インスタンスの詳細については、プリエンプティブル VM インスタンスをご覧ください。
プリエンプティブルな Deep Learning VM インスタンスを作成するには:
次のステップ
Google Cloud コンソールまたはコマンドラインから新しい Deep Learning VM インスタンスに接続する手順については、インスタンスへの接続をご覧ください。インスタンス名は、指定したデプロイ名に -vm を付加したものになります。