このトピックでは、コマンドラインから新しい Deep Learning VM Images インスタンスを作成する手順について説明します。gcloud コマンドライン ツールは、お使いの SSH アプリケーションと組み合わせて使用するか、Cloud Shell で使用できます。
始める前に
Google Cloud CLI を使用して新しい Deep Learning VM インスタンスを作成するには、まず Google Cloud CLI をインストールして初期化する必要があります。
- Google Cloud CLI のインストールの手順を使用して、Google Cloud CLI をダウンロードしてインストールします。
- Cloud SDK の初期化手順に沿って SDK を初期化します。
Cloud Shell で gcloud を使用するには、Cloud Shell の起動手順に沿って Cloud Shell をアクティブにします。
次に、使用する Deep Learning VM イメージを選択します。選択するイメージは、必要なフレームワークとプロセッサの種類によって異なります。選択可能なイメージについては、イメージの選択をご覧ください。
GPU を使用しないインスタンスの作成
GPU ではなく CPU を使用する Deep Learning VM インスタンスをプロビジョニングするには、次のコマンドを実行します。
export IMAGE_FAMILY="tf-ent-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release
オプション:
--image-familyは CPU 固有のイメージタイプのいずれかにする必要があります。詳細については、イメージの選択をご覧ください。--image-projectがdeeplearning-platform-releaseでなければなりません。
GPU を使用するインスタンスの作成
Compute Engine には、仮想マシン インスタンスに GPU を追加するオプションがあります。多くの場合、GPU を使用することで複雑なデータ処理や機械学習タスクを高速化できます。GPU の詳細については、Compute Engine の GPU をご覧ください。
Deep Learning VM インスタンスに 1 つ以上の GPU をプロビジョニングするには、次のコマンドを実行します。
export IMAGE_FAMILY="tf-ent-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release \
--maintenance-policy=TERMINATE \
--accelerator="type=nvidia-tesla-v100,count=1" \
--metadata="install-nvidia-driver=True"
オプション:
--image-familyは GPU 固有のイメージタイプのいずれかにする必要があります。詳細については、イメージの選択をご覧ください。--image-projectがdeeplearning-platform-releaseでなければなりません。--maintenance-policyがTERMINATEでなければなりません。詳細については、GPU の制限をご覧ください。--acceleratorには、使用する GPU タイプを指定します。--accelerator="type=TYPE,count=COUNT"の形式で指定する必要があります。サポートされているTYPEの値は次のとおりです。nvidia-tesla-v100(count=1または8)nvidia-tesla-p100(count=1、2、または4)nvidia-tesla-p4(count=1、2、または4)
すべての GPU タイプがすべてのリージョンでサポートされているわけではありません。詳しくは、Compute Engine の GPU をご覧ください。
--metadataを使用すると、NVIDIA ドライバを自動的にインストールするように指定できます。値はinstall-nvidia-driver=Trueです。指定した場合、初回起動時に Compute Engine によって最新の安定したドライバが読み込まれ、必要な手順が実行されます(ドライバをアクティブにするための最後の再起動を含む)。
NVIDIA ドライバのインストールを選択した場合、インストールが完了するまでに 3~5 分かかります。
VM が完全にプロビジョニングされるまでに、最大で 5 分ほどかかることがあります。その間、マシンに SSH で接続することはできません。インストールが完了したら、ドライバのインストールが正常に完了したことを確認するために、SSH で接続して nvidia-smi を実行します。
構成が完了すると、イメージのスナップショットを保存できます。スナップショットを使用することで、ドライバのインストールを待つことなく、派生インスタンスを起動できるようになります。
プリエンプティブル インスタンスを作成する
プリエンプティブルな Deep Learning VM インスタンスを作成できます。プリエンプティブル インスタンスは、通常のインスタンスよりはるかに低価格で作成、実行できるインスタンスです。ただし、他のタスクがリソースへのアクセスを必要とする場合、Compute Engine がこのインスタンスを停止(プリエンプト)する可能性があります。プリエンプティブル インスタンスは 24 時間後に必ず停止します。プリエンプティブル インスタンスの詳細については、プリエンプティブル VM インスタンスをご覧ください。
プリエンプティブルな Deep Learning VM インスタンスを作成するには:
上記の手順で新しいインスタンスを作成します。
gcloud compute instances createコマンドに以下を追加します。--preemptible
次のステップ
Google Cloud コンソールまたはコマンドラインから新しい Deep Learning VM インスタンスに接続する手順については、インスタンスへの接続をご覧ください。インスタンス名は、指定したデプロイ名に -vm を付加したものになります。