このページでは、TensorFlow とその他のツールがプリインストールされた TensorFlow Deep Learning VM Image インスタンスを作成する方法を説明します。TensorFlow インスタンスは、 Google Cloud コンソール内の Cloud Marketplace から、またはコマンドラインを使用して作成できます。
始める前に
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator
), which contains theresourcemanager.projects.create
permission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator
), which contains theresourcemanager.projects.create
permission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
- Deep Learning VM で GPU を使用する場合は、[割り当て] ページで、プロジェクトで十分な GPU を使用できることを確認してください。GPU が割り当てページのリストにない場合や、さらに GPU 割り当てが必要な場合には、割り当て量の増加をリクエストしてください。
Google Cloud コンソールの Deep Learning VM Cloud Marketplace ページに移動します。
[Get started] をクリックします。
デプロイ名を入力します。これは、VM 名のルートとして使用されます。Compute Engine は、この名前に
-vm
を追加してインスタンス名を設定します。ゾーンを選択します。
[マシンタイプ] で、VM に必要な仕様を選択します。マシンタイプの詳細をご覧ください。
[GPU] で、GPU のタイプと GPU の数を選択します。GPU を使用しない場合は、[GPU を削除します] ボタンをクリックして、ステップ 7 に進みます。GPU の詳細をご覧ください。
- GPU のタイプを選択します。すべての GPU タイプがすべてのゾーンで利用できるわけではありません。サポートされている組み合わせを探します。
- GPU の数を選択します。選択できる GPU の数は GPU によって異なります。サポートされている組み合わせを探します。
[フレームワーク] で、TensorFlow フレームワークのバージョンのいずれかを選択します。
GPU を使用している場合は、NVIDIA ドライバが必要です。ドライバは手動でもインストールできますが、[Install NVIDIA GPU driver automatically on first startup] を選択することもできます。
[Enable access to JupyterLab via URL instead of SSH (Beta)] を選択することもできます。このベータ機能を有効にすると、URL を使用して JupyterLab インスタンスにアクセスできます。Google Cloud プロジェクトで編集者またはオーナーのロールを持っているユーザーは誰でもこの URL にアクセスできます。現在、この機能は米国、EU、アジアでのみ機能します。
ブートディスクの種類とブートディスクのサイズを選択します。
必要なネットワーク設定を選択します。
[デプロイ] をクリックします。
- Google Cloud CLI のインストールの手順を使用して、Google Cloud CLI をダウンロードしてインストールします。
- Cloud SDK の初期化手順に沿って SDK を初期化します。
--image-family
は、以下のいずれかにする必要があります。tf-ent-latest-cpu
- 最新の TensorFlow Enterprise の 2 つのイメージを取得します。- 以前の TensorFlow または TensorFlow Enterprise イメージのファミリー名(イメージの選択を参照)
--image-project
がdeeplearning-platform-release
でなければなりません。--image-family
は、以下のいずれかにする必要があります。tf-ent-latest-gpu
- 最新の TensorFlow Enterprise の 2 つのイメージを取得します。- 以前の TensorFlow または TensorFlow Enterprise イメージのファミリー名(イメージの選択を参照)
--image-project
がdeeplearning-platform-release
でなければなりません。--maintenance-policy
がTERMINATE
でなければなりません。詳細については、GPU の制限をご覧ください。--accelerator
には、使用する GPU タイプを指定します。--accelerator="type=TYPE,count=COUNT"
の形式で指定する必要があります。例:--accelerator="type=nvidia-tesla-p100,count=2"
。使用可能な GPU の種類と数のリストについては、GPU モデルの表をご覧ください。すべての GPU タイプがすべてのリージョンでサポートされているわけではありません。詳細については、GPU のリージョンとゾーンの可用性をご覧ください。
--metadata
を使用すると、NVIDIA ドライバを自動的にインストールするように指定できます。値はinstall-nvidia-driver=True
です。 指定した場合、Compute Engine の初回起動時に最新の安定したドライバが読み込まれ、必要な手順が実行されます(ドライバをアクティブにするための最後の再起動を含む)。上記の手順で、コマンドラインから新しいインスタンスを作成します。
gcloud compute instances create
コマンドに以下を追加します。--preemptible
Cloud Marketplace から TensorFlow ディープ ラーニング VM インスタンスを作成する
Cloud Marketplace から TensorFlow Deep Learning VM インスタンスを作成するには、次の手順を実行します。
NVIDIA ドライバのインストールを選択した場合、インストールが完了するまでに 3~5 分かかります。
VM がデプロイされると、ページが更新され、インスタンスにアクセスする手順が表示されます。
コマンドラインから TensorFlow Deep Learning VM インスタンスを作成する
Google Cloud CLI を使用して新しい Deep Learning VM インスタンスを作成するには、まず Google Cloud CLI をインストールして初期化する必要があります。
Cloud Shell で gcloud
を使用するには、Cloud Shell の起動手順に沿って Cloud Shell をアクティブにします。
TensorFlow インスタンスは、GPU の有無にかかわらず作成できます。
GPU を使用しない場合
Deep Learning VM インスタンスを GPU なしでプロビジョニングするには:
export IMAGE_FAMILY="tf-ent-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release
オプション:
GPU を使用する場合
Compute Engine には、仮想マシン インスタンスに GPU を追加するオプションがあります。多くの場合、GPU を使用することで複雑なデータ処理や機械学習タスクを高速化できます。GPU の詳細については、Compute Engine の GPU をご覧ください。
Deep Learning VM インスタンスに GPU をプロビジョニングするには:
export IMAGE_FAMILY="tf-ent-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release \
--maintenance-policy=TERMINATE \
--accelerator="type=nvidia-tesla-v100,count=1" \
--metadata="install-nvidia-driver=True"
オプション:
NVIDIA ドライバのインストールを選択した場合、インストールが完了するまでに 3~5 分かかります。
VM が完全にプロビジョニングされるまでに、最大で 5 分ほどかかることがあります。その間、マシンに SSH で接続することはできません。インストールが完了したら、ドライバのインストールが正常に完了したことを確認するために、SSH で接続して nvidia-smi
を実行します。
構成が完了すると、イメージのスナップショットを保存できます。スナップショットを使用することで、ドライバのインストールを待つことなく、派生インスタンスを起動できるようになります。
TensorFlow Enterprise について
TensorFlow Enterprise は、 Google Cloud で実行するように最適化された TensorFlow であり、長期的なバージョン サポートの対象となっています。
プリエンプティブル インスタンスの作成
プリエンプティブルな Deep Learning VM インスタンスを作成できます。プリエンプティブル インスタンスは、通常のインスタンスよりはるかに低価格で作成、実行できるインスタンスです。ただし、他のタスクがリソースへのアクセスを必要とする場合、Compute Engine がこのインスタンスを停止(プリエンプト)する可能性があります。プリエンプティブル インスタンスは 24 時間後に必ず停止します。プリエンプティブル インスタンスの詳細については、プリエンプティブル VM インスタンスをご覧ください。
プリエンプティブルな Deep Learning VM インスタンスを作成するには:
次のステップ
Google Cloud コンソールまたはコマンドラインから新しい Deep Learning VM インスタンスに接続する手順については、インスタンスへの接続をご覧ください。インスタンス名は、指定したデプロイ名に -vm
を付加したものになります。