このページでは、Deep Learning Containers の概要と、ローカルの Deep Learning Containers インスタンスで TensorFlow Enterprise の使用を開始する方法について説明します。
この例では、ローカルマシンに TensorFlow Enterprise Deep Learning Containers インスタンスを作成して実行します。次に、JupyterLab ノートブック(コンテナ インスタンスにデフォルトで含まれています)を開き、Keras でニューラル ネットワークを使用する分類チュートリアルを実行します。
Deep Learning Containers の概要
Deep Learning Containers は、主要なデータ サイエンス フレームワーク、ライブラリ、ツールがプリインストールされた Docker コンテナのセットです。これらのコンテナを使用すると、パフォーマンスが最適化された一貫性のある環境で、ワークフローのプロトタイプ作成と実装を迅速に行えます。
始める前に
次の手順に沿って、Google Cloud CLI と Docker をインストールし、ローカルマシンを設定します。
gcloud CLI と Docker をインストールする
次の手順に沿って、ローカルマシンに gcloud CLI と Docker をインストールします。
ローカルマシンに gcloud CLI をダウンロードしてインストールします。gcloud CLI を使用してインスタンスとやり取りできます。
ローカルマシンを設定する
次の手順に沿ってローカルマシンをセットアップします。
Ubuntu や Debian などの Linux ベースのオペレーティング システムを使用している場合は、次のコマンドを使用してユーザー名を
dockerグループに追加し、sudoを使わずに Docker を実行できるようにします。USERNAME は、ユーザー名に置き換えます。sudo usermod -a -G docker USERNAMEdockerグループにユーザー名を追加した後に、システムの再起動が必要となる場合があります。Docker を開きます。Docker が稼働中であることを確認するには、現在の時刻と日付を返す次の Docker コマンドを実行します。
docker run busybox dateDocker 認証ヘルパーとして
gcloudを使用します。gcloud auth configure-docker省略可: GPU 対応コンテナを使用する場合は、CUDA 10 互換の GPU、関連するドライバ、
nvidia-dockerがインストールされていることを確認してください。
Deep Learning Containers インスタンスを作成する
TensorFlow Enterprise Deep Learning Containers インスタンスを作成するには、作成するローカル コンテナのタイプに応じて次の操作を行います。
GPU 対応のコンテナを使用する必要がない場合は、次のコマンドを使用します。/path/to/local/dir は、使用するローカル ディレクトリのパスに置き換えます。
docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-cpu.2-3
GPU 対応のコンテナを使用する場合は、次のコマンドを使用します。/path/to/local/dir は、使用するローカル ディレクトリのパスに置き換えます。
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-gpu.2-3
このコマンドは、コンテナを接続解除モードで起動して、ローカル ディレクトリ /path/to/local/dir をコンテナ内の /home にマウントし、コンテナのポート 8080 をローカルマシンのポート 8080 にマッピングします。
JupyterLab ノートブックを開いて分類チュートリアルを実行する
コンテナは JupyterLab サーバーを起動するように事前構成されています。JupyterLab ノートブックを開いて分類チュートリアルを実行するには、次の手順を行います。
ローカル ブラウザで http://localhost:8080 にアクセスして、JupyterLab ノートブックにアクセスします。
左側で tutorials をダブルクリックしてフォルダを開き、tutorials/tf2_course/01_neural_nets_with_keras.ipynb に移動して開きます。
実行ボタン をクリックして、チュートリアルのセルを実行します。
Deep Learning Containers インスタンスを Google Cloudで実行する
クラウド環境で TensorFlow Enterprise Deep Learning Containers インスタンスを実行するには、 Google Cloudでコンテナを実行するためのオプションの詳細をご覧ください。たとえば、Google Kubernetes Engine クラスタでコンテナを実行できます。
次のステップ
- Deep Learning Containers の詳細を確認する。
- Deep Learning Containers コミュニティの詳細を確認する。ここでは、Deep Learning Containers についてディスカッションしたり、質問したりできます。
- Deep Learning VM で TensorFlow Enterprise を使用する方法を確認する。