ローカルの Deep Learning Containers インスタンスで TensorFlow Enterprise を使用する

このページでは、Deep Learning Containers の概要と、ローカルの Deep Learning Containers インスタンスで TensorFlow Enterprise の使用を開始する方法について説明します。

この例では、ローカルマシンに TensorFlow Enterprise Deep Learning Containers インスタンスを作成して実行します。次に、JupyterLab ノートブック(コンテナ インスタンスにデフォルトで含まれています)を開き、Keras でニューラル ネットワークを使用する分類チュートリアルを実行します。

Deep Learning Containers の概要

Deep Learning Containers は、主要なデータ サイエンス フレームワーク、ライブラリ、ツールがプリインストールされた Docker コンテナのセットです。これらのコンテナを使用すると、パフォーマンスが最適化された一貫性のある環境で、ワークフローのプロトタイプ作成と実装を迅速に行えます。

始める前に

次の手順に沿って、Google Cloud CLI と Docker をインストールし、ローカルマシンを設定します。

gcloud CLI と Docker をインストールする

次の手順に沿って、ローカルマシンに gcloud CLI と Docker をインストールします。

  1. ローカルマシンに gcloud CLI をダウンロードしてインストールします。gcloud CLI を使用してインスタンスとやり取りできます。

  2. Docker をダウンロードしてインストールします

ローカルマシンを設定する

次の手順に沿ってローカルマシンをセットアップします。

  1. Ubuntu や Debian などの Linux ベースのオペレーティング システムを使用している場合は、次のコマンドを使用してユーザー名を docker グループに追加し、sudo を使わずに Docker を実行できるようにします。USERNAME は、ユーザー名に置き換えます。

    sudo usermod -a -G docker USERNAME
    

    docker グループにユーザー名を追加した後に、システムの再起動が必要となる場合があります。

  2. Docker を開きます。Docker が稼働中であることを確認するには、現在の時刻と日付を返す次の Docker コマンドを実行します。

    docker run busybox date
    
  3. Docker 認証ヘルパーとして gcloud を使用します。

    gcloud auth configure-docker
    
  4. 省略可: GPU 対応コンテナを使用する場合は、CUDA 10 互換の GPU、関連するドライバ、nvidia-docker がインストールされていることを確認してください。

Deep Learning Containers インスタンスを作成する

TensorFlow Enterprise Deep Learning Containers インスタンスを作成するには、作成するローカル コンテナのタイプに応じて次の操作を行います。

GPU 対応のコンテナを使用する必要がない場合は、次のコマンドを使用します。/path/to/local/dir は、使用するローカル ディレクトリのパスに置き換えます。

docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-cpu.2-3

GPU 対応のコンテナを使用する場合は、次のコマンドを使用します。/path/to/local/dir は、使用するローカル ディレクトリのパスに置き換えます。

docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-gpu.2-3

このコマンドは、コンテナを接続解除モードで起動して、ローカル ディレクトリ /path/to/local/dir をコンテナ内の /home にマウントし、コンテナのポート 8080 をローカルマシンのポート 8080 にマッピングします。

JupyterLab ノートブックを開いて分類チュートリアルを実行する

コンテナは JupyterLab サーバーを起動するように事前構成されています。JupyterLab ノートブックを開いて分類チュートリアルを実行するには、次の手順を行います。

  1. ローカル ブラウザで http://localhost:8080 にアクセスして、JupyterLab ノートブックにアクセスします。

  2. 左側で tutorials をダブルクリックしてフォルダを開き、tutorials/tf2_course/01_neural_nets_with_keras.ipynb に移動して開きます。

  3. 実行ボタン をクリックして、チュートリアルのセルを実行します。

Deep Learning Containers インスタンスを Google Cloudで実行する

クラウド環境で TensorFlow Enterprise Deep Learning Containers インスタンスを実行するには、 Google Cloudでコンテナを実行するためのオプションの詳細をご覧ください。たとえば、Google Kubernetes Engine クラスタでコンテナを実行できます。

次のステップ