TensorFlow インテグレーション

このページでは、Gemini Enterprise Agent Platform の TensorFlow インテグレーションについて説明します。また、Gemini Enterprise Agent Platform で TensorFlow を使用する方法を示すリソースについて紹介します。Gemini Enterprise Agent Platform の TensorFlow インテグレーションを使用すると、本番環境での TensorFlow モデルのトレーニング、デプロイ、オーケストレーションを容易に行うことができます。

ノートブックでコードを実行する

Agent Platform には、ノートブックでコードを実行する方法として Colab Enterprise と Vertex AI Workbench という 2 つのオプションがあります。 これらのオプションの詳細については、 ノートブック ソリューションを選択するをご覧ください。

トレーニング用のビルド済みコンテナ

Gemini Enterprise Agent Platform には、モデル トレーニング用にビルド済みの Docker コンテナ イメージが用意されています。 これらのコンテナは ML フレームワークとフレームワーク バージョン別に編成され、トレーニング コードで必要となる一般的な依存関係が含まれています。

ビルド済みのトレーニング コンテナを使用する TensorFlow バージョンと、ビルド済みのトレーニング コンテナでモデルをトレーニングする方法については、カスタム トレーニング用のビルド済みコンテナをご覧ください。

分散トレーニング

Gemini Enterprise Agent Platform では、TensorFlow モデルの分散トレーニングを実行できます。マルチワーカー トレーニングの場合、Reduction Server を使用して、all-reduce グループ演算に合わせてパフォーマンスをさらに最適化できます。Gemini Enterprise Agent Platform での 分散トレーニングの詳細については、 分散トレーニングをご覧ください。

推論用のビルド済みコンテナ

トレーニング用のビルド済みコンテナと同様に、Gemini Enterprise Agent Platform では、Gemini Enterprise Agent Platform 内外で作成した TensorFlow モデルから推論と説明をサービングするためのビルド済みコンテナ イメージが用意されています。これらのイメージは、最小限の構成で推論を行うことができる HTTP 推論サーバーを提供します。

ビルド済みのトレーニング コンテナを使用する TensorFlow バージョンと、ビルド済みのトレーニング コンテナでモデルをトレーニングする方法については、カスタム トレーニング用のビルド済みコンテナをご覧ください。

最適化された TensorFlow ランタイム

最適化された TensorFlow ランタイムは、モデルの最適化と新しい独自の Google テクノロジーにより、TensorFlow 用の Gemini Enterprise Agent Platform の標準のビルド済み推論コンテナよりも推論速度を向上させ、コストを削減します。

TensorFlow Cloud Profiler の統合

Gemini Enterprise Agent Platform の TensorFlow Cloud Profiler インテグレーションを使用してトレーニング ジョブのパフォーマンスをモニタリングして最適化することで、コストを抑えながらモデルのトレーニングを迅速に行うことができます。TensorFlow Cloud Profiler を使用すると、トレーニング オペレーションのリソース消費量を把握し、パフォーマンスのボトルネックを特定して排除できます。

Agent Platform TensorFlow Cloud Profiler の詳細については、Profiler を使用してモデルのトレーニング パフォーマンスをプロファイリングする をご覧ください

Gemini Enterprise Agent Platform で TensorFlow を使用するためのリソース

Gemini Enterprise Agent Platform での TensorFlow の詳細と使用方法については、次のリソースをご覧ください。