このチュートリアルでは、Gemini Enterprise Agent Platform Pipelines を使用して、次のタスクを含むエンドツーエンドの ML ワークフローを実行する方法について説明します。
- データをインポートして変換する。
- 変換されたデータを使用して、TFHub の画像分類モデルを微調整する。
- トレーニング済みモデルを Vertex AI Model Registry にインポートする。
- 省略可: Vertex AI Inference を使用してオンライン サービング用のモデルをデプロイする。
始める前に
隔離された Python 環境を作成し、 Agent Platform SDK for Python をインストールします。
Kubeflow Pipelines SDK をインストールします。
python3 -m pip install "kfp<2.0.0" "google-cloud-aiplatform>=1.16.0" --upgrade --quiet
ML モデルのトレーニング パイプラインを実行する
このサンプルコードは、次のことを行います。
- コンポーネント リポジトリから、パイプラインの構成要素として使用されるコンポーネントを読み込みます。
- コンポーネント タスクを作成し、引数を使用してそれらのタスク間でデータを渡すことで、パイプラインを作成します。
- Gemini Enterprise Agent Platform Pipelines で実行するパイプラインを送信します。Gemini Enterprise Agent Platform Pipelines の料金をご確認ください。
次のサンプルコードを開発環境にコピーして実行します。
画像分類
提供されているサンプルコードに関する注意事項:
- Kubeflow パイプラインは Python 関数として定義されます。
- パイプラインのワークフロー ステップは、Kubeflow パイプライン コンポーネントを使用して作成されます。コンポーネントの出力を別のコンポーネントの入力として使用することで、パイプラインのワークフローをグラフとして定義します。たとえば、
preprocess_image_data_opコンポーネント タスクは、transcode_imagedataset_tfrecord_from_csv_opコンポーネント タスクのtfrecord_image_data_path出力に依存します。 - Agent Platform SDK for Python を使用して、Gemini Enterprise Agent Platform Pipelines でパイプライン実行を作成します。
パイプラインをモニタリングする
コンソールの [Agent Platform] セクションで、 [パイプライン] ページに移動し、[実行] タブを開きます。 Google Cloud
次のステップ
- Gemini Enterprise Agent Platform Pipelines の詳細については、Gemini Enterprise Agent Platform Pipelines の概要をご覧ください。