エンドツーエンドの AutoML 表形式ワークフローのサービス アカウント
このワークフローでは、次のサービス アカウントを使用します。
| サービス アカウント | 説明 | デフォルトのプリンシパル | デフォルトの名前 | オーバーライドできます | 
|---|---|---|---|---|
| Vertex AI Pipelines のサービス アカウント | パイプラインを実行するサービス アカウント | PROJECT_NUMBER-compute@developer.gserviceaccount.com | Compute Engine default service account | ○ | 
| Dataflow ワーカーのサービス アカウント | Dataflow ワーカーを実行するサービス アカウント | PROJECT_NUMBER-compute@developer.gserviceaccount.com | Compute Engine default service account | ○ | 
| AI Platform サービス エージェント | トレーニング コンテナを実行するサービス アカウント。 | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com | AI Platform Service Agent | × | 
一部のサービス アカウントは、任意のアカウントに変更できます。 Google Cloud コンソールまたは API 固有の手順については、エンドツーエンドの AutoML でモデルをトレーニングするをご覧ください。
Vertex AI Pipelines のサービス アカウント
パイプライン プロジェクトの Vertex AI Pipelines のサービス アカウントに次のロールを付与します。
| ロール | 権限 | 
|---|---|
| Vertex AI ユーザー | aiplatform.metadataStores.getにより、サービス アカウントはパイプライン ジョブを作成できます。aiplatform.models.uploadにより、サービス アカウントはモデルをアップロードできます。 | 
| Storage オブジェクト管理者 | Storage オブジェクト管理者の storage.objects.get権限とstorage.objects.create権限により、サービス アカウントはパイプライン ジョブのルート ディレクトリにあるバケットにアクセスできます。Cloud Storage データソースを使用していない場合でも、サービス アカウントにはこれらの権限が必要です。 | 
| Dataflow デベロッパー | dataflow.jobs.createにより、サービス アカウントは評価中に Dataflow ジョブを作成できます。 | 
| サービス アカウント ユーザー | iam.serviceAccounts.actAsにより、Vertex AI Pipelines サービス アカウントは評価中に Dataflow ワーカー サービス アカウントとして機能できます。 | 
Dataflow ワーカーのサービス アカウント
パイプライン プロジェクトの Dataflow ワーカーのサービス アカウントに次のロールを付与します。
| ロール | 権限 | 
|---|---|
| Dataflow ワーカー | このロールにより、サービス アカウントは Dataflow ジョブの実行に必要なリソースにアクセスできます。 | 
| Storage オブジェクト管理者 | このロールにより、サービス アカウントは Cloud Storage バケットにアクセスできます。Cloud Storage データソースを使用していない場合でも、サービス アカウントにはこれらの権限が必要です。このロールには、Storage オブジェクト閲覧者のロールによって付与されるすべての権限が含まれています。 | 
また、データソースの種類に基づいて次のロールを Dataflow ワーカー サービス アカウントに付与します。
| データソース | ロール | ロールを付与する場所 | 
|---|---|---|
| 標準の BigQuery テーブル | BigQuery データ編集者 | パイプラインを実行するプロジェクト | 
| BigQuery ジョブユーザー | パイプラインを実行するプロジェクト | |
| BigQuery データ閲覧者 | テーブルが属するプロジェクト | |
| 標準の BigQuery テーブルの BigQuery ビュー | BigQuery データ編集者 | パイプラインを実行するプロジェクト | 
| BigQuery ジョブユーザー | パイプラインを実行するプロジェクト | |
| BigQuery データ閲覧者 | ビューが属するプロジェクト | |
| BigQuery データ閲覧者 | テーブルが属するプロジェクト | |
| ソースの Cloud Storage ファイルを含む BigQuery 外部テーブル | BigQuery データ編集者 | パイプラインを実行するプロジェクト | 
| BigQuery ジョブユーザー | パイプラインを実行するプロジェクト | |
| BigQuery データ閲覧者 | 外部テーブルが属するプロジェクト | |
| Storage オブジェクト閲覧者 | ソースファイルが属するプロジェクト | |
| ソースの Cloud Storage ファイルを含む BigQuery 外部テーブルの BigQuery ビュー | BigQuery データ編集者 | パイプラインを実行するプロジェクト | 
| BigQuery ジョブユーザー | パイプラインを実行するプロジェクト | |
| BigQuery データ閲覧者 | ビューが属するプロジェクト | |
| BigQuery データ閲覧者 | 外部テーブルが属するプロジェクト | |
| Storage オブジェクト閲覧者 | ソースファイルが属するプロジェクト | |
| Cloud Storage ファイル | Storage オブジェクト閲覧者 | ファイルが属するプロジェクト | 
次の表に、これらのロールの説明を示します。
| ロール | 権限 | 
|---|---|
| BigQuery データ編集者 | bigquery.jobs.get権限とbigquery.jobs.create権限により、サービス アカウントで BigQuery データセットを使用できます。bigquery.jobs.createにより、サービス アカウントは統計情報とサンプルの生成中に一時的な BigQuery データセットを作成できます。このロールには、BigQuery データ閲覧者のロールによって付与されるすべての権限が含まれます。 | 
| BigQuery ジョブユーザー | bigquery.jobs.createにより、サービス アカウントは BigQuery データセットを使用できます。 | 
| BigQuery データ閲覧者 | このロールは、サービス アカウントに BigQuery データセットへのアクセス権を付与します。 | 
| Storage オブジェクト閲覧者 | storage.objects.getにより、サービス アカウントは Cloud Storage ファイルにアクセスできます。 | 
AI Platform サービス エージェント
パイプライン プロジェクトの AI Platform サービス エージェントに次のロールが付与されていることを確認します。
| ロール | 権限 | 
|---|---|
| Vertex AI サービス エージェント | このロールは、サービス エージェントに権限を付与します。これらの権限には、Artifact Registry リポジトリ内のコンテナ イメージに対する storage.object.get権限とアクセス権限が含まれます。 | 
データソースが別のプロジェクトの BigQuery データセットである場合は、データセット プロジェクトの AI Platform サービス エージェントに次のロールを付与します。
| ロール | 権限 | 
|---|---|
| BigQuery データ閲覧者 | bigquery.tables.getにより、サービス アカウントは Dataflow ジョブを起動する前に BigQuery データセットに関する情報を取得できます。 | 
データソースが別のプロジェクトの Cloud Storage ファイルである場合は、ファイル プロジェクトの AI Platform サービス エージェントに次のロールを付与します。
| ストレージ オブジェクト閲覧者 | storage.objects.listにより、サービス アカウントは Dataflow ジョブを開始する前に Cloud Storage ファイルに関する情報を取得できます。 | 
予測用の表形式ワークフローのサービス アカウント
このワークフローでは、次のサービス アカウントを使用します。
| サービス アカウント | 説明 | デフォルトのプリンシパル | デフォルトの名前 | オーバーライドできます | 
|---|---|---|---|---|
| Vertex AI Pipelines のサービス アカウント | パイプラインを実行するサービス アカウント | PROJECT_NUMBER-compute@developer.gserviceaccount.com | Compute Engine default service account | ○ | 
| Dataflow ワーカーのサービス アカウント | Dataflow ワーカーを実行するサービス アカウント | PROJECT_NUMBER-compute@developer.gserviceaccount.com | Compute Engine default service account | ○ | 
| AI Platform サービス エージェント | トレーニング コンテナを実行するサービス アカウント。 | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com | AI Platform Service Agent | × | 
一部のサービス アカウントは、任意のアカウントに変更できます。詳細については、予測用の表形式ワークフローを使用してモデルをトレーニングするをご覧ください。
Vertex AI Pipelines のサービス アカウント
パイプライン プロジェクトの Vertex AI Pipelines のサービス アカウントに次のロールを付与します。
| ロール | 権限 | 
|---|---|
| Vertex AI ユーザー | aiplatform.metadataStores.getにより、サービス アカウントはパイプライン ジョブを作成できます。aiplatform.models.uploadにより、サービス アカウントはモデルをアップロードできます。 | 
| BigQuery データ編集者 | bigquery.tables.createにより、サービス アカウントは Dataflow ジョブを起動する前に Feature Transform Engine の一時テーブルを作成できます。データソースが BigQuery データセットでない場合でも、サービス アカウントにはこの権限が必要です。このロールには、BigQuery データ閲覧者のロールによって付与されるすべての権限が含まれます。 | 
| BigQuery ジョブユーザー | bigquery.jobs.createにより、サービス アカウントは Dataflow ジョブを起動する前に Feature Transform Engine の BigQuery ジョブを実行できます。データソースが BigQuery データセットでない場合でも、サービス アカウントにはこの権限が必要です。 | 
| サービス アカウント ユーザー | iam.serviceAccounts.actAsにより、Vertex AI Pipelines サービス アカウントは評価中に Dataflow ワーカー サービス アカウントとして機能できます。 | 
| Dataflow デベロッパー | このロールは、Dataflow ジョブの実行に必要なリソースへのアクセス権を付与します。 | 
データソースの種類に基づいて次のロールを Vertex AI Pipelines サービス アカウントに追加で付与します。
| データソース | ロール | ロールを付与する場所 | 
|---|---|---|
| Cloud Storage ファイル | Storage 管理者 | ファイルが属するプロジェクト | 
| 標準の BigQuery テーブル | Storage オブジェクト管理者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | テーブルが属するプロジェクト | |
| 標準の BigQuery テーブルの BigQuery ビュー | Storage オブジェクト管理者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | ビューが属するプロジェクト | |
| BigQuery データ閲覧者 | テーブルが属するプロジェクト | |
| ソースの Cloud Storage ファイルを含む BigQuery 外部テーブル | Storage オブジェクト管理者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | 外部テーブルが属するプロジェクト | |
| Storage オブジェクト閲覧者 | ソースファイルが属するプロジェクト | |
| ソースの Cloud Storage ファイルを含む BigQuery 外部テーブルの BigQuery ビュー | Storage オブジェクト管理者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | ビューが属するプロジェクト | |
| BigQuery データ閲覧者 | 外部テーブルが属するプロジェクト | |
| Storage オブジェクト閲覧者 | ソースファイルが属するプロジェクト | 
次の表に、これらのロールの説明を示します。
| BigQuery データ閲覧者 | bigquery.tables.getは、サービス アカウントにデータセットへのアクセス権を付与します。パイプラインの Feature Transform Engine のステップで Dataflow ジョブを起動する前に、サービス アカウントにこのアクセス権が必要です。 | 
| Storage オブジェクト閲覧者 | storage.objects.getにより、サービス アカウントはソースの Cloud Storage ファイルにアクセスできます。 | 
| Storage オブジェクト管理者 | storage.objects.get権限とstorage.objects.create権限により、サービス アカウントはパイプライン ジョブのルート ディレクトリのバケットにアクセスできます。データソースが Cloud Storage ファイルでない場合でも、サービス アカウントにはパイプライン プロジェクトでこれらの権限が必要です。このロールには、Storage オブジェクト閲覧者のロールによって付与されるすべての権限が含まれています。 | 
| Storage 管理者 | storage.buckets.*権限により、サービス アカウントはパイプラインの Feature Transform Engine のステップで Cloud Storage バケットを検証できます。このロールには、Storage オブジェクト管理者のロールによって付与されるすべての権限が含まれています。 | 
モデル評価を実行する場合は、予測サンプルの宛先となる BigQuery データセットを指定します。このデータセットを含むプロジェクトで、Vertex AI Pipelines サービス アカウントに次のロールを付与します。
| ロール | 権限 | 
|---|---|
| BigQuery データ閲覧者 | このロールにより、サービス アカウントで BigQuery データを閲覧できます。 | 
| BigQuery ジョブユーザー | bigquery.jobs.createによって、サービス アカウントで BigQuery ジョブを作成できます。 | 
Dataflow ワーカーのサービス アカウント
パイプライン プロジェクトの Dataflow ワーカーのサービス アカウントに次のロールを付与します。
| ロール | 権限 | 
|---|---|
| Storage オブジェクト管理者 | このロールにより、サービス アカウントは Cloud Storage バケットにアクセスできます。データソースが Cloud Storage ファイルでない場合でも、サービス アカウントにはこれらの権限が必要です。 | 
| BigQuery ジョブユーザー | bigquery.jobs.createにより、サービス アカウントはパイプラインの Feature Transform Engine のステップを実行できます。データソースが BigQuery データセットでない場合でも、サービス アカウントにはこの権限が必要です。 | 
| Dataflow ワーカー | サービス アカウントには、このロールによって付与されるすべての権限が必要です。 | 
また、データソースの種類に基づいて次のロールを Dataflow ワーカー サービス アカウントに付与します。
| データソース | ロール | ロールを付与する場所 | 
|---|---|---|
| 標準の BigQuery テーブル | BigQuery データ編集者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | テーブルが属するプロジェクト | |
| 標準の BigQuery テーブルの BigQuery ビュー | BigQuery データ編集者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | ビューが属するプロジェクト | |
| BigQuery データ閲覧者 | テーブルが属するプロジェクト | |
| ソースの Cloud Storage ファイルを含む BigQuery 外部テーブル | BigQuery データ編集者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | 外部テーブルが属するプロジェクト | |
| Storage オブジェクト閲覧者 | ソースファイルが属するプロジェクト | |
| ソースの Cloud Storage ファイルを含む BigQuery 外部テーブルの BigQuery ビュー | BigQuery データ編集者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | ビューが属するプロジェクト | |
| BigQuery データ閲覧者 | 外部テーブルが属するプロジェクト | |
| Storage オブジェクト閲覧者 | ソースファイルが属するプロジェクト | |
| Cloud Storage ファイル | BigQuery データ閲覧者 | パイプラインを実行するプロジェクト | 
次の表に、これらのロールの説明を示します。
| ロール | 権限 | 
|---|---|
| BigQuery データ閲覧者 | bigquery.tables.getは、パイプラインの Feature Transform Engine ステップ内のデータセットに対するアクセス権を付与します。データソースが BigQuery データセットでない場合でも、サービス アカウントにはこの権限が必要です。 | 
| BigQuery データ編集者 | このロールにより、サービス アカウントはパイプラインの Feature Transform Engine のステップ中にテーブルをクエリし、一時テーブルを作成できます。このロールには、BigQuery データ閲覧者のロールによって付与されるすべての権限が含まれます。 | 
| Storage オブジェクト閲覧者 | storage.objects.getにより、サービス アカウントは Cloud Storage ファイルにアクセスできます。 | 
AI Platform サービス エージェント
パイプライン プロジェクトの AI Platform サービス エージェントに次のロールが付与されていることを確認します。
| ロール | 権限 | 
|---|---|
| Vertex AI サービス エージェント | このロールは、サービス エージェントに権限を付与します。これらの権限には、Artifact Registry リポジトリ内のコンテナ イメージに対する storage.object.get権限とアクセス権限が含まれます。 | 
モデル評価を実行する場合は、予測サンプルの宛先となる BigQuery データセットを指定します。このデータセットを含むプロジェクトで、Vertex AI Pipelines サービス アカウントに次のロールを付与します。
| ロール | 権限 | 
|---|---|
| BigQuery データ編集者 | このロールにより、サービス アカウントは BigQuery データを編集できます。 | 
| BigQuery ジョブユーザー | bigquery.jobs.createによって、サービス アカウントで BigQuery ジョブを作成できます。 | 
TabNet の表形式のワークフローおよび、ワイド&ディープと Prophet の表形式のワークフローのサービス アカウント
これらのワークフローでは、次のサービス アカウントを使用します。
| サービス アカウント | 説明 | デフォルトのプリンシパル | デフォルトの名前 | オーバーライドできます | 
|---|---|---|---|---|
| Vertex AI Pipelines のサービス アカウント | パイプラインを実行するサービス アカウント | PROJECT_NUMBER-compute@developer.gserviceaccount.com | Compute Engine default service account | ○ | 
| Dataflow ワーカーのサービス アカウント | Dataflow ワーカーを実行するサービス アカウント | PROJECT_NUMBER-compute@developer.gserviceaccount.com | Compute Engine default service account | ○ | 
| AI Platform サービス エージェント | トレーニング コンテナを実行するサービス アカウント。 | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com | AI Platform Service Agent | × | 
一部のサービス アカウントは、任意のアカウントに変更できます。TabNet の手順の表形式ワークフローについては、TabNet でモデルをトレーニングするをご覧ください。ワイド&ディープの手順の表形式ワークフローについては、ワイド&ディープでモデルをトレーニングするをご覧ください。Prophet の手順については、Prophet による予測をご覧ください。
Vertex AI Pipelines のサービス アカウント
パイプライン プロジェクトの Vertex AI Pipelines のサービス アカウントに次のロールを付与します。
| ロール | 権限 | 
|---|---|
| Vertex AI ユーザー | aiplatform.metadataStores.getにより、サービス アカウントはパイプライン ジョブを作成できます。aiplatform.models.uploadにより、サービス アカウントはモデルをアップロードできます。 | 
| BigQuery データ編集者 | bigquery.tables.createにより、サービス アカウントは Dataflow ジョブを起動する前に Feature Transform Engine の一時テーブルを作成できます。データソースが BigQuery データセットでない場合でも、サービス アカウントにはこの権限が必要です。このロールには、BigQuery データ閲覧者のロールによって付与されるすべての権限が含まれます。 | 
| BigQuery ジョブユーザー | bigquery.jobs.createにより、サービス アカウントは Dataflow ジョブを起動する前に Feature Transform Engine の BigQuery ジョブを実行できます。データソースが BigQuery データセットでない場合でも、サービス アカウントにはこの権限が必要です。 | 
| サービス アカウント ユーザー | iam.serviceAccounts.actAsにより、Vertex AI Pipelines サービス アカウントは評価中に Dataflow ワーカー サービス アカウントとして機能できます。 | 
| Dataflow デベロッパー | このロールは、Dataflow ジョブの実行に必要なリソースへのアクセス権を付与します。 | 
データソースの種類に基づいて次のロールを Vertex AI Pipelines サービス アカウントに追加で付与します。
| データソース | ロール | ロールを付与する場所 | 
|---|---|---|
| Cloud Storage ファイル | Storage 管理者 | ファイルが属するプロジェクト | 
| 標準の BigQuery テーブル | Storage オブジェクト管理者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | テーブルが属するプロジェクト | |
| 標準の BigQuery テーブルの BigQuery ビュー | Storage オブジェクト管理者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | ビューが属するプロジェクト | |
| BigQuery データ閲覧者 | テーブルが属するプロジェクト | |
| ソースの Cloud Storage ファイルを含む BigQuery 外部テーブル | Storage オブジェクト管理者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | 外部テーブルが属するプロジェクト | |
| Storage オブジェクト閲覧者 | ソースファイルが属するプロジェクト | |
| ソースの Cloud Storage ファイルを含む BigQuery 外部テーブルの BigQuery ビュー | Storage オブジェクト管理者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | ビューが属するプロジェクト | |
| BigQuery データ閲覧者 | 外部テーブルが属するプロジェクト | |
| Storage オブジェクト閲覧者 | ソースファイルが属するプロジェクト | 
次の表に、これらのロールの説明を示します。
| BigQuery データ閲覧者 | bigquery.tables.getは、サービス アカウントにデータセットへのアクセス権を付与します。パイプラインの Feature Transform Engine のステップで Dataflow ジョブを起動する前に、サービス アカウントにこのアクセス権が必要です。 | 
| Storage オブジェクト閲覧者 | storage.objects.getにより、サービス アカウントはソースの Cloud Storage ファイルにアクセスできます。 | 
| Storage オブジェクト管理者 | storage.objects.get権限とstorage.objects.create権限により、サービス アカウントはパイプライン ジョブのルート ディレクトリのバケットにアクセスできます。データソースが Cloud Storage ファイルでない場合でも、サービス アカウントにはパイプライン プロジェクトでこれらの権限が必要です。このロールには、Storage オブジェクト閲覧者のロールによって付与されるすべての権限が含まれています。 | 
| Storage 管理者 | storage.buckets.*権限により、サービス アカウントはパイプラインの Feature Transform Engine のステップで Cloud Storage バケットを検証できます。このロールには、Storage オブジェクト管理者のロールによって付与されるすべての権限が含まれています。 | 
Dataflow ワーカーのサービス アカウント
パイプライン プロジェクトの Dataflow ワーカーのサービス アカウントに次のロールを付与します。
| ロール | 権限 | 
|---|---|
| Storage オブジェクト管理者 | このロールにより、サービス アカウントは Cloud Storage バケットにアクセスできます。データソースが Cloud Storage ファイルでない場合でも、サービス アカウントにはこれらの権限が必要です。 | 
| BigQuery ジョブユーザー | bigquery.jobs.createにより、サービス アカウントはパイプラインの Feature Transform Engine のステップを実行できます。データソースが BigQuery データセットでない場合でも、サービス アカウントにはこの権限が必要です。 | 
| Dataflow ワーカー | サービス アカウントには、このロールによって付与されるすべての権限が必要です。 | 
また、データソースの種類に基づいて次のロールを Dataflow ワーカー サービス アカウントに付与します。
| データソース | ロール | ロールを付与する場所 | 
|---|---|---|
| 標準の BigQuery テーブル | BigQuery データ編集者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | テーブルが属するプロジェクト | |
| 標準の BigQuery テーブルの BigQuery ビュー | BigQuery データ編集者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | ビューが属するプロジェクト | |
| BigQuery データ閲覧者 | テーブルが属するプロジェクト | |
| ソースの Cloud Storage ファイルを含む BigQuery 外部テーブル | BigQuery データ編集者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | 外部テーブルが属するプロジェクト | |
| Storage オブジェクト閲覧者 | ソースファイルが属するプロジェクト | |
| ソースの Cloud Storage ファイルを含む BigQuery 外部テーブルの BigQuery ビュー | BigQuery データ編集者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | ビューが属するプロジェクト | |
| BigQuery データ閲覧者 | 外部テーブルが属するプロジェクト | |
| Storage オブジェクト閲覧者 | ソースファイルが属するプロジェクト | |
| Cloud Storage ファイル | BigQuery データ閲覧者 | パイプラインを実行するプロジェクト | 
次の表に、これらのロールの説明を示します。
| ロール | 権限 | 
|---|---|
| BigQuery データ閲覧者 | bigquery.tables.getは、パイプラインの Feature Transform Engine ステップ内のデータセットに対するアクセス権を付与します。データソースが BigQuery データセットでない場合でも、サービス アカウントにはこの権限が必要です。 | 
| BigQuery データ編集者 | このロールにより、サービス アカウントはパイプラインの Feature Transform Engine のステップ中にテーブルをクエリし、一時テーブルを作成できます。このロールには、BigQuery データ閲覧者のロールによって付与されるすべての権限が含まれます。 | 
| Storage オブジェクト閲覧者 | storage.objects.getにより、サービス アカウントは Cloud Storage ファイルにアクセスできます。 | 
AI Platform サービス エージェント
パイプライン プロジェクトの AI Platform サービス エージェントに次のロールが付与されていることを確認します。
| ロール | 権限 | 
|---|---|
| Vertex AI サービス エージェント | このロールは、サービス エージェントに権限を付与します。これらの権限には、Artifact Registry リポジトリ内のコンテナ イメージに対する storage.object.get権限とアクセス権限が含まれます。 | 
ARIMA+ のサービス アカウント
このワークフローでは、次のサービス アカウントを使用します。
| サービス アカウント | 説明 | デフォルトのプリンシパル | デフォルトの名前 | オーバーライドできます | 
|---|---|---|---|---|
| Vertex AI Pipelines のサービス アカウント | パイプラインを実行するサービス アカウント | PROJECT_NUMBER-compute@developer.gserviceaccount.com | Compute Engine default service account | ○ | 
| AI Platform サービス エージェント | トレーニング コンテナを実行するサービス アカウント。 | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com | AI Platform Service Agent | × | 
Vertex AI Pipelines サービス アカウントは、任意のアカウントに変更できます。詳細については、ARIMA+ による予測をご覧ください。
Vertex AI Pipelines のサービス アカウント
パイプライン プロジェクトの Vertex AI Pipelines のサービス アカウントに次のロールを付与します。
| ロール | 権限 | 
|---|---|
| Vertex AI ユーザー | aiplatform.metadataStores.getにより、サービス アカウントはパイプライン ジョブを作成できます。aiplatform.models.uploadにより、サービス アカウントはモデルをアップロードできます。 | 
| BigQuery データ編集者 | bigquery.tables.createにより、サービス アカウントは Dataflow ジョブを起動する前に Feature Transform Engine の一時テーブルを作成できます。データソースが BigQuery データセットでない場合でも、サービス アカウントにはこの権限が必要です。このロールには、BigQuery データ閲覧者のロールによって付与されるすべての権限が含まれます。 | 
| BigQuery ジョブユーザー | bigquery.jobs.createにより、サービス アカウントは Dataflow ジョブを起動する前に Feature Transform Engine の BigQuery ジョブを実行できます。データソースが BigQuery データセットでない場合でも、サービス アカウントにはこの権限が必要です。 | 
| サービス アカウント ユーザー | iam.serviceAccounts.actAsにより、Vertex AI Pipelines サービス アカウントは評価中に Dataflow ワーカー サービス アカウントとして機能できます。 | 
| Dataflow デベロッパー | このロールは、Dataflow ジョブの実行に必要なリソースへのアクセス権を付与します。 | 
データソースの種類に基づいて次のロールを Vertex AI Pipelines サービス アカウントに追加で付与します。
| データソース | ロール | ロールを付与する場所 | 
|---|---|---|
| Cloud Storage ファイル | Storage 管理者 | ファイルが属するプロジェクト | 
| 標準の BigQuery テーブル | Storage オブジェクト管理者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | テーブルが属するプロジェクト | |
| 標準の BigQuery テーブルの BigQuery ビュー | Storage オブジェクト管理者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | ビューが属するプロジェクト | |
| BigQuery データ閲覧者 | テーブルが属するプロジェクト | |
| ソースの Cloud Storage ファイルを含む BigQuery 外部テーブル | Storage オブジェクト管理者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | 外部テーブルが属するプロジェクト | |
| Storage オブジェクト閲覧者 | ソースファイルが属するプロジェクト | |
| ソースの Cloud Storage ファイルを含む BigQuery 外部テーブルの BigQuery ビュー | Storage オブジェクト管理者 | パイプラインを実行するプロジェクト | 
| BigQuery データ閲覧者 | ビューが属するプロジェクト | |
| BigQuery データ閲覧者 | 外部テーブルが属するプロジェクト | |
| Storage オブジェクト閲覧者 | ソースファイルが属するプロジェクト | 
次の表に、これらのロールの説明を示します。
| BigQuery データ閲覧者 | bigquery.tables.getは、サービス アカウントにデータセットへのアクセス権を付与します。パイプラインの Feature Transform Engine のステップで Dataflow ジョブを起動する前に、サービス アカウントにこのアクセス権が必要です。 | 
| Storage オブジェクト閲覧者 | storage.objects.getにより、サービス アカウントはソースの Cloud Storage ファイルにアクセスできます。 | 
| Storage オブジェクト管理者 | storage.objects.get権限とstorage.objects.create権限により、サービス アカウントはパイプライン ジョブのルート ディレクトリのバケットにアクセスできます。データソースが Cloud Storage ファイルでない場合でも、サービス アカウントにはパイプライン プロジェクトでこれらの権限が必要です。このロールには、Storage オブジェクト閲覧者のロールによって付与されるすべての権限が含まれています。 | 
| Storage 管理者 | storage.buckets.*権限により、サービス アカウントはパイプラインの Feature Transform Engine のステップで Cloud Storage バケットを検証できます。このロールには、Storage オブジェクト管理者のロールによって付与されるすべての権限が含まれています。 | 
AI Platform サービス エージェント
パイプライン プロジェクトの AI Platform サービス エージェントに次のロールが付与されていることを確認します。
| ロール | 権限 | 
|---|---|
| Vertex AI サービス エージェント | このロールは、サービス エージェントに権限を付与します。これらの権限には、Artifact Registry リポジトリ内のコンテナ イメージに対する storage.object.get権限とアクセス権限が含まれます。 |