このページでは、 Google Cloud コンソール、Google Cloud CLI、Vertex AI SDK for Python、REST API で永続リソースのリストを取得する方法と、特定の永続リソースに関する情報を取得する方法について説明します。
必要なロール
永続的なリソース情報を取得するために必要な権限を取得するには、目的のプロジェクトに対する Vertex AI 閲覧者(roles/aiplatform.viewer)IAM ロールの付与を管理者に依頼してください。ロールの付与については、プロジェクト、フォルダ、組織に対するアクセス権の管理をご覧ください。
この事前定義ロールには、永続的なリソース情報を取得するために必要な権限が設定されています。必要とされる正確な権限については、「必要な権限」セクションを開いてご確認ください。
必要な権限
永続的なリソース情報を取得するには、次の権限が必要です。
-
aiplatform.persistentResources.get -
aiplatform.persistentResources.list
カスタムロールや他の事前定義ロールを使用して、これらの権限を取得することもできます。
永続リソースのリストを取得する
既存の永続リソースのリストを取得する手順については、次のいずれかのタブを選択してください。
コンソール
Google Cloud コンソールで永続リソースのリストを表示するには、[永続リソース] ページに移動します。
gcloud
後述のコマンドデータを使用する前に、次のように置き換えます。
- PROJECT_ID: 永続リソースのリストの取得対象となる Google Cloud プロジェクトのプロジェクト ID。
- LOCATION: 永続リソースを作成するリージョン。サポートされているリージョンの一覧については、利用できる機能をご覧ください。
次のコマンドを実行します。
Linux、macOS、Cloud Shell
gcloud ai persistent-resources list \ --project=PROJECT_ID \ --region=LOCATION
Windows(PowerShell)
gcloud ai persistent-resources list ` --project=PROJECT_ID ` --region=LOCATION
Windows(cmd.exe)
gcloud ai persistent-resources list ^ --project=PROJECT_ID ^ --region=LOCATION
次のようなレスポンスが返されます。
レスポンス
Using endpoint [https://us-central1-aiplatform.googleapis.com/]
---
createTime: '2023-09-12T20:45:33.220989Z'
displayName: test
name: projects/123456789012/locations/us-central1/persistentResources/test-persistent-resource
resourcePools:
- autoscalingSpec:
maxReplicaCount: '4'
minReplicaCount: '1'
diskSpec:
bootDiskSizeGb: 100
bootDiskType: pd-standard
id: n1-highmem-2-nvidia-tesla-t4-1
machineSpec:
acceleratorCount: 1
acceleratorType: NVIDIA_TESLA_T4
machineType: n1-highmem-2
replicaCount: '1'
startTime: '2023-09-12T20:50:36.992739253Z'
state: RUNNING
updateTime: '2023-09-12T20:50:42.813723Z'
---
createTime: '2023-09-12T20:37:21.691977Z'
displayName: my-persistent-resource
name: projects/123456789012/locations/us-central1/persistentResources/my-persistent-resource
resourcePools:
- autoscalingSpec:
maxReplicaCount: '12'
minReplicaCount: '4'
diskSpec:
bootDiskSizeGb: 200
bootDiskType: pd-standard
id: n1-highmem-2-nvidia-tesla-t4-1
machineSpec:
acceleratorCount: 1
acceleratorType: NVIDIA_TESLA_T4
machineType: n1-highmem-2
replicaCount: '4'
- diskSpec:
bootDiskSizeGb: 100
bootDiskType: pd-ssd
id: n1-standard-4
machineSpec:
machineType: n1-standard-4
replicaCount: '4'
startTime: '2023-09-12T20:42:46.495575169Z'
state: RUNNING
updateTime: '2023-09-12T20:42:51.519271Z'
Python
このサンプルを試す前に、Vertex AI クイックスタート: クライアント ライブラリの使用にある Python の設定手順を完了してください。詳細については、Vertex AI Python API のリファレンス ドキュメントをご覧ください。
Vertex AI に対する認証を行うには、アプリケーションのデフォルト認証情報を設定します。詳細については、ローカル開発環境の認証を設定するをご覧ください。
リスト内の各永続リソースのステータスは、数値で表されます。詳細については、Vertex AI SDK の状態定義をご覧ください。
from google.cloud.aiplatform.preview import persistent_resource # Optional arguments: # filter (str): An expression for filtering the results of the request. For # field names both snake_case and camelCase are supported. # order_by (str): A comma-separated list of fields to order by, sorted in # ascending order. Use "desc" after a field name for descending. Supported # fields: `display_name`, `create_time`, `update_time` # List the persistent resource on the project. resource_list = persistent_resource.PersistentResource.list() for i in range(len(resource_list)): print(resource_list[i].name) print(resource_list[i].state)
REST
リクエストのデータを使用する前に、次のように置き換えます。
- PROJECT_ID: 永続リソースのリストの取得対象となる Google Cloud プロジェクトのプロジェクト ID。
- LOCATION: 永続リソースを作成するリージョン。サポートされているリージョンの一覧については、利用できる機能をご覧ください。
HTTP メソッドと URL:
GET https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/persistentResources
リクエストを送信するには、次のいずれかのオプションを展開します。
次のような JSON レスポンスが返されます。
永続リソースに関する情報を取得する
永続リソースに関する情報(ステータス、ハードウェア構成、使用可能なレプリカなど)を取得する手順については、次のいずれかのタブを選択してください。
コンソール
Google Cloud コンソールで永続リソースに関する情報を表示するには、次の手順を行います。
Google Cloud コンソールで、[永続リソース] ページに移動します。
表示する永続リソースの名前をクリックします。
gcloud
後述のコマンドデータを使用する前に、次のように置き換えます。
- PROJECT_ID: 情報を取得する永続リソースのプロジェクト ID。
- LOCATION: 情報を取得する永続リソースのリージョン。
- PERSISTENT_RESOURCE_ID: 情報を取得する永続リソースの ID。
次のコマンドを実行します。
Linux、macOS、Cloud Shell
gcloud ai persistent-resources describe PERSISTENT_RESOURCE_ID \ --project=PROJECT_ID \ --region=LOCATION
Windows(PowerShell)
gcloud ai persistent-resources describe PERSISTENT_RESOURCE_ID ` --project=PROJECT_ID ` --region=LOCATION
Windows(cmd.exe)
gcloud ai persistent-resources describe PERSISTENT_RESOURCE_ID ^ --project=PROJECT_ID ^ --region=LOCATION
次のようなレスポンスが返されます。
レスポンス
Using endpoint [https://us-central1-aiplatform.googleapis.com/]
createTime: '2023-07-06T18:47:42.098296Z'
displayName: Test-Persistent-Resource
name: projects/123456789012/locations/us-central1/persistentResources/my-persistent-resource
resourcePools:
- diskSpec:
bootDiskSizeGb: 100
bootDiskType: pd-ssd
machineSpec:
machineType: n1-highmem-4
replicaCount: '4'
- diskSpec:
bootDiskSizeGb: 100
bootDiskType: pd-ssd
machineSpec:
acceleratorCount: 1
acceleratorType: NVIDIA_TESLA_P4
machineType: n1-standard-4
replicaCount: '4'
usedReplicaCOunt: '2'
startTime: '2023-07-06T18:51:53.209127117Z'
state: RUNNING
updateTime: '2023-07-06T18:52:01.545109Z'
Python
このサンプルを試す前に、Vertex AI クイックスタート: クライアント ライブラリの使用にある Python の設定手順を完了してください。詳細については、Vertex AI Python API のリファレンス ドキュメントをご覧ください。
Vertex AI に対する認証を行うには、アプリケーションのデフォルト認証情報を設定します。詳細については、ローカル開発環境の認証を設定するをご覧ください。
from google.cloud.aiplatform.preview import persistent_resource resource_to_get = persistent_resource.PersistentResource( PERSISTENT_RESOURCE_ID ) print(resource_to_get.display_name) print(resource_to_get.state) print(resource_to_get.start_time)
REST
リクエストのデータを使用する前に、次のように置き換えます。
- PROJECT_ID: 情報を取得する永続リソースのプロジェクト ID。
- LOCATION: 情報を取得する永続リソースのリージョン。
- PERSISTENT_RESOURCE_ID: 情報を取得する永続リソースの ID。
HTTP メソッドと URL:
GET https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/persistentResources/PERSISTENT_RESOURCE_ID
リクエストを送信するには、次のいずれかのオプションを展開します。
次のような JSON レスポンスが返されます。
{
"name": "projects/123456789012/locations/us-central1/persistentResources/test-persistent-resource",
"displayName": "test",
"resourcePools": [
{
"id": "n1-highmem-2-nvidia-tesla-t4-1",
"machineSpec": {
"machineType": "n1-highmem-2",
"acceleratorType": "NVIDIA_TESLA_T4",
"acceleratorCount": 1
},
"replicaCount": "1",
"diskSpec": {
"bootDiskType": "pd-standard",
"bootDiskSizeGb": 100
},
"autoscalingSpec": {
"minReplicaCount": "1",
"maxReplicaCount": "4"
}
}
],
"state": "RUNNING",
"createTime": "2023-09-12T20:45:33.220989Z",
"startTime": "2023-09-12T20:50:36.992739253Z",
"updateTime": "2023-09-12T20:50:42.813723Z"
}