このページでは、オンライン予測モデルとそれに関連付けられているすべてのリソースを削除するプロセスについて説明します。
始める前に
オンライン予測にアクセスするために必要な権限を取得するには、プロジェクト IAM 管理者に Vertex AI 予測ユーザー(vertex-ai-prediction-user)ロールの付与を依頼してください。
このロールの詳細については、IAM 権限を準備するをご覧ください。
また、バケット内のオブジェクトの削除に必要な権限を取得するには、プロジェクトに対するプロジェクト バケット オブジェクト管理者(project-bucket-object-admin)ロールを付与するようプロジェクト IAM 管理者に依頼してください。
リソースの削除
オンライン予測モデルとそれに関連付けられているすべてのリソースを削除する場合は、次の手順を行います。
予測クラスタでモデルに関連付けられている
DeployedModelカスタム リソースを削除します。kubectl --kubeconfig PREDICTION_CLUSTER_KUBECONFIG delete -f DEPLOYED_MODEL_NAME.yaml次のように置き換えます。
PREDICTION_CLUSTER_KUBECONFIG: 予測クラスタの kubeconfig ファイルのパス。DEPLOYED_MODEL_NAME:DeployedModel定義ファイルの名前。
次のいずれかの方法で
Endpointカスタム リソースを編集します。DeployedModelが使用するエンドポイントで他のモデルがホストされていない場合は、予測クラスタでEndpointカスタム リソースを削除します。kubectl --kubeconfig PREDICTION_CLUSTER_KUBECONFIG delete -f ENDPOINT_NAME.yamlENDPOINT_NAMEは、Endpoint定義ファイルの名前に置き換えます。DeployedModelが使用するエンドポイントが他のモデルをホストしている場合は、次の操作を行います。予測クラスタの
Endpointカスタム リソースを更新します。kubectl --kubeconfig PREDICTION_CLUSTER_KUBECONFIG edit -f ENDPOINT_NAME.yamlENDPOINT_NAMEは、Endpoint定義ファイルの名前に置き換えます。YAML ファイルで、以前に削除した
DeployedModel参照を含むserviceRefオブジェクトを手動で削除します。YAML ファイルの変更を保存します。
ストレージ バケットからモデルを削除します。ストレージ バケットからオブジェクトを削除する方法については、プロジェクト内のストレージ オブジェクトを削除するをご覧ください。