本文說明如何使用 AI AutoMetrics 監控 Vertex AI 上的 AI 工作負載。
AI AutoMetrics 可讓您以最少的設定,監控模型的效能和健康狀態。這項功能旨在提供即時洞察資料,協助您瞭解在 Vertex AI Inference 上執行的自訂容器和模型。
事前準備
- 請確認您有Vertex AI 端點,且已部署模型使用支援架構的容器。
- 確認專案已啟用 Cloud Monitoring。詳情請參閱「啟用 Monitoring API」。
使用 AI 自動指標
如要在 Metrics Explorer 中查看 AI AutoMetrics,請按照下列步驟操作:
前往 Google Cloud 控制台的「Metrics Explorer」頁面。
在「選取指標」下方,選取「Prometheus 目標」。
在「使用中的指標類別」下方,選取「Vertex」。
在「有效指標」下方,選取所需指標。
按一下「套用」。
您也可以使用 Grafana,或 Prometheus API 或 UI 查詢指標。
支援的架構
AI AutoMetrics 支援下列架構:
| 架構 | 符合資格的端點 | 符合資格的指標 |
|---|---|---|
| vLLM | 與 Prometheus 相容的 /metrics 端點 |
前置字串為 vllm: 的指標 |
運作方式
Vertex AI 會以預先定義的時間間隔,自動擷取容器的 /metrics 端點。所有符合資格的指標都會匯出至Google Cloud Google Cloud Managed Service for Prometheus,方便您分析及視覺化呈現這些指標。
指標命名和標籤
AI AutoMetrics 收集的指標會以 vertex_* 命名慣例,擷取至 Cloud Monitoring。
為方便篩選和分組,AI AutoMetrics 會自動為每個指標附加下列額外 Vertex AI 標籤:
deployed_model_id:已部署模型的 ID,用於處理推論要求。model_display_name:已部署模型的顯示名稱。replica_id:對應已部署模型副本的專屬 ID (Pod 名稱)。endpoint_id:模型端點的 ID。endpoint_display_name:模型端點的顯示名稱。- :Vertex AI 底下的功能名稱。
product一律為「線上推論」。
後續步驟
- 進一步瞭解 Metrics Explorer。