Vertex AI 是一个统一的开放平台,用于构建、部署和扩缩生成式 AI 和机器学习 (ML) 模型以及 AI 应用。它可让您访问 Model Garden,其中包含 200 多个精选模型,包括 Google 的基础模型(例如 Gemini)以及各种合作伙伴模型和开放模型,还有底层 TPU/GPU 基础设施。Vertex AI 不仅支持先进的生成式 AI 工作流,还支持 MLOps 的 AI 推理工作流。它提供端到端的 MLOps 工具和企业级控制功能,以实现治理、安全和合规性。
Vertex AI 的主要功能
Vertex AI 包含支持生成式 AI 以及 AI 推理和机器学习工作流的工具和服务。
生成式 AI 功能
Vertex AI 将全面的工具集与 Google 先进的基础模型工具相结合,可用于构建适用于生产环境的生成式 AI 代理和应用,如下所示:
提示:首先在 Vertex AI Studio 中进行提示设计。 Vertex AI Studio 包含用于提示设计和模型管理的工具,您可以使用这些工具来设计原型、构建和部署生成式 AI 应用。
模型:Vertex AI Model Garden 是一个集中式枢纽,其中包含 200 多个企业就绪型模型,这些模型来自 Google、领先的第三方合作伙伴(例如 Anthropic 的 Claude)和热门的开源选项(例如 Llama)。
所选模型包括:
Google 的基础生成式 AI 模型:
- Gemini:支持文本、图片、视频和音频的多模态功能;以及模型思维能力,例如 Gemini 3 Flash 和 Gemini 3 Pro(搭配 Nano Banana)。
- Imagen on Vertex AI:生成和修改图片。
- Veo on Vertex AI:根据文本和图片生成视频。
合作伙伴模型和开源模型:精选了 Anthropic 的 Claude、Mistral AI 模型和 Llama 等领先模型,具有出色的性价比。这些模型以全托管式模型即服务 (MaaS) API 的形式提供。
模型自定义:根据您的业务量身定制模型,打造独特的 AI 资产。这包括以企业数据或 Google 搜索为基础来减少幻觉,以及使用 Vertex AI Training 对 Gemini 等模型进行监督式微调 (SFT) 或参数高效微调 (PEFT)。如需详细了解模型自定义,请参阅调优简介。
生成式 AI 评估:借助 Vertex AI GenAI Evaluation 功能,客观地评估和比较模型及代理的性能。 部署 Model Armor 等运行时防御功能,主动检查并防范提示注入和数据渗漏等新兴威胁,确保安全性和合规性。
代理构建器:Vertex AI Agent Builder 是一种全栈代理转换系统,可帮助您创建、管理和部署 AI 代理。使用开源智能体开发套件 (ADK) 构建和编排代理,然后将它们部署到托管式无服务器 Vertex AI Agent Engine,以便在生产环境中大规模使用。每个代理都会分配一个代理身份(Identity and Access Management 主账号),以确保安全性和清晰的审核轨迹。
访问外部信息:通过以下方式增强模型回答:利用接地连接到可靠的来源,使用函数调用与外部 API 互动,以及使用 RAG 从知识库中检索信息。
Responsible AI 和安全:使用内置的安全功能来屏蔽有害内容,确保符合 Responsible AI 用法。
如需详细了解 Vertex AI 上的生成式 AI,请参阅 Vertex AI 上的生成式 AI 文档。
AI 推理功能
Vertex AI 提供的工具和服务可对应于机器学习工作流的每个阶段:
数据准备:收集、清理和转换数据。
- 使用 Vertex AI Workbench 笔记本执行探索性数据分析 (EDA)。
- 与 Cloud Storage 和 BigQuery 集成,以实现数据访问。
- 使用 Dataproc Serverless Spark 进行大规模数据处理。
模型训练:训练机器学习模型。
- 您可以选择 AutoML 进行无代码训练,也可以选择自定义训练来完全掌控训练过程。
- 使用 Vertex AI Experiments 管理和比较训练。
- 在 Vertex AI Model Registry 中注册经过训练的模型。
- Vertex AI Training 提供无服务器训练和训练集群。
- 使用 Vertex AI 无服务器训练在全托管式环境中按需运行自定义训练代码。请参阅 [Vertex AI 无服务器训练概览][无服务器]。
- 对于需要在专用预留加速器集群上确保容量的大型作业,请使用 Vertex AI 训练集群。请参阅 Vertex AI 训练集群概览。
- 使用 Ray on Vertex AI,通过托管式交互集群中的开源 Ray 框架扩缩 Python 和机器学习工作负载。请参阅 Ray on Vertex AI 概览。
- 使用 Vertex AI Vizier 调整复杂机器学习模型中的模型超参数。
模型评估和迭代:评估和提升模型性能。
- 使用模型评估指标来比较模型。
- 将评估集成到 Vertex AI Pipelines 工作流中。
模型部署:部署模型并获取推理结果。
- 使用预构建容器或自定义容器部署以进行在线推理。
- 针对大型数据集执行批量推理。
- 使用经过优化的 TensorFlow 运行时可实现高效的 TensorFlow Serving。
- 使用 Vertex Explainable AI 了解模型推理。
- 从 Vertex AI Feature Store 传送特征。
- 部署使用 BigQuery ML 训练的模型。
模型监控:跟踪已部署模型随时间变化的性能。
- 使用 Vertex AI Model Monitoring 检测训练-应用偏差和推理偏移。
MLOps 工具
自动执行、管理和监控机器学习项目:
- Vertex AI Pipelines:将机器学习工作流编排和自动化为可重复使用的流水线。
- Vertex AI Model Registry:管理机器学习模型的生命周期,包括版本控制和部署。
- Vertex AI 无服务器训练:在全托管式环境中按需运行自定义训练代码
- Vertex AI Model Monitoring:监控已部署的模型是否存在数据倾斜和漂移,以维持性能。
- Vertex AI Experiments:跟踪和分析不同的模型架构和超参数。
- Vertex AI Feature Store]:管理和提供特征数据,用于训练模型或进行实时预测。
- Vertex ML Metadata:跟踪和管理机器学习制品的元数据。
- Vertex AI 训练集群:在专用、预留的加速器集群上训练需要有保障容量的大规模作业。
- Ray on Vertex AI:使用托管式交互集群中的开源 Ray 框架扩缩 Python 和机器学习工作负载。
后续步骤
- 深入了解 Vertex AI 上的生成式 AI。
- 了解 Vertex AI 的 MLOps 功能。
- 探索可用于与 Vertex AI 交互的接口。