文档更新内容
Google Cloud 文档的最新信息。
获享 $300 免费赠金开始概念验证
- 使用我们最新的生成式 AI 模型和工具进行开发。
- 免费使用 20 多款热门产品,包括 Compute Engine 和 AI API。
- 不会自动收费,无需任何承诺。
继续探索 20 多款提供“始终免费”用量的产品。
使用适用于常见应用场景(包括 AI API、虚拟机、数据仓库等)的 20 多种免费产品。
概览
BigLake 文档发布
探索全新的 BigLake 独立文档网站。了解 BigLake 如何将 Google Cloud 与开源技术相结合,构建具有内置治理功能的开放式、托管式且高性能的湖仓一体架构。
概览
将 Gemma 模型与 ABAP SDK 1.12 集成
ABAP SDK for Google Cloud 的 1.12 版新增了对 Gemma 模型 的支持,并让开发者能够更好地控制 AI 行为。
概览
针对新用户改进了 Config Sync 文档
我们重构了 Config Sync 文档,以帮助新用户,包括新增了使用默认设置安装 Config Sync 的指南,并更新了自定义安装和身份验证的相关页面。
教程
使用 vLLM 通过 GKE 和自托管 LLM 部署 AI 代理
使用 Google ADK 和由 vLLM 提供的自托管 Llama 3.1 模型,将基于 Python 的代理部署到已准备好投入生产的 GKE Autopilot 集群(具有 GPU 加速功能)。
概览
探索 Privileged Access Manager 高级版功能
在公开预览版中,您可以使用 Privileged Access Manager (PAM) 高级版功能来帮助保护您的资源。实现多级审批、自定义授权范围、利用服务账号审批等功能,以实现精细的临时访问权限控制。
教程
AI Hypercomputer 的最新 AI/机器学习工作负载教程
探索 AI Hypercomputer 上 AI/机器学习工作负载的新教程,包括:在 GKE 上使用 vLLM 通过 Llama 4 或 Qwen3 运行推理、在 A4 GKE 集群上微调 Gemma 3、使用 Ray 在 GKE 上微调 Gemma 3 以执行视觉任务,以及在 A4 Slurm 集群上训练 Qwen2。
概览
使用 GDC 连接的 API 在您的网络上运行 Gemini
通过 Gemini on Google Distributed Cloud Connected API 在连接到本地网络的自有硬件上部署 Gemini 模型。此功能目前为公开预览版。
概览
Google Distributed Cloud connected 1.11.0 文档
访问 Google Distributed Cloud Connected 1.11.0 版本的最新产品文档。
概览
在 AI Hypercomputer 中使用 NCCL/gIB 优化集群网络
NCCL/gIB 是 Google 针对 GPU 到 GPU 通信原语的 NVIDIA Collective Communications Library (NCCL) 增强版。
指南
通过监控信息中心快速了解 Cloud CDN 系统运行状况
无需自定义配置,即可更深入地了解缓存性能,并清晰地概览核心 Cloud CDN 指标。信息中心默认处于启用状态,可让您快速了解系统运行状况
概览
将 Cloud Run 与新式 Python 框架搭配使用
Cloud Run 现在支持 FastAPI、Gradio 和 Streamlit 等热门 Python Web 框架,让您可以比以往更轻松地部署现代工作负载。
概览
Google Distributed Cloud connected 1.10.0 文档
访问 Google Distributed Cloud connected 1.10.0 版的最新产品文档。
指南
GKE Inference Quickstart 工具实践指南
使用 GKE 推理快速入门工具部署可用于生产用途的 AI。本指南侧重于效果和费用分析,详细介绍了费用计算、gcloud CLI 命令和效果优化。
概览
GKE 发布了统一的 AI/机器学习文档,集成了 GKE 上的 Ray
GKE 现在提供一套统一的 AI/机器学习工作负载文档,围绕推理和训练等用户工作流整理内容,并完全集成 Ray on GKE 的文档。
概览
了解搭载 NVIDIA GB200 超级芯片的 A4X 虚拟机,实现艾级 AI
Google Cloud 上的 A4X 虚拟机使用 NVIDIA GB200 超级芯片和多节点 NVLink,可提供艾级计算能力,最多可使用 72 个 GPU 来处理大规模 AI 和 HPC 工作负载。
教程
在 Google Kubernetes Engine 上部署开放 LLM
通过这篇新的 Terraform 教程,使用预配置的、可用于生产环境的参考架构,在 GKE 上部署热门的开放 LLM 以进行推理。
指南
Google Cloud 以应用为中心的生态系统的入口
刚开始接触以应用为中心的世界?了解 App Hub、Application Design Center 和 Cloud Hub 如何帮助您在 Google Cloud 上管理、设计和运行应用。
表
借助此功能比较矩阵选择合适的 Looker 版本
确定适合您的 Looker 版本。此综合矩阵比较了 Looker (Google Cloud Core)、Looker(原始版本)和客户托管部署之间的功能差异。
最新的 Google Cloud 博客
更多更新和资源
Cloud 产品版本说明
Google Cloud 产品的最新变化。
架构中心的新变化
Google Cloud的最新最佳实践和参考架构。
社区讨论
加入社区,向在 Google Cloud上开发、部署和运营的同行学习。