文档更新内容

Google Cloud 文档的最新信息。

  • 使用我们最新的生成式 AI 模型和工具进行开发。
  • 免费使用 20 多款热门产品,包括 Compute Engine 和 AI API。
  • 不会自动收费,无需任何承诺。

继续探索 20 多款提供“始终免费”用量的产品。

使用适用于常见应用场景(包括 AI API、虚拟机、数据仓库等)的 20 多种免费产品。

概览
探索全新的 BigLake 独立文档网站。了解 BigLake 如何将 Google Cloud 与开源技术相结合,构建具有内置治理功能的开放式、托管式且高性能的湖仓一体架构。
概览
ABAP SDK for Google Cloud 的 1.12 版新增了对 Gemma 模型 的支持,并让开发者能够更好地控制 AI 行为。
指南
了解如何使用新的自助式探索功能(现已进入公开预览版)上传数据文件(CSV、XLS、XLSX),并立即创建探索,而无需使用 LookML。
概览
对话分析文档已拆分为 Looker 和 Looker Studio 各自的专用文档集。
指南
对于内部直通式网络负载均衡器,您现在可以为会话亲和性与连接跟踪模式设置的所有组合配置最低 60 秒的空闲超时时间。
指南
为了进一步增强安全性和控制力,您现在可以使用查询模板来预定义和限制可在数据净室中运行的查询。
指南
现在,您可以直接将表和视图作为任务添加到 BigQuery 流水线中,以构建更高效的数据驱动型工作流。此功能处于预览阶段。
概览
我们重构了 Config Sync 文档,以帮助新用户,包括新增了使用默认设置安装 Config Sync 的指南,并更新了自定义安装和身份验证的相关页面。
教程
使用 Google ADK 和由 vLLM 提供的自托管 Llama 3.1 模型,将基于 Python 的代理部署到已准备好投入生产的 GKE Autopilot 集群(具有 GPU 加速功能)。
概览
灵活启动虚拟机最多可运行 7 天,有助于您以折扣价获取 GPU 等高需求资源,以用于短时工作负载。
概览
在公开预览版中,您可以使用 Privileged Access Manager (PAM) 高级版功能来帮助保护您的资源。实现多级审批、自定义授权范围、利用服务账号审批等功能,以实现精细的临时访问权限控制。
指南
这是一份综合性指南,旨在帮助您使用 Google Cloud 设计、部署和管理证书。
概览
通过使用出站 HTTP (S) 消息中的网域和服务器名称指示(SNI) 信息来屏蔽或允许网址,从而控制对网站和网页的访问权限。
教程
创建和配置提供方和使用方资源,以设置网络安全集成的带外集成,从而检查和监控数据。
指南
我们新增了四棵决策树,可针对常见的 Looker 支持问题提供清晰的指导,帮助客户自行解决问题。
指南
根据您的工作负载环境、安全连接需求和网络拓扑,选择连接到 AlloyDB 的最佳方法。
教程
探索 AI Hypercomputer 上 AI/机器学习工作负载的新教程,包括:在 GKE 上使用 vLLM 通过 Llama 4 或 Qwen3 运行推理、在 A4 GKE 集群上微调 Gemma 3、使用 Ray 在 GKE 上微调 Gemma 3 以执行视觉任务,以及在 A4 Slurm 集群上训练 Qwen2。
概览
作为快速初始配置的一部分,新 Google Cloud 客户在注册后,系统现在会自动为其创建独立组织,从而简化初始配置流程。
概览
通过 Gemini on Google Distributed Cloud Connected API 在连接到本地网络的自有硬件上部署 Gemini 模型。此功能目前为公开预览版。
概览
访问 Google Distributed Cloud Connected 1.11.0 版本的最新产品文档。
指南
现在,您可以在 BigQuery Studio 的交互式地图上直观呈现地理空间查询结果。
概览
定义一个 IP 地址的中央列表,可在高级别规则中使用该列表,以便为整个组织提供一致的控制,并减少网络和项目所有者的开销。
概览
通过将所有技术内容迁移到一个专用平台,我们创建了一个统一的基础平台,可更轻松地构建新一代 AI 驱动的体验。
概览
NCCL/gIB 是 Google 针对 GPU 到 GPU 通信原语的 NVIDIA Collective Communications Library (NCCL) 增强版。
指南
本指南涵盖了客户端和服务器端因素,并包含一个流程图,可帮助您直观了解问题排查流程。
指南
无需自定义配置,即可更深入地了解缓存性能,并清晰地概览核心 Cloud CDN 指标。信息中心默认处于启用状态,可让您快速了解系统运行状况
指南
您现在可以在 BigQuery 流水线配置中启用自动选择处理位置的功能。
概览
Cloud Run 现在支持 FastAPI、Gradio 和 Streamlit 等热门 Python Web 框架,让您可以比以往更轻松地部署现代工作负载。
概览
访问 Google Distributed Cloud connected 1.10.0 版的最新产品文档。
指南
使用 GKE 推理快速入门工具部署可用于生产用途的 AI。本指南侧重于效果和费用分析,详细介绍了费用计算、gcloud CLI 命令和效果优化。
概览
AlloyDB Omni 产品文档现在针对每个部署环境提供单独的文档,让您更轻松地遵循工作流程。
概览
GKE 现在提供一套统一的 AI/机器学习工作负载文档,围绕推理和训练等用户工作流整理内容,并完全集成 Ray on GKE 的文档。
概览
Google Cloud 上的 A4X 虚拟机使用 NVIDIA GB200 超级芯片和多节点 NVLink,可提供艾级计算能力,最多可使用 72 个 GPU 来处理大规模 AI 和 HPC 工作负载。
指南
在 BigQuery Sharing 中,为共享数据集和关联的数据集副本配置多个区域的清单。此功能处于预览阶段。
概览
将向量搜索、AI 查询引擎和自然语言引入运维数据,更快地构建企业级 AI 应用,并降低复杂性。
教程
通过这篇新的 Terraform 教程,使用预配置的、可用于生产环境的参考架构,在 GKE 上部署热门的开放 LLM 以进行推理。
教程
加快应用开发速度,部署直观的聊天体验,让客户能够使用自然语言询问有关其关系数据的问题。
指南
刚开始接触以应用为中心的世界?了解 App Hub、Application Design Center 和 Cloud Hub 如何帮助您在 Google Cloud 上管理、设计和运行应用。
确定适合您的 Looker 版本。此综合矩阵比较了 Looker (Google Cloud Core)、Looker(原始版本)和客户托管部署之间的功能差异。

最新的 Google Cloud 博客

更多更新和资源

Google Cloud 产品的最新变化。
Google Cloud的最新最佳实践和参考架构。
加入社区,向在 Google Cloud上开发、部署和运营的同行学习。