說明文件新增內容
最新 Google Cloud 說明文件。
使用價值 $300 美元的免費抵免額,開始概念驗證
- 運用我們最新生成式 AI 模型和工具進行開發。
- 免費使用 Compute Engine 和 AI API 等 20 多項熱銷產品。
- 不會自動收費,也無需綁約
繼續探索 20 多項永久免費的產品
存取 20 多項常見用途的免費產品,包括 AI API、VM 和資料倉儲等。
指南
使用 GKE Remote MCP 伺服器與 GKE 和 Kubernetes API 互動
瞭解如何使用 GKE Remote MCP 伺服器,以程式輔助方式與 GKE 和 Kubernetes API 互動。這項伺服器提供結構化介面,供 AI 代理和自動化程序使用。
教學課程
使用 Run:ai Model Streamer 加快 GKE 中的 AI 模型載入速度
請按照本教學課程的指示,使用 Run:ai Model Streamer 與 vLLM 的整合功能,將大型 AI 模型直接串流至 GKE 的 GPU 記憶體,略過緩慢的磁碟下載作業。
指南
使用 dbt-bigquery 轉接程式搭配 BigQuery DataFrames
瞭解如何使用 dbt-bigquery 介面卡,執行 BigQuery DataFrames 中定義的 Python 程式碼。
總覽
BigLake 說明文件已發布
歡迎瀏覽 BigLake 全新獨立說明文件網站。瞭解 BigLake 如何整合 Google Cloud 和開放原始碼,建構開放式、代管式且高效能的 lakehouse,並內建治理機制。
總覽
為新使用者提供更完善的 Config Sync 說明文件
我們已重構 Config Sync 文件,協助新使用者入門,包括使用預設設定安裝 Config Sync 的新指南,以及自訂安裝和驗證的更新頁面。
教學課程
使用 vLLM,透過 GKE 和自行代管的 LLM 部署 AI 代理程式
使用 Google ADK 和 vLLM 提供的自架 Llama 3.1 模型,將以 Python 為基礎的代理程式部署至可供實際工作環境使用的 GKE Autopilot 叢集,並啟用 GPU 加速功能。
總覽
探索 Privileged Access Manager 進階層級功能
透過 Privileged Access Manager (PAM) 協助保護資源,這是公開測試計畫的進階層級功能。實作多層級核准、自訂授予範圍、使用服務帳戶核准等功能,以精細控管臨時存取權。
教學課程
AI 超級電腦的最新 AI/機器學習工作負載教學課程
探索 AI Hypercomputer 上 AI/機器學習工作負載的新教學課程,包括:
在 GKE 上使用 vLLM 執行 Llama 4 或 Qwen3 推論作業、在 A4 GKE 叢集上微調 Gemma 3、在 GKE 上使用 Ray 微調 Gemma 3 以執行視覺工作,以及在 A4 Slurm 叢集上訓練 Qwen2。
總覽
使用 GDC 連線 API 在網路上執行 Gemini
透過 Google Distributed Cloud connected API 上的 Gemini,在連上本機網路的自有硬體上部署 Gemini 模型。這項功能為公開預先發布版。
總覽
Google Distributed Cloud connected 1.11.0 說明文件
如要查看 Google Distributed Cloud connected 1.11.0 版的最新產品說明文件,請按一下
這裡。
總覽
在 AI 超級電腦中,使用 NCCL/gIB 最佳化叢集網路
NCCL/gIB 是 Google 針對 GPU 對 GPU 通訊基本元素,所推出的 NVIDIA 集體通訊程式庫 (NCCL) 強化版。
總覽
使用 Cloud Run 和新式 Python 架構
Cloud Run 現在支援 FastAPI、Gradio 和 Streamlit 等熱門 Python 網頁架構,讓您比以往更輕鬆地部署現代工作負載。
總覽
Google Distributed Cloud connected 1.10.0 說明文件
如要查看 Google Distributed Cloud connected 1.10.0 版的最新產品說明文件,請按一下
這裡。
指南
GKE Inference Quickstart 工具實作指南
透過 GKE 推論快速入門工具,部署可用於正式環境的 AI。本指南著重於效能和成本分析,詳細說明成本計算、gcloud CLI 指令和效能最佳化。
總覽
GKE 推出整合式 AI/機器學習說明文件,整合 Ray on GKE
GKE 現在提供統一的 AI/機器學習工作負載說明文件套件,根據推論和訓練等使用者工作流程整理內容,並完全整合 GKE 上的 Ray 說明文件。
總覽
瞭解搭載 NVIDIA GB200 Superchip 的 A4X VM,適用於百億級 AI
Google Cloud 的 A4X VM 採用 NVIDIA GB200 Superchip 和多節點 NVLink,可提供高達 72 個 GPU 的百億級運算,適用於大規模 AI 和 HPC 工作負載。
教學課程
在 Google Kubernetes Engine 上部署開放式 LLM
透過這項全新的 Terraform 教學課程,使用預先設定的正式版參考架構,在 GKE 上提供熱門的開放式 LLM,以進行推論。
指南
Google Cloud 應用程式中心生態系統的入口網站
剛開始接觸以應用程式為中心的世界嗎?瞭解 App Hub、Application Design Center 和 Cloud Hub 如何協助您在 Google Cloud 上管理、設計及運作應用程式。
資料表
使用這份功能比較矩陣,選擇合適的 Looker 版本
決定適合您的 Looker 版本。這份完整矩陣比較了 Looker (Google Cloud Core)、Looker (原始版本) 和客戶代管部署作業的功能。
最新的 Google Cloud 網誌
更多最新消息和資源
Cloud 產品版本資訊
Google Cloud 產品的最新異動。
架構中心的新功能
Google Cloud的最新最佳做法和參考架構。
社群討論
加入社群,向在 Google Cloud上開發、部署及運作的開發人員學習。