本頁面提供精選資源清單,協助您在 Cloud Run 上建構及部署 AI 解決方案。
Cloud Run 是全代管應用程式平台,可讓您在 Google 高擴充性的基礎架構上執行程式碼、函式或容器。您可以使用 Cloud Run 執行各種 AI 解決方案,例如 AI 推論端點、生成模型 API、完整的檢索增強生成 (RAG) 管道等。
請使用下列類別和連結,瀏覽官方指南、快速入門導覽課程和實用的社群內容。如需 Cloud Run 說明文件和建議,請參閱「在 Cloud Run 上探索 AI 解決方案」。
社群資源注意事項
標示為「社群」的內容是從開發人員社群選取的資源,並非由 Google 開發或維護。使用這些資源時,請注意以下事項:
- 安全稽核:請務必仔細檢查所有程式碼,特別是處理私人資訊、使用者輸入內容和網路存取權的方式。
- 淘汰和更新:如果沒有警告,社群程式碼可能會過時,或無法搭配新的 Cloud Run 功能或 AI 版本運作。檢查上次更新日期,以及是否仍有專人維護。
- 成本效益:雖然這些設定通常以低成本為目標,但可能不符合 Google 的最佳做法,無法在實際專案中節省費用。密切監控帳單。
- 授權合規性:請務必瞭解並遵守您新增至應用程式的任何社群程式碼或程式庫的開放原始碼授權。
- 部署前先測試:驗證所有重要設定,並在測試環境中試用社群解決方案,確認沒問題後再用於實際專案。
依類別或關鍵字篩選
使用篩選器或搜尋框,依類別或關鍵字尋找內容。
| 類別 | 標題和說明 | 發布日期 |
|---|---|---|
|
網誌
Gemma 3
|
這篇網誌文章宣布推出兩個程式碼研究室,說明開發人員如何使用 Cloud Run (無伺服器方法) 或 Google Kubernetes Engine (GKE) (平台方法),在 Google Cloud 上部署 Gemma 3。 |
2025-11-17 |
|
網誌
工具
|
輕鬆自動化 AI 工作流程:在 Cloud Run 上部署 n8n 這篇網誌文章說明如何使用 Cloud Run 上的 n8n 工作流程自動化工具部署代理程式,建立 AI 輔助工作流程,並與 Google Workspace 等工具整合。 |
2025-11-07 |
|
網誌
擴充功能
Gemini
|
使用全新 Gemini CLI 擴充功能,自動部署應用程式及分析安全性 這篇網誌文章宣布推出 Gemini CLI 中的 Cloud Run 擴充功能,只要使用單一 /deploy 指令,即可簡化應用程式部署作業。 |
2025-09-10 |
|
網誌
擴充功能
Gemini
|
從本機託管到正式發布:使用 Cloud Run 和 Docker Compose 簡化 AI 應用程式部署作業 這篇網誌文章宣布 Google Cloud 與 Docker 攜手合作,讓開發人員使用 gcloud run compose up 指令,直接將 compose.yaml 檔案部署至 Cloud Run,簡化複雜 AI 應用程式的部署作業。 |
2025-07-10 |
|
網誌
MCP
|
在 10 分鐘內建構遠端 MCP 伺服器,並部署至 Google Cloud Run 這篇網誌文章提供逐步指南,說明如何使用 FastMCP 在 Google Cloud Run 上建構及部署安全的遠端 Model Context Protocol (MCP) 伺服器,並在本機用戶端進行測試,整個過程不到 10 分鐘。 |
2025-06-07 |
|
代理程式
AI Studio
網誌
MCP
|
輕鬆部署 AI:從 AI Studio 或與 MCP 相容的 AI 代理,將應用程式部署至 Cloud Run 這篇網誌文章介紹如何簡化 AI 部署作業,包括從 AI Studio 一鍵部署至 Cloud Run、直接部署 Gemma 3 模型,以及使用 MCP 伺服器進行以代理程式為基礎的部署作業。 |
2025-05-20 |
|
代理程式
網誌
用途
|
合併速度提升 50%,錯誤減少 50%:瞭解 CodeRabbit 如何運用 Google Cloud Run 建構 AI 程式碼審查代理 本文說明 AI 程式碼審查工具 CodeRabbit 如何運用 Cloud Run 建構可擴充且安全的平台,執行不受信任的程式碼,最終將程式碼審查時間和錯誤減少一半。 |
2025-04-22 |
|
網誌
Vertex AI
|
使用 Vertex AI 和 Cloud Run,在 60 秒內建立可共用的生成式 AI 應用程式 本文將介紹 Vertex AI 的一項功能,讓您只要按一下滑鼠,即可將網頁應用程式部署到 Cloud Run。使用生成式 AI 提示,簡化將生成式 AI 概念轉化為可共用原型的流程。 |
2025-02-20 |
|
網誌
部署
|
如何在 Cloud Run 上使用 Gemma 3 部署無伺服器 AI 這篇網誌文章宣布推出輕量級開放式 AI 模型系列 Gemma 3,並說明如何在 Cloud Run 上部署這些模型,打造具備擴充彈性且經濟實惠的無伺服器 AI 應用程式。 |
2025-03-12 |
|
網誌
GPU
推論
RAG
Vertex AI
|
運用 Cloud Run 和 Vertex AI 打造推論即服務 這篇網誌文章說明開發人員如何在 Cloud Run 上採用「推論即服務」模型,加快生成式 AI 應用程式的開發速度。這項服務支援 GPU,可讓您代管及擴充 LLM,並將其與檢索增強生成 (RAG) 技術整合,產生符合情境的回覆。 |
2025-02-20 |
|
架構
RAG
Vertex AI
|
使用 Vertex AI 和 Vector Search 建構生成式 AI 的 RAG 基礎架構 本文介紹在 Google Cloud 上建構檢索增強生成 (RAG) 生成式 AI 應用程式的參考架構,並說明如何運用 Vector Search 大規模比對相似度,以及使用 Vertex AI 管理嵌入項目和模型。 |
2025-03-07 |
|
代理程式
Antigravity
影片
|
停止編碼,開始架構:Google Antigravity + Cloud Run 這部影片介紹 Google 的代理程式 IDE「Antigravity」。您可以使用這項工具從頭開始建構全端應用程式,並部署至 Cloud Run。觀看這部影片,瞭解如何為 AI 編寫規格表、強制使用新版 Node.js (無建構步驟!),以及在部署期間觸及設定檔時,自主偵錯連接埠不符的問題。 |
2025-12-08 |
|
代理程式
GPU
Ollama
影片
|
這個 AI 代理程式在 Cloud Run + NVIDIA GPU 上執行 這部影片說明如何在無伺服器 NVIDIA GPU 上建構真正的 AI 代理程式應用程式。觀看智慧健康代理程式的示範,瞭解如何透過 Cloud Run 上的 Ollama,搭配 Gemma 等開放原始碼模型,以及 LangGraph 建構多代理程式工作流程 (RAG + 工具)。 |
2025-11-13 |
|
MCP
影片
|
在 Google Cloud Run 上使用 MCP 工具,為 AI 代理程式提供支援 這部影片介紹了 MCP (模型上下文協定),以及如何協助 AI 代理程式開發人員輕鬆工作。逐步瞭解如何使用 FastMCP 建構 MCP 伺服器,以及如何在 Cloud Run 部署 ADK 代理。瞭解程式碼如何使用 Cloud Run 內建的 OIDC 權杖,處理服務對服務的驗證。 |
2025-11-06 |
|
Model Armor
安全性
影片
|
我們試圖突破 AI 的防禦機制 (但 Model Armor 擋下了) 這部影片會示範如何使用 Google 的 Model Armor,透過 API 呼叫封鎖威脅。 |
2025-10-30 |
|
基準化
Vertex AI
影片
|
這部影片說明如何使用 Vertex AI 和 Google Cloud 工具,建構可靠的生成式 AI 應用程式。開發人員將瞭解如何使用 Google Cloud 工具快速製作原型、透過資料驅動的基準化取得具體數字,以及最終建構自動化 CI/CD 管道,實現真正的品質控管,同時避免常見的陷阱。 |
2025-10-23 |
|
ADK
多代理程式
影片
|
這部影片說明如何使用 Google 的 ADK (代理程式開發工具包) 建構應用程式,協助您修飾內容及與他人協作。瞭解有狀態多重代理程式如何比單一代理程式更有效率。 |
2025-10-16 |
|
Gemini
影片
|
這部影片說明如何使用 Gemini 2.5 Pro 建構應用程式,觀看及解讀 YouTube 影片。使用智慧提示自訂應用程式的輸出內容,包括網誌文章、摘要、測驗等。這部影片說明如何整合 Gemini,從影片輸入內容生成文字內容和標題圖片、討論成本考量,以及說明如何透過批次要求處理較長的影片。 |
2025-10-06 |
|
GenAI
影片
|
這部影片會逐步說明架構和程式碼,並在每個步驟中運用 AI 輔助。 |
2025-07-17 |
|
代理程式
Firebase
影片
|
使用 Cloud Run 和 Firebase Genkit 建構 AI 代理 這部影片說明如何使用 Cloud Run 和 Firebase Genkit (無伺服器 AI 代理建構工具) 建構 AI 代理。 |
2025-07-10 |
|
AI Studio
Firebase
Gemini
LLM
影片
|
這部影片示範如何使用 AI Studio、Cloud Functions 和 Firebase Hosting,快速建構技術支援應用程式。瞭解如何運用大型語言模型 (LLM),並查看將 AI 整合至傳統 Web 應用程式的實用範例。 |
2025-06-19 |
|
ADK
代理程式
架構
LangGraph
Vertex AI
影片
|
這部影片說明如何使用 Cloud Run 和 Vertex AI 建構及部署 AI 虛擬服務專員。瞭解工具呼叫、模型不可知論等重要概念,以及如何使用 LangGraph 和 Agent Development Kit (ADK) 等架構。 |
2025-05-21 |
|
AI 模型
GPU
Ollama
影片
|
3 個步驟透過 Cloud Run GPU 託管 DeepSeek 這部影片說明如何透過 Cloud Run GPU 簡化 DeepSeek AI 模型代管作業。瞭解如何使用三項指令,在 Google Cloud 上部署及管理大型語言模型 (LLM)。觀看影片,瞭解 Cloud Run 和 Ollama 指令列工具的功能,讓開發人員能運用隨選資源配置和調度功能,快速運作 AI 應用程式。 |
2025-04-24 |
|
函式呼叫
Gemini
影片
|
這部影片將探討 Gemini 函式呼叫的強大功能,並說明如何將外部 API 整合至 AI 應用程式。建構天氣應用程式,運用 Gemini 的自然語言理解功能處理使用者要求,並從外部 API 擷取天氣資料,實際示範函式呼叫的運作方式。 |
2025-01-23 |
|
圖像生成
Vertex AI
影片
|
透過 Cloud Run 上的 Google Cloud Vertex AI 將文字轉換為圖片 這部影片說明如何使用 Google Cloud 的 Vertex AI 建構圖像生成應用程式。開發人員可透過 Vertex AI 圖像生成模型製作精美圖片,不必使用複雜的基礎架構或管理模型。 |
2025-01-16 |
|
GPU
Ollama
影片
|
這部影片說明如何使用 Ollama,在 Cloud Run 輕鬆部署大型語言模型,並透過 GPU 在雲端部署可擴充且有效率的 AI 模型。 |
2024-12-02 |
|
資料保護
安全性
影片
|
這部影片說明如何保護 AI 應用程式中的機密資料。瞭解在整個 AI 生命週期中保護資料的重點概念、最佳做法和工具。 |
2024-11-21 |
|
LangChain
RAG
影片
|
在 Google Cloud 上使用 LangChain 進行 RAG 這部影片說明如何使用檢索增強生成 (RAG) 技術,提升 AI 應用程式的準確度。建構網路應用程式,運用 LangChain 的 RAG 技術,讓 AI 回覆更準確精確。 |
2024-11-07 |
|
大型提示視窗
模型微調
RAG
影片
|
這部影片將探討將資料整合至 AI 應用程式的三種主要方法:長脈絡視窗提示、檢索增強生成 (RAG) 和模型調整。在本集 Serverless Expeditions 中,瞭解每種方法的優點、限制和理想應用實例,為您的 AI 專案做出明智決策。 |
2024-11-14 |
|
提示工程
影片
|
這部影片會說明如何運用提示工程,提升 AI 回覆的品質。觀看影片,瞭解如何運用思維鏈、少量樣本和多樣本提示技術,讓生成式 AI 提供更準確且相關的回覆。 |
2024-10-31 |
|
AI 模型
GPU
LLM
影片
|
這部影片說明如何在 Cloud Run 上部署自己的 GPU 驅動大型語言模型 (LLM)。這部影片逐步說明如何採用 Gemma 等開放原始碼模型,並以 GPU 加速的無伺服器可擴充服務形式部署模型 |
2024-10-06 |
|
GPU
LLM
Ollama
影片
|
這部影片示範如何透過 Cloud Run 上的 Ollama 部署 Google 的開放原始碼大型語言模型 Gemma 2。 |
2024-10-03 |
|
Gemini
LLM
影片
|
這部影片說明如何在 Gemini 上建構大型語言模型 (LLM) 對話應用程式。 |
2024-08-29 |
|
多模態
Vertex AI
影片
|
這部影片示範如何使用 Vertex AI 建構多模態應用程式,處理影片、音訊和文字,然後建立輸出內容。 |
2024-08-15 |
|
AI 模型
Vertex AI
影片
|
使用無伺服器生成式 AI | Google Vertex AI 這部影片說明如何使用 Vertex AI Studio、Cloud Run 和生成式 AI 模型,建構及部署速度極快的生成式 AI 應用程式。 |
2024-02-22 |
|
程式碼研究室
工具
|
本程式碼研究室說明如何在 Cloud Run 上部署 n8n 工作流程自動化工具的正式版執行個體,並搭配 Cloud SQL 資料庫進行持續性作業,以及使用 Secret Manager 處理機密資料。 |
2025-11-20 |
|
程式碼研究室
GPU
LLM
|
如何使用 vLLM 和 OpenAI Python SDK,在 Cloud Run GPU 上執行 LLM 推論 本程式碼研究室說明如何使用 vLLM 做為推論引擎,並使用 OpenAI Python SDK 執行句子完成作業,在 Cloud Run 上部署 Google 的 Gemma 2 2b 指令微調模型。 |
2025-11-13 |
|
ADK
代理程式
程式碼研究室
|
在 Cloud Run 上部署、管理及監控 ADK 代理程式 這個程式碼實驗室會逐步引導您在 Cloud Run 上,部署、管理及監控使用 Agent Development Kit (ADK) 建構的強大代理程式。 |
2025-11-12 |
|
程式碼研究室
Gemini CLI
MCP
|
本程式碼研究室會逐步說明如何在 Cloud Run 上部署安全的 Model Context Protocol (MCP) 伺服器,並從 Gemini CLI 連線至該伺服器。 |
2025-10-28 |
|
ADK
代理程式
程式碼研究室
MCP
|
建構及部署使用 Cloud Run 上 MCP 伺服器的 ADK 代理 本程式碼研究室會逐步引導您使用 Agent Development Kit (ADK),建構及部署可使用工具的 AI 代理。代理程式會連線至遠端 MCP 伺服器以取得工具,並以容器形式部署在 Cloud Run 上。 |
2025-10-27 |
|
AI 模型
Cloud Run 工作
程式碼研究室
模型微調
|
本程式碼研究室提供逐步指南,說明如何使用 Cloud Run Jobs 和 GPU,在 Text2Emoji 資料集上微調 Gemma 3 模型,然後透過 vLLM 在 Cloud Run 服務上提供產生的模型。 |
2025-10-21 |
|
批次推論
Cloud Run 工作
程式碼研究室
|
本程式碼研究室示範如何使用 GPU 驅動的 Cloud Run 工作,對 Llama 3.2-1b 模型執行批次推論,並將結果直接寫入 Cloud Storage bucket。 |
2025-10-21 |
|
ADK
代理程式
程式碼研究室
GPU
LLM
MCP
|
實驗室 3:從原型到正式版 - 將 ADK 代理部署至 Cloud Run (含 GPU) 本程式碼研究室會示範如何在 Cloud Run 上,使用 GPU 加速的 Gemma 後端,部署適用於正式環境的 Agent Development Kit (ADK) 代理程式。本程式碼研究室涵蓋部署、整合和效能測試。 |
2025-10-03 |
|
代理程式
程式碼研究室
|
如何部署 Gradio 前端應用程式,呼叫後端 ADK 代理 (兩者皆在 Cloud Run 上執行) 本程式碼研究室將示範如何在 Cloud Run 上部署雙層應用程式,包括 Gradio 前端和 ADK 代理程式後端,重點在於實作經過驗證的安全服務間通訊。 |
2025-09-29 |
|
程式碼研究室
Gemini
|
如何使用 Gemini 將 FastAPI 聊天機器人應用程式部署至 Cloud Run 本程式碼研究室說明如何將 FastAPI 聊天機器人應用程式部署至 Cloud Run。 |
2025-04-02 |
|
Cloud Run functions
程式碼研究室
LLM
|
如何在 Cloud Run 函式的 Sidecar 中託管 LLM 本程式碼研究室說明如何在 Cloud Run 函式的 Sidecar 中,託管 gemma3:4b 模型。 |
2025-03-27 |
|
社群
安全性
|
本文提供 Python 程式碼範例,說明如何取得身分識別權杖,以便從任何環境安全地呼叫已通過驗證的 Cloud Run 服務。這個範例使用應用程式預設憑證 (ADC) 驗證呼叫。 |
2025-10-15 |
|
AI 模型
社群
RAG
|
本文提供逐步指南,說明如何將 EmbeddingGemma 模型容器化並部署到 Cloud Run (使用 GPU),然後用來建構 RAG 應用程式。 |
2025-09-24 |
|
社群
安全性
|
AI 信任鏈:在 Cloud Run 確保 MCP Toolbox 架構安全無虞 本文將剖析以 Google Cloud 建構的簡易飯店預訂應用程式,這項範例會展示如何使用服務 ID 建立強大的零信任安全模型,並說明如何從使用者到資料庫建立安全的信任鏈。 |
2025-09-03 |
|
AI 模型
社群
容器化
Docker
Ollama
RAG
|
無伺服器 AI:使用 Cloud Run 搭配 Qwen3 Embeddings 本文提供教學課程,說明如何使用 GPU 將 Qwen3 Embedding 模型部署至 Cloud Run。本文也涵蓋使用 Docker 和 Ollama 進行容器化,並提供在 RAG 應用程式中使用該技術的範例。 |
2025-08-20 |
|
架構
社群
LLM
|
仍將 AI 模型封裝於容器中嗎?改用 Cloud Run 執行這項作業 本文建議採用更有效率且可擴充的架構,在 Cloud Run 上提供大型語言模型 (LLM),方法是將模型檔案與應用程式容器分離,改用 Cloud Storage FUSE。 |
2025-08-11 |
|
AI 模型
社群
|
使用 Gemini 和 Cloud Run 打造 AI 輔助 Podcast 生成工具 本文將詳細說明如何建構無伺服器 AI 輔助的 Podcast 生成器,並使用 Gemini 進行內容摘要,以及使用 Cloud Run。這個範例會協調自動化管道,從 RSS 動態消息產生並提供每日音訊簡報。 |
2025-08-11 |
|
社群
MCP
|
使用 Google Cloud Run 啟動 MCP 伺服器 本文說明 Model Context Protocol (MCP) 的用途,並提供教學課程,說明如何在 Cloud Run 上建構及部署 MCP 伺服器,將資源公開為 AI 應用程式的工具。 |
2025-07-09 |
|
社群
機器學習模型
監控
|
使用 Cloud Run 部署及監控 ML 模型:輕量級、可擴充且具成本效益 本文說明如何在 Cloud Run 上部署、監控及自動調整機器學習模型,並利用輕量型監控堆疊搭配 Google Cloud 服務,追蹤效能及控管費用。 |
2025-05-29 |
|
AI 模型
AI Studio
社群
LLM
|
直接從 AI Studio 將 Gemma 部署至 Cloud Run 本文提供逐步教學課程,說明如何從 AI Studio 取得 Gemma 模型、調整程式碼以供正式環境使用,並將模型部署為 Cloud Run 上的容器化網頁應用程式。 |
2025-05-29 |
|
ADK
代理程式
社群
MCP
|
本文將示範如何設定 Agent Development Kit (ADK) 工作流程,與託管於 Cloud Run 的 Model Context Protocol (MCP) 伺服器通訊,藉此管理航班預訂,建構 AI 代理架構。 |
2025-05-27 |
|
A2A
代理程式
社群
架構
用途
|
在 Cloud Run 上使用購買服務專員,探索 Agent2Agent (A2A) 通訊協定 本文將說明 Agent2Agent (A2A) 通訊協定,並示範如何搭配購物服務專員應用程式使用。Cloud Run 應用程式包含多個以不同架構建構的 AI 代理程式,這些代理程式會互相協作,完成使用者的訂單。 |
2025-05-15 |
|
AI 模型
自動化
CI/CD
社群
GitHub
|
使用 GitHub Actions 和 Cloud Run 自動部署機器學習模型 本文提供完整指南,說明如何使用 GitHub Actions 建立 CI/CD 管道,自動建構及部署機器學習模型,做為 Cloud Run 上的容器化服務。 |
2025-05-08 |
|
社群
LLM
安全性
|
運用 Google Cloud - Cloud Run 建構主權 AI 解決方案 本文提供逐步指南,說明如何使用合作夥伴的 Sovereign Controls,在 Google Cloud 上建構及部署主權 AI 解決方案。這個範例會在 Cloud Run 上執行 Gemma 模型,確保資料落地,並符合歐洲法規。 |
2025-04-03 |
|
社群
LLM
|
在早上通勤途中,從零開始瞭解 Cloud Run 的 Deepseek 本文說明如何在通勤途中,使用 Ollama 在 Cloud Run 上快速部署搭載 GPU 的 Deepseek R1 模型。本文將探討進階主題,例如在容器中嵌入模型、使用流量分割進行 A/B 測試,以及使用 Sidecar 容器新增網頁 UI。 |
2025-02-11 |
|
社群
LLM
Ollama
|
如何在 Google Cloud Run 透過 Ollama 執行任何開放式大型語言模型 [逐步說明] 本文將說明如何使用 Ollama,在 Google Cloud Run 上代管任何開放式大型語言模型,例如 Gemma 2。本文也包含建立 Cloud Storage bucket 的操作說明,方便您保存模型及測試部署作業。 |
2025-01-20 |
|
社群
機器學習模型
|
使用 Google Cloud 部署含 GPU 的無伺服器機器學習模型:Cloud Run 本文提供逐步指南,說明如何在 Cloud Run 上部署支援 GPU 的機器學習 (ML) 模型。本文涵蓋所有內容,從專案設定和容器化,到使用 Cloud Build 自動部署,以及使用 curl 和 JavaScript 進行測試。 |
2025-01-17 |