Vertex AI 支援精選的開放原始碼模型,並以代管模型的形式提供。這些開放模型可透過 Vertex AI 以模型即服務 (MaaS) 的形式使用,並以代管 API 提供。使用代管開放式模型時,您仍會將要求傳送至 Vertex AI 端點。代管開放模型採用無伺服器架構,因此無須佈建或管理基礎架構。
您可以使用 Model Garden 探索受管理開放模型。您也可以使用 Model Garden 部署模型。詳情請參閱「探索 Model Garden 中的 AI 模型」。
如要使用開放模型,請先授予使用者開放模型存取權。
開放式模型
Vertex AI Model Garden (MaaS) 提供下列開放式模型做為代管 API:
| 模型名稱 | 模態 | 說明 | 快速入門導覽課程 |
|---|---|---|---|
| DeepSeek-OCR | 語言、Vision | 這項全面的光學字元辨識 (OCR) 模型可分析及理解複雜文件,擅長處理 OCR 相關的艱難工作。 | Model Card |
| DeepSeek R1 (0528) | 語言 | DeepSeek 最新版的 DeepSeek R1 模型。 | Model Card |
| DeepSeek-V3.1 | 語言 | DeepSeek 的混合式模型,支援思考模式和非思考模式。 | Model Card |
| DeepSeek-V3.2 | 語言 | DeepSeek 的模型,兼具高運算效率和卓越的推論與代理程式效能。 | Model Card |
| GLM 4.7 | 語言、代碼 | GLM 的模型,適用於核心或直覺式程式開發、工具操作和複雜推論。 | Model Card |
| gpt-oss 120B | 語言 | 這個 1200 億參數模型擅長執行推論工作。 | Model Card |
| gpt-oss 20B | 語言 | 這個 200 億參數模型經過最佳化,可在消費型和邊緣硬體上有效率地部署及執行。 | Model Card |
| Kimi K2 Thinking | 語言 | 開放原始碼的思考型代理模型,可逐步推論並使用工具解決複雜問題。 | Model Card |
| Llama 3.1 | 語言 |
這是一系列經過最佳化調整的多語言 LLM,適用於多語言對話用途,在常見的業界基準中,表現優於許多現有的開放原始碼和封閉式聊天模型。 Llama 3.1 405B 現已正式發布 (GA)。 Llama 3.1 8B 和 Llama 3.1 70B 均為預先發布版。 |
Model Card |
| Llama 3.2 (預先發布版) | 語言、Vision | 中型 90B 多模態模型,可支援圖像推理,例如圖表分析和圖像說明。 | Model Card |
| Llama 3.3 | 語言 | Llama 3.3 是純文字 70B 指令微調模型,相較於 Llama 3.1 70B 和 Llama 3.2 90B,用於純文字應用程式時效能更佳。此外,在某些應用程式中,Llama 3.3 70B 的效能已接近 Llama 3.1 405B。 | Model Card |
| Llama 4 Maverick 17B-128E | 語言、Vision | 這是最大且最強大的 Llama 4 模型,具備程式設計、推論和圖像功能。Llama 4 Maverick 17B-128E 是多模態模型,採用混合專家 (MoE) 架構和早期融合技術。 | Model Card |
| Llama 4 Scout 17B-16E | 語言、視覺輔助 | Llama 4 Scout 17B-16E 在同級模型中表現優異,在多項基準測試中,都優於先前的 Llama 版本和其他開放及專有模型。Llama 4 Scout 17B-16E 是多模態模型,採用混合專家 (MoE) 架構和早期融合技術。 | Model Card |
| MiniMax M2 | 語言、代碼 | 專為代理式和程式碼相關工作設計,擅長規劃及執行複雜的工具呼叫工作。 | Model Card |
| Qwen3 235B | 語言 | 這款開放權重模型具備「混合思考」能力,可在有條理的推理和快速對話之間切換。 | Model Card |
| Qwen3 Coder | 語言、代碼 | 專為進階軟體開發工作設計的開放權重模型。 | Model Card |
| Qwen3-Next-80B Instruct | 語言、代碼 | Qwen3-Next 系列模型,專門用於執行特定指令。 | Model Card |
| Qwen3-Next-80B Thinking | 語言、代碼 | Qwen3-Next 系列模型,專門用於解決複雜問題和深入推理。 | Model Card |
Vertex AI Model Garden (MaaS) 提供下列開放式嵌入模型做為代管 API:
| 模型名稱 | 說明 | 輸出尺寸 | 序列長度上限 | 支援的文字語言 | 快速入門導覽課程 |
|---|---|---|---|---|---|
| multilingual-e5-small | 屬於 E5 系列文字嵌入模型。小型變體包含 12 個圖層。 | 最多 384 個 | 512 個權杖 | 支援的語言 | Model Card |
| multilingual-e5-large | 屬於 E5 系列文字嵌入模型。大型變體包含 24 層。 | 最多 1024 個 | 512 個權杖 | 支援的語言 | Model Card |
開放模型法規遵循
透過 Vertex AI 將開放式模型做為受管理 API 使用時,Vertex AI 生成式 AI 的認證仍適用。如需模型本身的詳細資料,請參閱相應的模型資訊卡,或與相應的模型發布者聯絡。
您的資料會儲存在 Vertex AI 開放模型所選區域或多區域的靜態資料中,但資料處理的區域化程度可能有所不同。如需開放模型的資料處理承諾詳細清單,請參閱「開放模型的資料落地」。
使用 Vertex AI API (包括開放式模型) 時,系統不會將客戶提示和模型回覆分享給第三方。Google 只會按照客戶指示處理客戶資料,詳情請參閱《Cloud 資料處理附加條款》。
脈絡快取
情境快取功能有助於減少要求成本和延遲時間,適用於含有重複內容的 Open Models。這項功能僅適用於隨用隨付流量,不支援其他流量類型,例如佈建輸送量和批次。
支援的快取類型為隱含快取,也就是預設在所有 Google Cloud 專案中啟用的自動快取。與標準輸入權杖相比,快取命中時,快取權杖可享有 1 折優惠。使用這類快取時,您不需要明確定義及呼叫快取。系統偵測到重複的內容時,後端會從這些快取提取資料。
支援的模型
- qwen3-coder-480b-a35b-instruct-maas
回應中繼資料的 cachedContentTokenCount 欄位會指出輸入內容快取部分中的權杖數量。快取要求必須包含至少 4096 個權杖 (此下限在預先發布期間可能會變更)。
啟用後,系統會自動將隱含快取命中節省的費用轉移給您。我們無法保證快取命中率,這取決於傳送的要求和其他因素。如要提高隱含快取命中率,請嘗試下列做法:
- 在提示開頭放置大型和常見內容。
- 在短時間內傳送具有類似前置字串的要求。
後續步驟
- 使用開放式模型前,請先授予使用者開放式模型存取權。
- 瞭解如何呼叫開放模型 API。