生成式 AI

關於使用 Google Cloud 工具和產品建構及導入生成式 AI 應用程式的說明文件和資源。

  • 運用最新的生成式 AI 模型和工具進行開發。
  • 免費使用 Compute Engine 和 AI API 等 20 多項熱門產品。
  • 不會自動收費,也無需綁約。

繼續探索 20 多項永久免費的產品。

存取 20 多項常見用途的免費產品,包括 AI API、VM 和資料倉儲等。

瞭解如何建構生成式 AI 應用程式

存取 Google 的大型生成式 AI 模型,以便測試、調整及部署這些模型,然後在 AI 技術輔助應用程式中使用。
瞭解如何透過 Google Cloud 的 AI/機器學習平台 Vertex AI,向 Gemini API 傳送要求。
善用 GKE 的強大功能,打造可自訂的 AI/機器學習平台,以高效能、高成本效益的方式提供服務及訓練模型,並享有業界領先的擴充能力和彈性基礎架構選項。
判斷生成式 AI、傳統 AI 或兩者兼具是否適合您的業務用途。
瞭解如何解決開發生成式 AI 應用程式時,各階段遇到的挑戰。
查看熱門應用實例的程式碼範例,並部署安全、有效率、具備復原能力、高效能且經濟實惠的生成式 AI 應用程式範例。
瞭解與生成式 AI 相關的特定字詞。

生成式 AI 工具

生成式 AI 工具清單,包括 Cloud Console 下列出的 Vertex AI Studio、Colab Enterprise/Notebooks 和 Workbench,以及列為個別項目的 SDK/API。

生成式 AI 開發流程

這張圖表顯示生成式 AI 的開發流程,共分為六個階段:模型選取 (包括 Model Garden)、提示工程 (包括提示庫、Vertex AI Studio、比較提示和最佳化提示)、調整 (包括訓練和調整)、最佳化 (包括蒸餾)、部署 (包括模型登錄、線上預測和批次預測) 和監控。模型選取、提示詞工程、微調和最佳化階段屬於標示為「評估」的迴圈子週期。

模型探索與託管

Google Cloud 透過 Vertex AI 提供一系列頂尖基礎模型,包括 Gemini。您也可以將第三方模型部署至 Vertex AI Model Garden,或在 GKE 或 Compute Engine 上自行代管。

從機器學習模型程式庫探索、測試、自訂及部署 Google 模型和資產。
從機器學習模型庫探索、測試、自訂及部署選取的開放原始碼模型和資產。
瞭解如何將 HuggingFace 文字生成模型部署至 Vertex AI 或 Google Kubernetes Engine (GKE)。
將 GPU 附加至 VM 執行個體,加速處理 Compute Engine 上的生成式 AI 工作負載。

提示設計與提示工程

提示設計是指撰寫提示和回覆組合,為語言模型提供額外情境和指令的程序。撰寫提示後,請將提示做為提示資料集提供給模型,進行預先訓練。模型提供預測結果時,會一併傳回您內建的指令。

設計、測試及自訂提示,然後傳送給 Google 的 Gemini 和 PaLM 2 大型語言模型 (LLM)。
瞭解提示工程工作流程和常見策略,以便影響模型回覆。
查看特定用途的提示和回覆範例。

建立基準和 RAG

建立基準可將 AI 模型連結至資料來源,提高回覆的準確度並減少幻覺。RAG 是一種常見的基礎技術,會搜尋相關資訊並新增至模型提示詞,確保輸出內容以事實和最新資訊為依據。

您可以透過 Google 搜尋或儲存在 Vertex AI Search 中的自有資料,建立 Vertex AI 模型基準。
使用「以 Google 搜尋建立基準」,將模型連結至網路上最新的知識。
使用 AlloyDB 生成及儲存向量嵌入項目,然後使用 pgvector 擴充功能建立嵌入索引及查詢。
將向量嵌入項目儲存在 Postgres SQL 中,然後使用 pgvector 擴充功能建立索引並查詢嵌入項目。
使用 LangChain 從 BigQuery 擷取資料,並充實及根據模型的回覆內容進行驗證。
從 Firestore 資料建立向量嵌入,然後為嵌入建立索引並查詢。
使用 LangChain 從 Memorystore 擷取資料,並豐富及根據模型的回覆內容。

代理和函式呼叫

透過 Agent,您可以輕鬆設計對話式使用者介面,並整合至行動應用程式,而函式呼叫則可擴充模型的功能。

運用 Google 的基礎模型、搜尋專業知識和對話式 AI 技術,打造企業級生成式 AI 應用程式。
在模型中新增函式呼叫功能,即可根據擷取的日曆資訊預訂座位等。

模型自訂和訓練

如果需要執行特殊工作,例如訓練語言模型使用特定術語,可能需要比單純設計提示詞或基礎訓練更多的訓練。在這種情況下,您可以使用模型調整功能來提升成效,或是訓練自己的模型。

在 Vertex AI 中評估基礎模型和微調生成式 AI 模型的效能。
調整通用基礎模型,可提升模型在特定工作上的成效。
TPU 是 Google 量身打造的 ASIC,用於加速機器學習工作負載,例如訓練 LLM。

開始建構

LangChain 是生成式 AI 應用程式的開放原始碼架構,可讓您在提示中加入情境,並根據模型的回覆採取行動。