Vertex AI 生成式 AI 訓練總覽
透過集合功能整理內容
你可以依據偏好儲存及分類內容。
生成式 AI 通常會使用大規模機器學習 (ML) 模型,這些模型是使用大量資料預先訓練而成。這些模型稱為基礎模型,可做為各種工作的基礎。您可以透過 Vertex AI 中的生成式 AI 自訂基礎模型,方法有很多種:
微調:微調會為模型提供訓練資料集,其中包含與所選下游工作相關的特定範例。
- 監督式調整:這項技術會使用標記範例微調模型。每個範例都會在推論期間,針對指定輸入內容示範所選輸出內容。監督式調整適用於預期輸出結果不太複雜且可明確定義的工作,例如分類、情緒分析、實體擷取、摘要不太複雜的內容,以及產生特定領域查詢。您可以使用監督式學習來調整文字、圖片、音訊和文件資料類型。
- 人類回饋增強學習 (RLHF) 調整:如果所選模型輸出內容較複雜,則可使用這項方法。RLHF 調校適用於難以透過監督式調校區分的目標,例如回答問題、複雜內容摘要和創意內容產生。
蒸餾:蒸餾通常會訓練較小的「學生」模型,模仿較大且功能更強大的「老師」模型的行為。
轉接器模型訓練:訓練較小的轉接器模型 (或層),讓轉接器模型與基礎模型搭配運作,提升專門工作的成效。原始基礎模型的參數通常會保持凍結狀態,只有轉接器的權重會在訓練期間更新。
建立基準:雖然這不是訓練方法,但建立基準是確保生成式 AI 輸出內容可靠性的關鍵。建立基準是指將模型輸出連結至可驗證的資訊來源,降低捏造內容的可能性。這通常需要在推論期間為模型提供特定資料來源的存取權。
後續步驟
除非另有註明,否則本頁面中的內容是採用創用 CC 姓名標示 4.0 授權,程式碼範例則為阿帕契 2.0 授權。詳情請參閱《Google Developers 網站政策》。Java 是 Oracle 和/或其關聯企業的註冊商標。
上次更新時間:2025-10-19 (世界標準時間)。
[[["容易理解","easyToUnderstand","thumb-up"],["確實解決了我的問題","solvedMyProblem","thumb-up"],["其他","otherUp","thumb-up"]],[["難以理解","hardToUnderstand","thumb-down"],["資訊或程式碼範例有誤","incorrectInformationOrSampleCode","thumb-down"],["缺少我需要的資訊/範例","missingTheInformationSamplesINeed","thumb-down"],["翻譯問題","translationIssue","thumb-down"],["其他","otherDown","thumb-down"]],["上次更新時間:2025-10-19 (世界標準時間)。"],[],[]]