大型語言模型 (LLM) 可翻譯語言、摘要文字、產生創意寫作、產生程式碼、支援聊天機器人和虛擬助理,以及補足搜尋引擎和推薦系統。同時,由於這項技術仍處於早期階段,其不斷演進的功能和用途可能會導致誤用、濫用,以及意料之外或無法預測的後果。大型語言模型可能會產生您不預期的輸出內容,包括令人反感、未顧及感受或與事實不符的文字。
此外,由於 LLM 的功能多元,令人難以準確預測會輸出什麼出乎意料或未預期的內容。考量這些風險和複雜性,Vertex AI 生成式 AI API 的設計理念是遵循 Google 的 AI 開發原則。不過,開發人員必須瞭解並測試模型,才能安全且負責地部署模型。為協助開發人員,Vertex AI Studio 內建內容篩選器,而我們的生成式 AI API 則提供安全屬性分數,協助客戶測試 Google 的安全篩選器,並定義適合其用途和業務的信心門檻。詳情請參閱「安全篩選器和屬性」一節。
將生成式 API 整合至您的獨特用途和情境時,可能需要考量其他負責任的 AI 考量事項和限制。我們鼓勵客戶採用最佳做法,確保公平性、可解釋性、隱私權和安全性。
安全性篩選器和屬性
如要瞭解如何使用 API 的安全篩選器和屬性,請參閱「Vertex AI 中的 Gemini API」。
模型限制
使用生成式 AI 模型時可能遇到的限制包括 (但不限於):
極端案例:極端案例是指訓練資料中未充分呈現的特殊、罕見或例外情況。這些情況可能會導致模型效能受限,例如模型過度自信、誤解背景資訊或輸出不當內容。
模型幻覺、建立基準和事實性:生成式 AI 模型可能缺乏真實世界的知識、物理性質或準確的理解。這項限制可能會導致模型產生幻覺,也就是模型產生看似合理,但實際上違反事實、無關、不當或毫無意義的輸出內容。為降低這種可能性,您可以將模型基準設為特定資料。如要進一步瞭解 Vertex AI 中的基準建立功能,請參閱「基準建立功能總覽」。
資料品質和調整:輸入模型的提示或資料的品質、準確度和偏差,可能會對模型的效能造成重大影響。如果使用者輸入不準確或錯誤的資料或提示,模型的效能可能會不如預期,或輸出錯誤的模型。
偏誤放大:生成式 AI 模型可能會不經意放大訓練資料中現有的偏誤,導致輸出內容進一步強化社會偏見,並對特定族群造成不公平的對待。
語言品質:雖然模型在我們評估的基準測試中展現出令人印象深刻的多語言能力,但大多數的基準測試 (包括所有公平性評估) 都是以英文進行。詳情請參閱 Google Research 網誌。
- 生成式 AI 模型可能會為不同使用者提供不一致的服務品質。舉例來說,文字產生功能可能無法有效處理某些方言或語言變體,因為訓練資料中缺乏這類內容。對於非英文語言或較少代表性的英文語言變體,成效可能會更差。
公平性基準和子群組:Google Research 對生成式 AI 模型進行公平性分析時,並未詳述各種潛在風險。舉例來說,我們著重於性別、種族、族裔和宗教軸線的偏差,但只針對英文資料和模型輸出內容進行分析。詳情請參閱 Google Research 網誌。
專業領域知識有限:生成式 AI 模型可能缺乏提供準確詳細回覆所需的深度知識,無法針對專業或技術性主題提供準確詳細的回覆,導致提供膚淺或錯誤的資訊。針對專門的複雜用途,模型應根據特定領域的資料進行調整,且在可能對個人權利造成重大影響的情況下,必須有實質的人為監督。
輸入和輸出的長度和結構:生成式 AI 模型有輸入和輸出符記的最大限制。如果輸入或輸出內容超過此限制,系統就不會套用安全性分類器,這可能會導致模型效能不佳。雖然我們的模型可處理各種文字格式,但如果輸入資料具有不尋常或複雜的結構,就可能影響模型的效能。
建議做法
為了安全且負責任地使用這項技術,除了內建的技術防護措施外,您也應考量使用情境、使用者和業務背景等其他風險。
建議您採取下列步驟:
- 評估應用程式的安全風險。
- 執行適合您用途的安全測試。
- 視需要設定安全篩選機制。
- 徵求使用者意見回饋並監控內容。
檢舉濫用行為
如有疑似濫用服務的行為,或任何產生的輸出內容含有不當內容或不正確資訊,您可以使用下列表單回報:在 Google Cloud上檢舉疑似濫用行為。
其他資源
- 瞭解濫用行為監控。
- 進一步瞭解 Google 的負責任的 AI 做法建議。
- 請參閱我們的網誌「在發展負責任的 AI 技術方面達成共識」