Vertex AI 中的 Veo 遵照 Google AI 原則設計。不過,開發人員務必瞭解如何安全且負責任地測試及部署 Google 的模型。為協助開發人員,Vertex AI 版 Veo 內建安全防護功能,可協助客戶在用途中封鎖潛在有害的輸出內容。詳情請參閱安全篩選器。
我們建議客戶在開發 AI 應用程式時,採用公平性、可解釋性、隱私權和安全性的最佳做法。詳情請參閱《People + AI Guidebook》。
安全篩選機制
在 Vertex AI 運用 Veo 時,可以透過多種方式輸入提示詞來生成影片,包括文字、影片和圖片。系統會根據安全篩選器清單評估提供給 Veo 的提示,包括有害類別 (例如 violence、sexual、derogatory 和 toxic)。這些安全篩選器旨在濾除違反Google Cloud平台使用限制政策、生成式 AI 禁用政策或我們的 AI 原則的輸入圖片和影片。
如果模型對要求的回覆是錯誤訊息 (例如 The
prompt couldn't be submitted 或 it might violate our
policies),表示輸入內容觸發了安全篩選器。如果系統傳回的影片數量少於要求,表示部分生成的輸出內容因不符合安全規定而遭到封鎖。
安全篩選器代碼類別
視您設定的安全篩選器而定,輸出內容可能包含類似以下的安全代碼:「Veo 無法生成影片,因為輸入圖片違反 Vertex AI 的使用規範。如果您認為這項處置有誤,請傳送意見回饋。支援代碼:15236754
輸出內容中列出的代碼對應至特定有害類別。
下表顯示支援代碼與安全類別的對應關係:
| 支援代碼 | 安全類別 | 說明 |
|---|---|---|
5806121417301594
|
子項 |
如果 personGeneration 未設為 "allow_all",或專案不在這項功能的允許清單中,系統會拒絕生成描繪兒童的內容。 |
2931047215236754
|
名人 | 如果要求是生成知名人士的擬真圖像,或是專案不在這項功能的許可清單中,系統就會拒絕要求。 |
6415111742237218
|
違反影片安全規定 | 違反一般安全規定。 |
62263041 |
危險內容 | 可能危險的內容。 |
5773494022137204
|
仇恨 | 仇恨相關內容。 |
748032812957879042876398
|
其他 | 要求中的其他安全問題 |
89371032491146626342908972817394
|
禁止宣傳的內容 | 禁止發布與兒童安全相關的內容。 |
3556157435561575
|
第三方內容 | 第三方內容相關防護機制。 |
9078917943188360
|
色情內容 | 與性相關或性暗示內容。 |
78610348 |
惡意言論 | 有害內容。 |
6149386356562880
|
暴力 | 暴力內容。 |
32635315 |
粗俗 | 粗俗內容。 |
後續步驟
進一步瞭解 Google 對負責任的 AI 做法提出的建議
請參閱我們的網誌文章「在發展負責任的 AI 技術方面達成共識」