Vertex AI 內建安全分類器,可過濾傳送至所有代管 Anthropic 模型的請求,避免其中含有兒少性虐待內容 (CSAM) 的圖像。Vertex AI 的疑似 CSAM 安全分類器與 Anthropic 模型直接隨附的 Trust and Safety (T&S) 篩選器不同。
本文說明疑似 CSAM 安全分類器會篩除要求和回應的哪些部分,以及分類器封鎖要求時會發生什麼情況。
安全和內容篩選器可防止模型輸出有害內容,但不會直接影響模型的行為。如要進一步瞭解模型可控性,請參閱「安全性的系統指示」。
不安全的提示
疑似兒少性虐待內容分類器只會篩選 Vertex AI 中對 Anthropic 模型的要求中的圖片。疑似兒少性虐待內容分類器不會篩除模型的輸出內容。
如果要求觸發疑似 CSAM 分類器,系統會封鎖要求並傳回 200 HTTP 狀態碼,以及下列訊息:
{
"promptFeedback": {
"blockReason": "PROHIBTED_CONTENT"
}
}
如果分類器封鎖要求,要求串流就會取消,並傳回下列訊息:
"event": "vertex-block-event",
"data": {"promptFeedback": {"blockReason": "PROHIBITED_CONTENT"}}
位置資訊可用性
疑似 CSAM 分類器適用於所有支援的地區。