为确保安全可靠的体验,Vertex AI 的图片生成功能采用多层安全保护机制。此功能旨在防止生成不当内容,包括露骨色情、危险、暴力、仇恨或有害内容。
所有用户都必须遵守《生成式 AI 使用限制政策》。此政策严格禁止生成以下内容:
- 涉及儿童性虐待或性剥削。
- 宣传暴力极端主义/恐怖主义。
- 传播未经当事人同意的私密图像。 鼓动自残。
- 包含露骨色情内容。
- 构成仇恨言论。
- 宣扬骚扰或欺凌行为。
如果提示不安全,模型可能会拒绝生成图片,或者提示或生成的回答可能会被我们的安全过滤器屏蔽。
-
模型拒绝:如果提示可能不安全,模型可能会拒绝处理相应请求。如果出现这种情况,模型通常会返回一条文本回答,表明无法生成不安全图片。
FinishReason为STOP。 -
安全过滤器屏蔽:
-
如果安全过滤功能将提示识别为可能有害,则 API 会在
PromptFeedback中返回BlockedReason。 -
如果安全过滤条件将回答识别为可能有害,则 API 响应会包含值为
IMAGE_SAFETY、IMAGE_PROHIBITED_CONTENT或类似值的FinishReason。
-
如果安全过滤功能将提示识别为可能有害,则 API 会在
安全过滤器代码类别
根据您配置的安全过滤器,您的输出可能包含类似于以下内容的安全原因代码:
{
"raiFilteredReason": "ERROR_MESSAGE. Support codes: 56562880"
}所列代码对应于特定的有害类别。这些代码与类别的映射如下:
| 错误代码 | 安全类别 | 说明 | 过滤的内容:提示输入或图片输出 |
|---|---|---|---|
| 58061214 17301594 |
子女 | 检测因 API 请求设置或许可清单而不允许的儿童内容。 | 输入(提示):58061214 输出(图片):17301594 |
| 29310472 15236754 |
名人 | 检测请求中名人的逼真表示。 | 输入(提示):29310472 输出(图片):15236754 |
| 62263041 | 危险内容 | 检测本质上具有潜在危险的内容。 | 输入(提示) |
| 57734940 22137204 |
讨厌的 | 检测与仇恨相关的主题或内容。 | 输入(提示):57734940 输出(图片):22137204 |
| 74803281 29578790 42876398 |
其他 | 检测请求中的其他各种安全问题。 | 输入(提示):42876398 输出(图片):29578790、74803281 |
| 39322892 | 人物/人脸 | 检测因请求安全设置而不允许的人物或人脸。 | 输出(图片) |
| 92201652 | 个人信息 | 检测文本中的个人身份信息 (PII),例如提及信用卡号、住址或其他此类信息。 | 输入(提示) |
| 89371032 49114662 72817394 |
禁止的内容 | 检测请求中的禁止的内容。 | 输入(提示):89371032 输出(图片):49114662、72817394 |
| 90789179 63429089 43188360 |
色情内容 | 检测色情性内容。 | 输入(提示):90789179 输出(图片):63429089、43188360 |
| 78610348 | 有害内容 | 检测文本中的有害主题或内容。 | 输入(提示) |
| 61493863 56562880 |
暴力 | 检测图片或文本中与暴力相关的内容。 | 输入(提示):61493863 输出(图片):56562880 |
| 32635315 | 粗俗 | 检测文本中的粗俗主题或内容。 | 输入(提示) |
| 64151117 | 名人或儿童 | 检测名人或儿童的逼真照片,如果违反 Google 的安全政策,则返回 true。 | 输入(提示) 输出(图片) |
后续步骤
如需详细了解 Gemini 图片生成功能,请参阅以下链接: