Gemini 图片生成和 Responsible AI

为确保安全可靠的体验,Vertex AI 的图片生成功能采用多层安全保护机制。此功能旨在防止生成不当内容,包括露骨色情、危险、暴力、仇恨或有害内容。

所有用户都必须遵守《生成式 AI 使用限制政策》。此政策严格禁止生成以下内容:

  • 涉及儿童性虐待或性剥削。
  • 宣传暴力极端主义/恐怖主义。
  • 传播未经当事人同意的私密图像。 鼓动自残。
  • 包含露骨色情内容。
  • 构成仇恨言论。
  • 宣扬骚扰或欺凌行为。

如果提示不安全,模型可能会拒绝生成图片,或者提示或生成的回答可能会被我们的安全过滤器屏蔽。

  • 模型拒绝:如果提示可能不安全,模型可能会拒绝处理相应请求。如果出现这种情况,模型通常会返回一条文本回答,表明无法生成不安全图片。FinishReasonSTOP
  • 安全过滤器屏蔽:
    • 如果安全过滤功能将提示识别为可能有害,则 API 会在 PromptFeedback 中返回 BlockedReason
    • 如果安全过滤条件将回答识别为可能有害,则 API 响应会包含值为 IMAGE_SAFETYIMAGE_PROHIBITED_CONTENT 或类似值的 FinishReason

安全过滤器代码类别

根据您配置的安全过滤器,您的输出可能包含类似于以下内容的安全原因代码:

    {
      "raiFilteredReason": "ERROR_MESSAGE. Support codes: 56562880"
    }

所列代码对应于特定的有害类别。这些代码与类别的映射如下:

错误代码 安全类别 说明 过滤的内容:提示输入或图片输出
58061214
17301594
子女 检测因 API 请求设置或许可清单而不允许的儿童内容。 输入(提示):58061214
输出(图片):17301594
29310472
15236754
名人 检测请求中名人的逼真表示。 输入(提示):29310472
输出(图片):15236754
62263041 危险内容 检测本质上具有潜在危险的内容。 输入(提示)
57734940
22137204
讨厌的 检测与仇恨相关的主题或内容。 输入(提示):57734940
输出(图片):22137204
74803281
29578790
42876398
其他 检测请求中的其他各种安全问题。 输入(提示):42876398
输出(图片):29578790、74803281
39322892 人物/人脸 检测因请求安全设置而不允许的人物或人脸。 输出(图片)
92201652 个人信息 检测文本中的个人身份信息 (PII),例如提及信用卡号、住址或其他此类信息。 输入(提示)
89371032
49114662
72817394
禁止的内容 检测请求中的禁止的内容。 输入(提示):89371032
输出(图片):49114662、72817394
90789179
63429089
43188360
色情内容 检测色情性内容。 输入(提示):90789179
输出(图片):63429089、43188360
78610348 有害内容 检测文本中的有害主题或内容。 输入(提示)
61493863
56562880
暴力 检测图片或文本中与暴力相关的内容。 输入(提示):61493863
输出(图片):56562880
32635315 粗俗 检测文本中的粗俗主题或内容。 输入(提示)
64151117 名人或儿童 检测名人或儿童的逼真照片,如果违反 Google 的安全政策,则返回 true。 输入(提示)
输出(图片)

后续步骤

如需详细了解 Gemini 图片生成功能,请参阅以下链接: