Gemini の画像生成と責任ある AI

安全で責任あるエクスペリエンスを確保するため、Vertex AI の画像生成機能には多層的な安全対策が施されています。これは、露骨な性的表現、危険な表現、暴力的な表現、差別的な表現、有害な表現など、不適切なコンテンツの作成を防ぐように設計されています。

すべてのユーザーは、生成 AI の使用禁止に関するポリシーを遵守する必要があります。このポリシーでは、以下のようなコンテンツの生成が厳しく禁止されています。

  • 児童性的虐待や児童の搾取に関連している。
  • 暴力的な過激主義やテロリズムを助長している。
  • 当人の合意なく作成された親密な状況のシナリオ・画像・動画を助長している。 自傷行為を助長している。
  • 露骨な性表現を含む。
  • ヘイトスピーチに該当する。
  • ハラスメントやいじめを助長する。

不適切なプロンプトが指定された場合、モデルは画像の生成を拒否することがあります。また、プロンプトや生成されたレスポンスが安全フィルタによってブロックされることもあります。

  • モデルの拒否: プロンプトが安全でない可能性がある場合、モデルはリクエストの処理を拒否することがあります。このような場合、モデルは通常、安全でない画像を生成できないというテキスト レスポンスを返します。FinishReasonSTOP です。
  • 安全フィルタのブロック:
    • プロンプトが安全フィルタによって有害と判断された場合、API は PromptFeedbackBlockedReason を返します。
    • レスポンスが安全フィルタによって有害な可能性があると判断された場合、API レスポンスには IMAGE_SAFETYIMAGE_PROHIBITED_CONTENT などの FinishReason が含まれます。

安全フィルタのコードカテゴリ

構成する安全フィルタによっては、出力に次のような安全理由コードが含まれる場合があります。

    {
      "raiFilteredReason": "ERROR_MESSAGE. Support codes: 56562880"
    }

表示されるコードは、特定の有害なカテゴリに対応しています。コードとカテゴリのマッピングは次のとおりです。

エラーコード 安全性のカテゴリ 説明 コンテンツがフィルタされた: プロンプトの入力または画像の出力
58061214
17301594
子ども API リクエストの設定または許可リストにより許可されていない場合、子ども向けコンテンツを検出します。 入力(プロンプト): 58061214
出力(画像): 17301594
29310472
15236754
有名人 リクエストで指定された有名人のフォトリアリスティックな表現を検出します。 入力(プロンプト): 29310472
出力(画像): 15236754
62263041 危険なコンテンツ 本質的に危険な可能性のあるコンテンツを検出します。 入力(プロンプト)
57734940
22137204
悪意のあるコンテンツ ヘイト関連のトピックやコンテンツを検出します。 入力(プロンプト): 57734940
出力(画像): 22137204
74803281
29578790
42876398
その他 リクエストに関するその他の安全性に関する問題を検出します。 入力(プロンプト): 42876398
出力(画像): 29578790、74803281
39322892 人物 / 顔 リクエストの安全性設定で許可されていないときに、人物や顔を検出します。 出力(画像)
92201652 個人情報 テキスト内の個人情報(PII)を検出します。たとえば、クレジット カード番号、自宅の住所、その他の個人情報の記載を検出します。 入力(プロンプト)
89371032
49114662
72817394
禁止コンテンツ リクエストで禁止コンテンツのリクエストを検出します。 入力(プロンプト): 89371032
出力(画像): 49114662、72817394
90789179
63429089
43188360
性的 性的なコンテンツを検出します。 入力(プロンプト): 90789179
出力(画像): 63429089、43188360
78610348 有害 テキスト内の有害なトピックやコンテンツを検出します。 入力(プロンプト)
61493863
56562880
暴力 画像またはテキストから暴力関連のコンテンツを検出します。 入力(プロンプト): 61493863
出力(画像): 56562880
32635315 下品 テキストから下品なトピックやコンテンツを検出します。 入力(プロンプト)
64151117 有名人または子ども Google の安全性ポリシーに違反する有名人または子どものフォトリアリスティックな表現を検出します。 入力(プロンプト)
出力(画像)

次のステップ

Gemini の画像生成について詳しくは、以下のリンクをご覧ください。