Um eine sichere und verantwortungsbewusste Nutzung zu gewährleisten, sind die Funktionen zur Bilderstellung von Vertex AI mit einem mehrstufigen Sicherheitskonzept ausgestattet. So soll die Erstellung unangemessener Inhalte verhindert werden, darunter sexuell explizite, gefährliche, gewalttätige, hasserfüllte oder schädliche Inhalte.
Alle Nutzer müssen die Richtlinie zur unzulässigen Nutzung von generativer KI einhalten. Diese Richtlinie verbietet ausdrücklich die Generierung von Inhalten, die:
- Inhalte, die mit sexuellem Missbrauch oder Ausbeutung von Kindern in Zusammenhang stehen.
- Inhalte, die gewalttätigen Extremismus oder Terrorismus ermöglichen.
- Inhalte, die nicht einvernehmlich aufgenommene oder veröffentlichte intime Bilder ermöglichen. Inhalte, die selbstverletzendes Verhalten ermöglichen.
- Sexuell explizite Inhalte.
- Hassrede darstellen.
- Inhalte, die Belästigung oder Mobbing fördern.
Wenn das Modell einen unsicheren Prompt erhält, weigert es sich möglicherweise, ein Bild zu generieren. Der Prompt oder die generierte Antwort werden möglicherweise von unseren Sicherheitsfiltern blockiert.
-
Modell lehnt Anfrage ab: Wenn ein Prompt potenziell unsicher ist, kann das Modell die Verarbeitung der Anfrage ablehnen. In diesem Fall gibt das Modell in der Regel eine Textantwort aus, in der es heißt, dass es keine unsicheren Bilder generieren kann. Der
FinishReasonistSTOP. -
Blockierung durch Sicherheitsfilter:
-
Wenn der Prompt von einem Sicherheitsfilter als potenziell schädlich eingestuft wird, gibt die API
BlockedReasoninPromptFeedbackzurück. -
Wenn die Antwort von einem Sicherheitsfilter als potenziell schädlich eingestuft wird, enthält die API-Antwort ein
FinishReasonvonIMAGE_SAFETY,IMAGE_PROHIBITED_CONTENToder ähnlich.
-
Wenn der Prompt von einem Sicherheitsfilter als potenziell schädlich eingestuft wird, gibt die API
Kategorien von Sicherheitsfiltercodes
Je nachdem, welche Sicherheitsfilter Sie konfigurieren, kann Ihre Ausgabe einen Sicherheitsgrundcode wie den folgenden enthalten:
{
"raiFilteredReason": "ERROR_MESSAGE. Support codes: 56562880"
}Der angegebene Code entspricht einer bestimmten schädlichen Kategorie. Die Zuordnungen von Codes zu Kategorien sind:
| Fehlercode | Sicherheitskategorie | Beschreibung | Gefilterte Inhalte: Prompt-Eingabe oder Bildausgabe |
|---|---|---|---|
| 58061214 17301594 |
Untergeordnet | Er erkennt Inhalte für Kinder, die aufgrund der API-Anfrageeinstellungen oder der Zulassungsliste nicht zulässig sind. | Eingabe (Prompt): 58061214 Ausgabe (Bild): 17301594 |
| 29310472 15236754 |
Celebrity | Erkennt eine fotorealistische Darstellung einer berühmten Person in der Anfrage. | Eingabe (Prompt): 29310472 Ausgabe (Bild): 15236754 |
| 62263041 | Gefährliche Inhalte | Erkennt potenziell gefährliche Inhalte. | Eingabe (Prompt) |
| 57734940 22137204 |
Hass | Erkennt hasserfüllte Themen oder Inhalte. | Eingabe (Prompt): 57734940 Ausgabe (Bild): 22137204 |
| 74803281 29578790 42876398 |
Sonstiges | Erkennt andere verschiedene Sicherheitsprobleme mit der Anfrage. | Eingabe (Prompt): 42876398 Ausgabe (Bild): 29578790, 74803281 |
| 39322892 | Personen/Gesicht | Erkennt eine Person oder ein Gesicht, wenn dies aufgrund der Sicherheitseinstellungen für Anfragen nicht zugelassen ist. | Ausgabe (Bild) |
| 92201652 | Personenbezogene Daten | Erkennt personenidentifizierbare Informationen im Text, z. B. die Erwähnung einer Kreditkartennummer, Privatadressen oder anderer solcher Informationen. | Eingabe (Prompt) |
| 89371032 49114662 72817394 |
Unzulässige Inhalte | Erkennt die Anfrage unzulässiger Inhalte in der Anfrage. | Eingabe (Prompt): 89371032 Ausgabe (Bild): 49114662, 72817394 |
| 90789179 63429089 43188360 |
Sexuelle Inhalte | Er erkennt Inhalte sexueller Natur. | Eingabe (Prompt): 90789179 Ausgabe (Bild): 63429089, 43188360 |
| 78610348 | Schädlich | Erkennt schädliche Themen oder Inhalte im Text. | Eingabe (Prompt) |
| 61493863 56562880 |
Gewalt | Erkennt gewaltverherrlichende Inhalte in Bildern oder Text. | Eingabe (Prompt): 61493863 Ausgabe (Bild): 56562880 |
| 32635315 | Ordinär | Erkennt vulgäre Themen oder Inhalte aus dem Text. | Eingabe (Prompt) |
| 64151117 | Prominente oder Kinder | Erkennt fotorealistische Darstellungen von Prominenten oder Kindern, die gegen die Sicherheitsrichtlinien von Google verstoßen. | Eingabe (Prompt) Ausgabe (Bild) |
Nächste Schritte
Weitere Informationen zur Bildgenerierung mit Gemini finden Sie unter den folgenden Links: