Per garantire un'esperienza sicura e responsabile, le funzionalità di generazione di immagini di Vertex AI sono dotate di un approccio alla sicurezza a più livelli. Questa funzionalità è progettata per impedire la creazione di contenuti inappropriati, inclusi materiali sessualmente espliciti, pericolosi, violenti, che incitano all'odio o tossici.
Tutti gli utenti devono rispettare le Norme relative all'uso vietato dell'AI generativa. Queste norme vietano rigorosamente la generazione di contenuti che:
- Riguardano lo sfruttamento o abusi sessuali su minori.
- Promuovono l'estremismo violento o il terrorismo.
- Promuovono immagini intime non consensuali. Promuovono l'autolesionismo.
- Contenuti sessualmente espliciti.
- Costituisce incitamento all'odio.
- Promuove molestie o bullismo.
Se viene fornito un prompt non sicuro, il modello potrebbe rifiutarsi di generare un'immagine oppure il prompt o la risposta generata potrebbero essere bloccati dai nostri filtri di sicurezza.
-
Rifiuto del modello: se un prompt è potenzialmente non sicuro, il modello potrebbe rifiutarsi di
elaborare la richiesta. In questo caso, il modello di solito fornisce una risposta
testuale che indica che non può generare immagini non sicure. Il
FinishReasonèSTOP. -
Blocco del filtro di sicurezza:
-
Se il prompt viene identificato come potenzialmente dannoso da un filtro di sicurezza,
l'API restituisce
BlockedReasoninPromptFeedback. -
Se la risposta viene identificata come potenzialmente dannosa da un filtro di sicurezza,
la risposta API include un
FinishReasondiIMAGE_SAFETY,IMAGE_PROHIBITED_CONTENTo simili.
-
Se il prompt viene identificato come potenzialmente dannoso da un filtro di sicurezza,
l'API restituisce
Categorie di codici del filtro di sicurezza
A seconda dei filtri di sicurezza che configuri, l'output potrebbe contenere un codice motivo di sicurezza simile al seguente:
{
"raiFilteredReason": "ERROR_MESSAGE. Support codes: 56562880"
}Il codice elencato corrisponde a una categoria dannosa specifica. Queste mappature codice-categoria sono le seguenti:
| Codice di errore | Categoria di sicurezza | Descrizione | Contenuti filtrati: input del prompt o output dell'immagine |
|---|---|---|---|
| 58061214 17301594 |
Figlio | Rileva i contenuti per bambini nei casi in cui non sono consentiti a causa delle impostazioni o dell'inserimento nella lista consentita della richiesta API. | input (prompt): 58061214 output (immagine): 17301594 |
| 29310472 15236754 |
Celebrity | Rileva una rappresentazione fotorealistica di una celebrità nella richiesta. | input (prompt): 29310472 output (immagine): 15236754 |
| 62263041 | Contenuti pericolosi | Rileva contenuti potenzialmente pericolosi. | input (prompt) |
| 57734940 22137204 |
Incitamento all'odio | Rileva argomenti o contenuti correlati all'odio. | input (prompt): 57734940 output (immagine): 22137204 |
| 74803281 29578790 42876398 |
Altro | Rileva altri problemi di sicurezza vari relativi alla richiesta. | input (prompt): 42876398 output (immagine): 29578790, 74803281 |
| 39322892 | Persone/Volto | Rileva una persona o un volto quando non è consentito a causa delle impostazioni di sicurezza delle richieste. | output (immagine) |
| 92201652 | Informazioni personali | Rileva informazioni che consentono l'identificazione personale (PII) nel testo, ad esempio la menzione di un numero di carta di credito, indirizzi di casa o altre informazioni di questo tipo. | input (prompt) |
| 89371032 49114662 72817394 |
Contenuti vietati | Rileva la richiesta di contenuti vietati nella richiesta. | input (prompt): 89371032 output (immagine): 49114662, 72817394 |
| 90789179 63429089 43188360 |
Contenuti di natura sessuale | Rileva contenuti di natura sessuale. | input (prompt): 90789179 output (immagine): 63429089, 43188360 |
| 78610348 | Contenuti tossici | Rileva argomenti o contenuti dannosi nel testo. | input (prompt) |
| 61493863 56562880 |
Violenza | Rileva contenuti correlati alla violenza dall'immagine o dal testo. | input (prompt): 61493863 output (immagine): 56562880 |
| 32635315 | Volgare | Rileva argomenti o contenuti volgari dal testo. | input (prompt) |
| 64151117 | Celebrità o bambino | Rileva la rappresentazione fotorealistica di una celebrità o di un bambino che viola le norme di Google sulla sicurezza. | input (prompt) output (immagine) |
Passaggi successivi
Per saperne di più sulla generazione di immagini con Gemini, consulta i seguenti link: