Para garantizar una experiencia segura y responsable, las capacidades de generación de imágenes de Vertex AI están equipadas con un enfoque de seguridad de varias capas. Esto está diseñado para evitar la creación de contenido inapropiado, incluido material sexual explícito, peligroso, violento, que incita al odio o tóxico.
Todos los usuarios deben cumplir con la Política de Uso Prohibido de IA Generativas. Esta política prohíbe estrictamente la generación de contenido que cumpla con las siguientes características:
- Se relaciona con la explotación o el abuso sexual infantil.
- Facilita el extremismo violento o el terrorismo.
- Facilita imágenes íntimas no consensuadas. Facilita la autolesión.
- Es sexualmente explícito.
- Constituye incitación al odio o a la violencia.
- Promueve el acoso o el bullying.
Cuando se le proporciona una instrucción no segura, el modelo puede negarse a generar una imagen, o bien nuestros filtros de seguridad pueden bloquear la instrucción o la respuesta generada.
-
Rechazo del modelo: Si una instrucción es potencialmente insegura, es posible que el modelo se niegue a
procesar la solicitud. Si esto sucede, el modelo suele dar una respuesta de texto en la que indica que no puede generar imágenes no seguras. El
FinishReasonesSTOP. -
Bloqueo del filtro de seguridad:
-
Si un filtro de seguridad identifica que la instrucción es potencialmente dañina, la API devuelve
BlockedReasonenPromptFeedback. -
Si un filtro de seguridad identifica la respuesta como potencialmente dañina, la respuesta de la API incluye un
FinishReasondeIMAGE_SAFETY,IMAGE_PROHIBITED_CONTENTo similar.
-
Si un filtro de seguridad identifica que la instrucción es potencialmente dañina, la API devuelve
Categorías de códigos de filtro de seguridad
Según los filtros de seguridad que configures, tu resultado puede contener un código de motivo de seguridad similar al siguiente:
{
"raiFilteredReason": "ERROR_MESSAGE. Support codes: 56562880"
}El código que se indica corresponde a una categoría dañina específica. Estas asignaciones de código a categorías son las siguientes:
| Código de error | Categoría de seguridad | Descripción | Contenido filtrado: instrucción de entrada o imagen de salida |
|---|---|---|---|
| 58061214 17301594 |
Secundario | Detecta contenido secundario en el que no se permite debido a la configuración de la solicitud a la API o a la lista de entidades permitidas. | entrada (instrucción): 58061214 salida (imagen): 17301594 |
| 29310472 15236754 |
Celebridad | Detecta una representación fotorrealista de una celebridad en la solicitud. | entrada (instrucción): 29310472 salida (imagen): 15236754 |
| 62263041 | Contenido peligroso | Detecta el contenido que es potencialmente peligroso por naturaleza. | entrada (instrucción) |
| 57734940 22137204 |
Odio | Detecta temas o contenido relacionados con el odio. | entrada (instrucción): 57734940 salida (imagen): 22137204 |
| 74803281 29578790 42876398 |
Otro | Detecta otros problemas de seguridad diversos con la solicitud. | entrada (instrucción): 42876398 salida (imagen): 29578790, 74803281 |
| 39322892 | Personas/rostro | Detecta una persona o un rostro cuando no está permitido debido a la configuración de seguridad de la solicitud. | salida (imagen) |
| 92201652 | Información personal | Detecta información de identificación personal (PII) en el texto, como la mención de un número de tarjeta de crédito, direcciones particulares o demás información similar. | entrada (instrucción) |
| 89371032 49114662 72817394 |
Contenido prohibido | Detecta la solicitud de contenido prohibido en la solicitud. | entrada (instrucción): 89371032 salida (imagen): 49114662, 72817394 |
| 90789179 63429089 43188360 |
Contenido sexual | Detecta contenido de naturaleza sexual. | entrada (instrucción): 90789179 salida (imagen): 63429089, 43188360 |
| 78610348 | Tóxico | Detecta temas o contenido tóxico en el texto. | entrada (instrucción) |
| 61493863 56562880 |
Violencia | Detecta contenido relacionado con la violencia en la imagen o el texto. | entrada (instrucción): 61493863 salida (imagen): 56562880 |
| 32635315 | Vulgar | Detecta temas o contenido vulgar en el texto. | entrada (instrucción) |
| 64151117 | Celebridad o niño | Detecta representaciones fotorrealistas de celebridades o niños que incumplen las políticas de seguridad de Google. | entrada (instrucción) salida (imagen) |
Próximos pasos
Consulta los siguientes vínculos para obtener más información sobre la generación de imágenes con Gemini: