Generación de imágenes con Gemini y la IA responsable

Para garantizar una experiencia segura y responsable, las capacidades de generación de imágenes de Vertex AI están equipadas con un enfoque de seguridad de varias capas. Esto está diseñado para evitar la creación de contenido inapropiado, incluido material sexual explícito, peligroso, violento, que incita al odio o tóxico.

Todos los usuarios deben cumplir con la Política de Uso Prohibido de IA Generativas. Esta política prohíbe estrictamente la generación de contenido que cumpla con las siguientes características:

  • Se relaciona con la explotación o el abuso sexual infantil.
  • Facilita el extremismo violento o el terrorismo.
  • Facilita imágenes íntimas no consensuadas. Facilita la autolesión.
  • Es sexualmente explícito.
  • Constituye incitación al odio o a la violencia.
  • Promueve el acoso o el bullying.

Cuando se le proporciona una instrucción no segura, el modelo puede negarse a generar una imagen, o bien nuestros filtros de seguridad pueden bloquear la instrucción o la respuesta generada.

  • Rechazo del modelo: Si una instrucción es potencialmente insegura, es posible que el modelo se niegue a procesar la solicitud. Si esto sucede, el modelo suele dar una respuesta de texto en la que indica que no puede generar imágenes no seguras. El FinishReason es STOP.
  • Bloqueo del filtro de seguridad:
    • Si un filtro de seguridad identifica que la instrucción es potencialmente dañina, la API devuelve BlockedReason en PromptFeedback.
    • Si un filtro de seguridad identifica la respuesta como potencialmente dañina, la respuesta de la API incluye un FinishReason de IMAGE_SAFETY, IMAGE_PROHIBITED_CONTENT o similar.

Categorías de códigos de filtro de seguridad

Según los filtros de seguridad que configures, tu resultado puede contener un código de motivo de seguridad similar al siguiente:

    {
      "raiFilteredReason": "ERROR_MESSAGE. Support codes: 56562880"
    }

El código que se indica corresponde a una categoría dañina específica. Estas asignaciones de código a categorías son las siguientes:

Código de error Categoría de seguridad Descripción Contenido filtrado: instrucción de entrada o imagen de salida
58061214
17301594
Secundario Detecta contenido secundario en el que no se permite debido a la configuración de la solicitud a la API o a la lista de entidades permitidas. entrada (instrucción): 58061214
salida (imagen): 17301594
29310472
15236754
Celebridad Detecta una representación fotorrealista de una celebridad en la solicitud. entrada (instrucción): 29310472
salida (imagen): 15236754
62263041 Contenido peligroso Detecta el contenido que es potencialmente peligroso por naturaleza. entrada (instrucción)
57734940
22137204
Odio Detecta temas o contenido relacionados con el odio. entrada (instrucción): 57734940
salida (imagen): 22137204
74803281
29578790
42876398
Otro Detecta otros problemas de seguridad diversos con la solicitud. entrada (instrucción): 42876398
salida (imagen): 29578790, 74803281
39322892 Personas/rostro Detecta una persona o un rostro cuando no está permitido debido a la configuración de seguridad de la solicitud. salida (imagen)
92201652 Información personal Detecta información de identificación personal (PII) en el texto, como la mención de un número de tarjeta de crédito, direcciones particulares o demás información similar. entrada (instrucción)
89371032
49114662
72817394
Contenido prohibido Detecta la solicitud de contenido prohibido en la solicitud. entrada (instrucción): 89371032
salida (imagen): 49114662, 72817394
90789179
63429089
43188360
Contenido sexual Detecta contenido de naturaleza sexual. entrada (instrucción): 90789179
salida (imagen): 63429089, 43188360
78610348 Tóxico Detecta temas o contenido tóxico en el texto. entrada (instrucción)
61493863
56562880
Violencia Detecta contenido relacionado con la violencia en la imagen o el texto. entrada (instrucción): 61493863
salida (imagen): 56562880
32635315 Vulgar Detecta temas o contenido vulgar en el texto. entrada (instrucción)
64151117 Celebridad o niño Detecta representaciones fotorrealistas de celebridades o niños que incumplen las políticas de seguridad de Google. entrada (instrucción)
salida (imagen)

Próximos pasos

Consulta los siguientes vínculos para obtener más información sobre la generación de imágenes con Gemini: