Geração de imagens com o Gemini e IA responsável

Para garantir uma experiência segura e responsável, os recursos de geração de imagens da Vertex AI são equipados com uma abordagem de segurança em várias camadas. Isso foi projetado para evitar a criação de conteúdo inadequado, incluindo material sexualmente explícito, perigoso, violento, de incitação ao ódio ou tóxico.

Todos os usuários precisam obedecer à Política de uso proibido da IA generativa. Essa política proíbe estritamente a geração de conteúdo que:

  • Esteja relacionado a abuso ou exploração sexual infantil.
  • Facilite o extremismo violento ou o terrorismo.
  • Facilite imagens íntimas não consensuais. Facilite a automutilação.
  • seja sexualmente explícito.
  • Constitua discurso de ódio.
  • Promove assédio ou bullying.

Quando recebe um comando inadequado, o modelo pode se recusar a gerar uma imagem, ou o comando ou a resposta gerada podem ser bloqueados pelos nossos filtros de segurança.

  • Recusa do modelo: se um comando for potencialmente não seguro, o modelo poderá se recusar a processar a solicitação. Nesse caso, o modelo geralmente dá uma resposta de texto dizendo que não pode gerar imagens não seguras. O FinishReason é STOP.
  • Bloqueio do filtro de segurança:
    • Se o comando for identificado como potencialmente prejudicial por um filtro de segurança, a API vai retornar BlockedReason em PromptFeedback.
    • Se a resposta for identificada como potencialmente prejudicial por um filtro de segurança, a resposta da API vai incluir um FinishReason de IMAGE_SAFETY, IMAGE_PROHIBITED_CONTENT ou semelhante.

Categorias de código de filtro de segurança

Dependendo dos filtros de segurança configurados, a saída pode conter um código de motivo semelhante ao seguinte:

    {
      "raiFilteredReason": "ERROR_MESSAGE. Support codes: 56562880"
    }

O código listado corresponde a uma categoria nociva específica. Esses códigos para os mapeamentos de categoria são os seguintes:

Código do erro Categoria de segurança Descrição Conteúdo filtrado: entrada de comando ou saída de imagem
58061214
17301594
Filho Detecta conteúdo infantil onde ele não é permitido devido às configurações de solicitação da API ou à lista de permissões. input (prompt): 58061214
output (imagem): 17301594
29310472
15236754
Celebridade Detecta uma representação fotorrealista de uma celebridade na solicitação. input (prompt): 29310472
output (imagem): 15236754
62263041 Conteúdo perigoso Detecta conteúdo que é potencialmente perigoso por natureza. Entrada (prompt)
57734940
22137204
Incita o ódio Detecta conteúdo ou tópicos relacionados a incitação ao ódio. entrada (comando): 57734940
saída (imagem): 22137204
74803281
29578790
42876398
Outro Detecta outros problemas de segurança diversos com a solicitação. entrada (comando): 42876398
saída (imagem): 29578790, 74803281
39322892 Pessoas/Rosto Detecta uma pessoa ou um rosto quando isso não é permitido devido às configurações de segurança da solicitação. saída (imagem)
92201652 Informações pessoais Detecta informações de identificação pessoal (PII) no texto, como a menção de um número de cartão de crédito, endereços residenciais ou outras informações. Entrada (prompt)
89371032
49114662
72817394
Conteúdo proibido Detecta a solicitação de conteúdo proibido. input (prompt): 89371032
output (imagem): 49114662, 72817394
90789179
63429089
43188360
Conteúdo sexual Detecta conteúdo de natureza sexual. input (comando): 90789179
output (imagem): 63429089, 43188360
78610348 Tóxico Detecta temas ou conteúdo tóxico no texto. Entrada (prompt)
61493863
56562880
Violência Detecta conteúdo relacionado à violência na imagem ou no texto. input (comando): 61493863
output (imagem): 56562880
32635315 Vulgar Detecta temas ou conteúdo vulgar no texto. Entrada (prompt)
64151117 Celebridade ou criança Detecta representações fotorrealistas de uma celebridade ou de uma criança que violam as políticas de segurança do Google. entrada (comando)
saída (imagem)

A seguir

Consulte os links a seguir para mais informações sobre a geração de imagens do Gemini: