O Veo no Vertex AI foi concebido tendo em conta os princípios da IA da Google. No entanto, é importante que os programadores saibam como testar e implementar os modelos da Google de forma segura e responsável. Para ajudar os programadores, o Veo na Vertex AI tem funcionalidades de segurança incorporadas para ajudar os clientes a bloquear resultados potencialmente prejudiciais nos respetivos exemplos de utilização. Para mais informações, consulte os filtros de segurança.
Incentivamos os clientes a usar as práticas recomendadas de imparcialidade, interpretabilidade, privacidade e segurança ao desenvolver aplicações de IA. Para mais informações, consulte o Guia de IA + pessoas.
Filtros de segurança
O Veo na Vertex AI oferece várias formas de introduzir comandos para gerar vídeos, incluindo texto, vídeo e imagens. Os comandos fornecidos ao Veo são avaliados com base numa lista de filtros de segurança, que incluem categorias prejudiciais (por exemplo, violence
, sexual
, derogatory
e toxic
). Estes filtros de segurança destinam-se a filtrar imagens e vídeos de entrada que violem a Google CloudPolítica de Utilização Aceitável da Plataforma, a Política de Utilização Proibida da IA Generativa ou os Nossos Princípios de IA.
Se o modelo responder a um pedido com uma mensagem de erro, como The
prompt couldn't be submitted
ou it might violate our
policies
, significa que a entrada está a acionar um filtro de segurança. Se forem devolvidos menos vídeos do que o pedido, significa que alguns resultados gerados estão a ser bloqueados por não cumprirem os requisitos de segurança.
Categorias de códigos de filtros de segurança
Consoante os filtros de segurança que configurar, a saída pode conter um código de segurança semelhante ao seguinte: "O Veo não conseguiu gerar vídeos porque a imagem de entrada viola as diretrizes de utilização da Vertex AI. Se considerar que se trata de um erro, envie feedback. Códigos de apoio técnico: 15236754"
O código apresentado no resultado corresponde a uma categoria prejudicial específica.
A tabela seguinte apresenta o código de apoio técnico para mapeamentos de categorias de segurança:
Código de apoio técnico | Categoria de segurança | Descrição |
---|---|---|
58061214 17301594
|
Filho |
Rejeita pedidos para gerar conteúdo que represente crianças se
personGeneration não estiver definido como "allow_all"
ou se o projeto não estiver na lista de autorizações para esta funcionalidade.
|
29310472 15236754
|
Celebridade | Rejeita pedidos para gerar uma representação fotorrealista de uma pessoa proeminente ou se o projeto não estiver na lista de autorizações para esta funcionalidade. |
64151117 42237218
|
Violação de segurança de vídeo | Deteta conteúdo que constitui uma violação de segurança. |
62263041 |
Conteúdo perigoso | Deteta conteúdo potencialmente perigoso por natureza. |
57734940 22137204
|
Ódio | Deteta tópicos ou conteúdo relacionados com incitamento ao ódio. |
74803281 29578790 42876398
|
Outro | Deteta outros problemas de segurança diversos com o pedido |
92201652 |
Informações pessoais | Deteta informações de identificação pessoal (IIP) no texto, como a menção de um número de cartão de crédito, moradas de casa ou outras informações semelhantes. |
89371032 49114662 72817394
|
Conteúdo proibido | Deteta o pedido de conteúdo proibido no pedido. |
90789179 63429089 43188360
|
Sexual | Deteta conteúdo de natureza sexual. |
78610348 |
Tóxico | Deteta tópicos ou conteúdo tóxicos no texto. |
61493863 56562880
|
Violência | Deteta conteúdo relacionado com violência no vídeo ou texto. |
32635315 |
Vulgar | Deteta tópicos ou conteúdo vulgar no texto. |
O que se segue?
Saiba mais sobre a IA responsável para modelos de linguagem (conteúdo extenso) (MDIs/CEs)
Saiba mais sobre as recomendações da Google para práticas de IA responsável
Leia o nosso blogue, Uma agenda partilhada para o progresso da IA responsável