IA responsável para o Veo na geração de vídeos do Vertex AI

O Veo no Vertex AI foi concebido tendo em conta os princípios da IA da Google. No entanto, é importante que os programadores saibam como testar e implementar os modelos da Google de forma segura e responsável. Para ajudar os programadores, o Veo na Vertex AI tem funcionalidades de segurança incorporadas para ajudar os clientes a bloquear resultados potencialmente prejudiciais nos respetivos exemplos de utilização. Para mais informações, consulte os filtros de segurança.

Incentivamos os clientes a usar as práticas recomendadas de imparcialidade, interpretabilidade, privacidade e segurança ao desenvolver aplicações de IA. Para mais informações, consulte o Guia de IA + pessoas.

Filtros de segurança

O Veo na Vertex AI oferece várias formas de introduzir comandos para gerar vídeos, incluindo texto, vídeo e imagens. Os comandos fornecidos ao Veo são avaliados com base numa lista de filtros de segurança, que incluem categorias prejudiciais (por exemplo, violence, sexual, derogatory e toxic). Estes filtros de segurança destinam-se a filtrar imagens e vídeos de entrada que violem a Google CloudPolítica de Utilização Aceitável da Plataforma, a Política de Utilização Proibida da IA Generativa ou os Nossos Princípios de IA.

Se o modelo responder a um pedido com uma mensagem de erro, como The prompt couldn't be submitted ou it might violate our policies, significa que a entrada está a acionar um filtro de segurança. Se forem devolvidos menos vídeos do que o pedido, significa que alguns resultados gerados estão a ser bloqueados por não cumprirem os requisitos de segurança.

Categorias de códigos de filtros de segurança

Consoante os filtros de segurança que configurar, a saída pode conter um código de segurança semelhante ao seguinte: "O Veo não conseguiu gerar vídeos porque a imagem de entrada viola as diretrizes de utilização da Vertex AI. Se considerar que se trata de um erro, envie feedback. Códigos de apoio técnico: 15236754"

O código apresentado no resultado corresponde a uma categoria prejudicial específica.

A tabela seguinte apresenta o código de apoio técnico para mapeamentos de categorias de segurança:

Código de apoio técnico Categoria de segurança Descrição
58061214
17301594
Filho Rejeita pedidos para gerar conteúdo que represente crianças se personGeneration não estiver definido como "allow_all" ou se o projeto não estiver na lista de autorizações para esta funcionalidade.
29310472
15236754
Celebridade Rejeita pedidos para gerar uma representação fotorrealista de uma pessoa proeminente ou se o projeto não estiver na lista de autorizações para esta funcionalidade.
64151117
42237218
Violação de segurança de vídeo Deteta conteúdo que constitui uma violação de segurança.
62263041 Conteúdo perigoso Deteta conteúdo potencialmente perigoso por natureza.
57734940
22137204
Ódio Deteta tópicos ou conteúdo relacionados com incitamento ao ódio.
74803281
29578790
42876398
Outro Deteta outros problemas de segurança diversos com o pedido
92201652 Informações pessoais Deteta informações de identificação pessoal (IIP) no texto, como a menção de um número de cartão de crédito, moradas de casa ou outras informações semelhantes.
89371032
49114662
72817394
Conteúdo proibido Deteta o pedido de conteúdo proibido no pedido.
90789179
63429089
43188360
Sexual Deteta conteúdo de natureza sexual.
78610348 Tóxico Deteta tópicos ou conteúdo tóxicos no texto.
61493863
56562880
Violência Deteta conteúdo relacionado com violência no vídeo ou texto.
32635315 Vulgar Deteta tópicos ou conteúdo vulgar no texto.

O que se segue?