IA responsable para Veo en la generación de videos de Vertex AI

Veo en Vertex AI se diseñó teniendo en cuenta los principios de la IA de Google. Sin embargo, es importante que los desarrolladores comprendan cómo probar e implementar los modelos de Google de manera segura y responsable. Para ayudar a los desarrolladores, Veo en Vertex AI tiene funciones de seguridad integradas que ayudan a los clientes a bloquear los resultados potencialmente dañinos dentro de sus casos de uso. Para obtener más información, consulta filtros de seguridad.

Recomendamos a los clientes que utilicen las prácticas recomendadas de equidad, interpretabilidad, privacidad y seguridad cuando desarrollen aplicaciones de IA. Para obtener más información, consulta The People + AI Guidebook.

Filtros de seguridad

Veo en Vertex AI ofrece varias formas de ingresar instrucciones para generar videos, como texto, videos e imágenes. Las instrucciones que se proporcionan a Veo se evalúan en función de una lista de filtros de seguridad, que incluyen categorías dañinas (por ejemplo, violence, sexual, derogatory y toxic). Estos filtros de seguridad tienen como objetivo filtrar las imágenes y los videos de entrada que incumplen la Google CloudPolítica de Uso Aceptable de la Plataforma, la Política de Uso Prohibido de IA Generativa o Nuestros Principios de la IA.

Si el modelo responde a una solicitud con un mensaje de error, como The prompt couldn't be submitted o it might violate our policies, la entrada activa un filtro de seguridad. Si se muestran menos videos de los solicitados, algunos resultados generados se bloquean por no cumplir con los requisitos de seguridad.

Categorías de códigos de filtro de seguridad

Según los filtros de seguridad que configures, tu resultado puede contener un código de seguridad similar al siguiente: "Veo no pudo generar videos porque la imagen de entrada incumple los lineamientos de uso de Vertex AI. Si crees que se trata de un error, envía comentarios. Códigos de asistencia: 15236754"

El código que se indica en el resultado corresponde a una categoría dañina específica.

En la siguiente tabla, se muestran las asignaciones de códigos de asistencia a categorías de seguridad:

Código de asistencia Categoría de seguridad Descripción
58061214
17301594
Secundario Rechaza las solicitudes para generar contenido que represente a niños si personGeneration no está establecido en "allow_all" o si el proyecto no está en la lista de entidades permitidas para esta función.
29310472
15236754
Celebridad Rechaza las solicitudes para generar una representación fotorrealista de una persona destacada o si el proyecto no está en la lista de entidades permitidas para esta función.
64151117
42237218
Incumplimiento de seguridad del video Se trata de un incumplimiento general de seguridad.
62263041 Contenido peligroso Contenido potencialmente peligroso.
57734940
22137204
Odio Contenido relacionado con el odio
74803281
29578790
42876398
Otro Problemas de seguridad diversos con la solicitud
89371032
49114662
63429089
72817394
Contenido prohibido Contenido prohibido relacionado con la seguridad infantil
35561574
35561575
Contenido de terceros Barreras de protección relacionadas con el contenido de terceros.
90789179
43188360
Contenido sexual Contenido sexual o provocativo
78610348 Tóxico Contenido tóxico
61493863
56562880
Violencia Contenido violento
32635315 Vulgar Contenido vulgar

¿Qué sigue?