Veo sur Vertex AI est conçu en appliquant les principes de l'IA de Google. Cependant, il est important que les développeurs comprennent comment tester et déployer les modèles de Google de manière sûre et responsable. Pour aider les développeurs, Veo sur Vertex AI dispose de fonctionnalités de sécurité intégrées qui aident les clients à bloquer les sorties potentiellement dangereuses dans leurs cas d'utilisation. Pour en savoir plus, consultez Filtres de sécurité.
Nous encourageons les clients à utiliser les bonnes pratiques d'équité, d'interprétabilité, de confidentialité et de sécurité lorsqu'ils développent des applications d'IA. Pour en savoir plus, consultez le Guidebook People + AI.
Filtres de sécurité
Veo sur Vertex AI propose plusieurs façons de saisir des requêtes pour générer des vidéos, y compris du texte, des vidéos et des images. Les requêtes fournies à Veo sont évaluées par rapport à une liste de filtres de sécurité, qui incluent des catégories dangereuses (par exemple, violence, sexual, derogatory et toxic). Ces filtres de sécurité visent à filtrer les images et les vidéos saisies qui enfreignent le Règlement sur l'utilisation acceptable de la plate-formeGoogle Cloud, la Politique d'utilisation interdite de l'IA générative ou nos Principes de l'IA.
Si le modèle répond à une requête avec un message d'erreur, tel que The
prompt couldn't be submitted ou it might violate our
policies, cela signifie que l'entrée déclenche un filtre de sécurité. Si le nombre de vidéos renvoyées est inférieur à celui demandé, certains résultats générés sont bloqués pour non-respect des exigences de sécurité.
Catégories de codes de filtre de sécurité
Selon les filtres de sécurité que vous configurez, votre sortie peut contenir un code de sécurité semblable à celui-ci : "Veo n'a pas pu générer de vidéos, car l'image d'entrée ne respecte pas les consignes d'utilisation de Vertex AI. Si vous pensez qu'il s'agit d'une erreur, envoyez vos commentaires. Codes d'assistance : 15236754"
Le code indiqué dans le résultat correspond à une catégorie de contenu nuisible spécifique.
Le tableau suivant affiche les mappages entre les codes d'assistance et les catégories de sécurité :
| Code d'assistance | Catégorie de sécurité | Description |
|---|---|---|
5806121417301594
|
Enfant |
Refuse les demandes de génération de contenu représentant des enfants si personGeneration n'est pas défini sur "allow_all" ou si le projet ne figure pas sur la liste d'autorisation pour cette fonctionnalité.
|
2931047215236754
|
Célébrité | Rejette les demandes de génération d'une représentation photoréaliste d'une personne célèbre ou si le projet ne figure pas sur la liste d'autorisation pour cette fonctionnalité. |
6415111742237218
|
Atteinte à la sécurité des vidéos | Atteinte générale à la sécurité. |
62263041 |
Contenu dangereux | Contenu potentiellement dangereux. |
5773494022137204
|
Contenu haineux | Contenus incitant à la haine |
748032812957879042876398
|
Autre | Problèmes de sécurité divers liés à la requête |
89371032491146626342908972817394
|
Contenu interdit | Contenus interdits liés à la sécurité des enfants. |
3556157435561575
|
Contenus tiers | Consignes relatives au contenu tiers. |
9078917943188360
|
Contenu à caractère sexuel | Contenu à caractère sexuel ou suggestif |
78610348 |
Contenu toxique | Contenu toxique |
6149386356562880
|
Violence | Contenu violent |
32635315 |
Contenu vulgaire | Contenu vulgaire. |
Étapes suivantes
En savoir plus sur l'IA responsable pour les grands modèles de langage (LLM)
En savoir plus sur les recommandations de Google pour les pratiques d'IA responsables
Consultez notre blog, Un programme partagé pour la IA responsable#39;IA.