Protéger les applications d'IA avec Model Armor

Model Armor est un service Google Cloud conçu pour améliorer la sécurité de vos applications d'IA, en particulier celles qui utilisent des grands modèles de langage (LLM). Il fonctionne en inspectant les requêtes envoyées à vos modèles et les réponses générées par ceux-ci, ce qui vous aide à atténuer les risques et à appliquer des pratiques d'IA responsables.

Configurer les modèles

Définissez la façon dont Model Armor doit filtrer le contenu en créant et en utilisant des modèles Model Armor. Un modèle est un ensemble de configurations réutilisables dans lequel vous spécifiez les filtres à activer, les niveaux de confiance pour les filtres et le type d'application pour chaque filtre. Pour en savoir plus, consultez Créer et gérer des modèles.

Configurer les paramètres de plancher

Pour garantir un niveau de protection de base, les administrateurs de sécurité peuvent configurer des paramètres de plancher au niveau de l'organisation, du dossier ou du projet. Ces paramètres imposent des exigences minimales en matière de filtres auxquelles tous les modèles Model Armor créés dans ce champ d'application doivent se conformer, ce qui permet d'éviter les configurations trop permissives. Pour en savoir plus, consultez Configurer les paramètres des étages.

Nettoyer les requêtes et les réponses

Lorsqu'un utilisateur envoie une requête à votre application, celle-ci l'envoie d'abord à Model Armor. Model Armor traite la requête à l'aide des filtres activés dans le modèle et renvoie une réponse indiquant si des cas de non-respect des règles ont été détectés, ainsi que des résultats détaillés pour chaque filtre. La logique de votre application décide ensuite de la procédure à suivre.

Lorsqu'un LLM génère une réponse, votre application l'envoie à Model Armor avant de l'afficher à l'utilisateur. Model Armor examine la sortie du LLM à l'aide des configurations de filtre définies dans le modèle et renvoie les résultats de l'analyse. Votre application décide ensuite d'afficher ou non la réponse à l'utilisateur, en la bloquant potentiellement si des cas de non-respect sont détectés.

Pour en savoir plus, consultez Assainir les requêtes et les réponses.

Étapes suivantes