Model Armor s'intègre aux Google Cloud services pour sécuriser les interactions avec l' IA et les grands modèles de langage (LLM). Model Armor identifie et signale les cas potentiels de non-respect des règles, et peut bloquer activement les actions en fonction des évaluations de sécurité.
Model Armor s'intègre à différents Google Cloud services :
Apigee
L'intégration vous permet d'utiliser les fonctionnalités de protection de l'IA de Model Armor directement dans la couche de passerelle API Apigee. Vous configurez des règles Model Armor spécifiques dans vos proxys d'API Apigee. Lorsqu'un appel d'API passe par un proxy Apigee qui comporte ces règles, Apigee envoie les prompts et les réponses au service Model Armor pour inspection. Pour en savoir plus, consultez Intégrer à Apigee.
Gemini Enterprise
Model Armor peut être intégré directement à Gemini Enterprise à l'aide de modèles. Gemini Enterprise achemine les interactions entre les utilisateurs et les agents, ainsi que les LLM sous-jacents via Model Armor. Cela signifie que les prompts des utilisateurs ou des agents, ainsi que les réponses générées par les LLM, sont inspectés par Model Armor avant d'être présentés à l'utilisateur. Pour en savoir plus, consultez Intégrer à Gemini Enterprise.
Google et Google Cloud serveurs MCP
Model Armor peut être configuré pour protéger vos données et sécuriser le contenu lorsque vous envoyez des requêtes aux Google Cloud services qui exposent des outils et des serveurs MCP (Model Context Protocol). Model Armor contribue à sécuriser vos applications d'IA agentiques en désinfectant les appels et les réponses des outils MCP à l'aide des paramètres de plancher. Ce processus atténue les risques tels que l'injection de prompt et la divulgation de données sensibles. Pour en savoir plus, consultez Intégrer à Google et Google Cloud serveurs MCP.
Extensions de service
Model Armor peut être intégré aux Google Cloud services de mise en réseau via des extensions de service. Les extensions de service vous permettent d'intégrer des services internes (Google Cloud services) ou externes (gérés par l'utilisateur) pour traiter le trafic. Vous pouvez configurer une extension de service sur les équilibreurs de charge d'application pour filtrer le trafic réseau pour diverses interactions d'IA, par exemple avec des agents et des serveurs MCP. Vous pouvez également utiliser des extensions de service avec des passerelles d'inférence GKE pour filtrer le trafic vers et depuis un cluster GKE. Cela permet de s'assurer que toutes les interactions d'IA qui transitent par l'équilibreur de charge sont protégées par Model Armor. Pour en savoir plus, consultez Intégration aux Google Cloud services de mise en réseau.
Vertex AI
Model Armor peut être intégré directement à Vertex AI à l'aide de
paramètres de plancher ou de
modèles.
Cette intégration filtre les requêtes et les réponses du modèle Gemini, en bloquant celles qui ne respectent pas les paramètres de plancher. Cette intégration assure la protection des prompts et des réponses dans l'API Gemini dans Vertex AI pour la méthode generateContent. Vous devez activer Cloud Logging pour obtenir de la visibilité sur les résultats de désinfection des prompts et des réponses. Pour en savoir plus, consultez
Intégrer à Vertex AI.
Avant de commencer
Activer les API
Vous devez activer l'API Model Armor avant de pouvoir utiliser Model Armor.
Console
Activer l'API Model Armor
Rôles requis pour activer les API
Pour activer les API, vous avez besoin du rôle IAM Administrateur d'utilisation du service (
roles/serviceusage.serviceUsageAdmin), qui contient l'autorisationserviceusage.services.enable. Découvrez comment attribuer des rôles.Sélectionnez le projet dans lequel vous souhaitez activer Model Armor.
gcloud
Avant de commencer, suivez ces étapes à l'aide de la Google Cloud CLI avec l'API Model Armor :
Dans la Google Cloud console, activez Cloud Shell.
En bas de la Google Cloud console, une session Cloud Shell démarre et affiche une invite de ligne de commande. Cloud Shell est un environnement shell dans lequel Google Cloud CLI est déjà installé, et dans lequel des valeurs sont déjà définies pour votre projet actuel. L'initialisation de la session peut prendre quelques secondes.
Définissez le remplacement du point de terminaison de l'API à l'aide de la gcloud CLI.
Définir le remplacement du point de terminaison de l'API à l'aide de la gcloud CLI
Cette étape n'est requise que si vous utilisez la gcloud CLI pour activer l'API Model Armor. Vous devez définir manuellement le remplacement du point de terminaison de l'API pour vous assurer que la gcloud CLI achemine correctement les requêtes vers le service Model Armor.
Exécutez la commande suivante pour définir le point de terminaison de l'API pour le service Model Armor.
gcloud config set api_endpoint_overrides/modelarmor "https://modelarmor.LOCATION.rep.googleapis.com/"
Remplacez LOCATION par la région dans laquelle vous souhaitez utiliser Model Armor.
Gérer le quota
Model Armor utilise un système de quotas pour garantir une utilisation équitable et protéger la stabilité du système. Le quota par défaut pour l'API Model Armor est de 1 200 RPM par projet. Vous pouvez appliquer une valeur comprise entre 0 et 1 200 RPM par projet. Pour demander un ajustement, consultez Demander un ajustement de quota. Si vous avez besoin d'un quota supérieur à celui par défaut, contactez Cloud Customer Care.
Le quota Model Armor nécessite des considérations importantes lors de l'intégration à d'autres services. Le quota principal avec lequel vous interagissez est le nombre de requêtes API par minute et par projet.
- Quota par défaut de Model Armor : lorsqu'un service effectue un appel à l'API Model Armor pour analyse (par exemple, pour vérifier des prompts ou des réponses), cela consomme le quota de l'API Model Armor de votre projet.
- Quota des services d'intégration : le quota Model Armor est distinct de tous les quotas associés aux services d'intégration. Vous devez vous assurer que le quota est suffisant pour tous les services de votre chemin de requête. Tout appel effectué à l'API Model Armor pour désinfecter le contenu de votre application est comptabilisé dans les limites de quota de l'API Model Armor.
Découvrir les situations de dépassement de quota
Vous atteignez les limites de quota Model Armor si les journaux de votre application affichent des erreurs de Model Armor, généralement des erreurs HTTP 429 RESOURCE_EXHAUSTED, qui indiquent un nombre excessif de requêtes.
Estimer les besoins en quota
Pour déterminer le quota Model Armor à demander :
- Estimez le nombre maximal de requêtes par minute que vos services enverront à Model Armor.
- Déterminez le nombre de fois que Model Armor est appelé par interaction utilisateur avec votre service (par exemple, une fois pour le prompt et une fois pour la réponse).
- Tenez compte du nombre maximal d'utilisateurs ou de sessions simultanés.
- Demandez un quota avec une marge raisonnable (par exemple, 20 à 30 % au-dessus de votre pic prévu) pour gérer les pics inattendus.
- Commencez par votre meilleure estimation, surveillez attentivement l'utilisation après le lancement et demandez d'autres ajustements si nécessaire.
Par exemple, si vous prévoyez 500 utilisateurs par minute et que chaque interaction utilisateur appelle Model Armor deux fois (prompt et réponse), vous avez besoin d'au moins 1 000 RPM. En tenant compte d'une marge, demander 1 200 à 1 300 RPM est un bon point de départ.
Remarques
- Assurez-vous de surveiller et de gérer les quotas pour les autres services. Si vous manquez de quota pour d'autres services, cela aura un impact sur votre application, même si vous disposez d'un quota Model Armor suffisant.
- Mettez en œuvre des nouvelles tentatives côté client avec un intervalle exponentiel entre les tentatives dans la configuration de votre application pour gérer les problèmes de quota temporaires ou d'autres erreurs pouvant être réessayées. Pour en savoir plus, consultez Stratégie de nouvelle tentative.
Intégrer à l'aide de l'API REST
Lorsque vous utilisez l'API REST pour l'intégration, Model Armor ne fonctionne que comme détecteur à l'aide de modèles. Il identifie et signale les cas potentiels de non-respect des règles en fonction de modèles prédéfinis, plutôt que de les empêcher activement. Lors de l'intégration à l'API Model Armor, votre application peut utiliser la sortie de Model Armor pour bloquer ou autoriser des actions en fonction des résultats de l'évaluation de sécurité fournis. L'API Model Armor renvoie des informations sur les menaces potentielles ou les cas de non-respect des règles liés à votre trafic d'API, en particulier dans le cas des interactions IA/LLM. Votre application peut appeler l'API Model Armor et utiliser les informations reçues dans la réponse pour prendre une décision et agir en fonction de votre logique personnalisée prédéfinie.
Options lors de l'intégration de Model Armor
Model Armor propose les options d'intégration suivantes. Chaque option offre des fonctionnalités et des capacités différentes.
| Option d'intégration | Configurer les détections | Inspecter uniquement | Inspecter et bloquer | Couverture du modèle et du cloud |
|---|---|---|---|---|
| Apigee | Uniquement à l'aide de modèles | Oui | Oui | Tous les modèles et tous les clouds2 |
| Gemini Enterprise | Uniquement à l'aide de modèles | Oui | Oui | Tous les modèles et tous les clouds2 |
| Google et Google Cloud serveurs MCP (aperçu) | Uniquement à l'aide des paramètres de plancher | Oui | Oui | Google et Google Cloud serveurs MCP |
| Extensions de service | Uniquement à l'aide de modèles | Oui | Oui | Modèles au format OpenAI1, agents et serveurs MCP sur tous les clouds2 |
| Vertex AI | À l'aide des paramètres de plancher ou des modèles | Oui | Oui | Modèles Gemini (non-streaming) |
1 Plusieurs modèles populaires, y compris Anthropic Claude, Mistral AI et Grok, sont compatibles avec les spécifications OpenAI. Ces modèles sont généralement déployés à l'aide de moteurs d'inférence tels que vLLM, qui fournissent la couche d'API compatible avec OpenAI nécessaire. vLLM est compatible avec un large éventail de modèles, y compris la série Meta Llama, DeepSeek, les familles Mistral et Mixtral, et Gemma.
2 Inclut d'autres clouds publics tels qu'AWS et Azure.
Avec l'option d'intégration Vertex AI, Model Armor fournit une application intégrée à l'aide de paramètres de plancher ou de modèles. Cela signifie que Model Armor applique activement les règles en intervenant directement dans le processus sans nécessiter de modifications du code de votre application.
Les intégrations des extensions de service et de Gemini Enterprise n'utilisent que des modèles pour l'application intégrée des règles. Cela signifie que Model Armor peut appliquer des règles directement sans que vous ayez à modifier le code de l'application à la fois dans les extensions de service et lors des interactions utilisateur ou agent dans les instances Gemini Enterprise.
L'intégration de Model Armor et de Gemini Enterprise ne désinfecte que le prompt utilisateur initial et la réponse finale de l'agent ou du modèle. Les étapes intermédiaires qui se produisent entre le prompt utilisateur initial et la génération de la réponse finale ne sont pas couvertes par cette intégration.
Model Armor dans Security Command Center
Model Armor inspecte les prompts et les réponses des LLM pour détecter diverses menaces, y compris l'injection de prompt, les tentatives de jailbreak, les URL malveillantes et les contenus nuisibles. Lorsque Model Armor détecte une violation d'un paramètre de plancher configuré, il bloque le prompt ou la réponse et envoie un résultat à Security Command Center. Pour en savoir plus, consultez Résultats Model Armor.