Aperçu

Model Armor s'intègre aux Google Cloud services pour sécuriser les interactions avec l' IA et les grands modèles de langage (LLM). Model Armor identifie et signale les potentielles violations de règles, et peut bloquer activement les actions en fonction des évaluations de sécurité.

Modalités compatibles

Dans les intégrations de Model Armor avec d'autres Google Cloud services, Model Armor n'analyse que les entrées et sorties textuelles vers et depuis les LLM, les agents et les Google Cloud serveurs MCP. Les autres modalités ne sont pas analysées, à l'exception des documents dans l' intégration Gemini Enterprise. Pour en savoir plus sur les types de documents compatibles, consultez la section Analyse de documents.

Services compatibles

Cette section décrit les Google Cloud services que vous pouvez intégrer à Model Armor.

Passerelle d'agent

Intégrez Model Armor à Agent Gateway pour appliquer des règles de sécurité au trafic entrant et sortant de tous les agents régis par la passerelle. Cette intégration permet d'inspecter et de bloquer en ligne les contenus malveillants ou non conformes. Elle vise à améliorer la sécurité des workflows et le respect des consignes de sécurité de l'organisation, sans avoir à modifier le code de l'application. Cette protection s'applique aux protocoles compatibles sur les chemins d'entrée (vers l'agent) et de sortie (depuis l'agent). Pour en savoir plus, consultez la section Intégrer à Agent Gateway.

Apigee

L'intégration vous permet d'utiliser les fonctionnalités de protection de l'IA de Model Armor directement dans la couche de passerelle d'API Apigee. Vous configurez des règles Model Armor spécifiques dans vos proxys d'API Apigee. Lorsqu'un appel d'API passe par un proxy Apigee qui comporte ces règles, Apigee envoie les prompts et les réponses au service Model Armor pour inspection. Pour en savoir plus, consultez la section Intégrer à Apigee.

Gemini Enterprise

Model Armor peut être directement intégré à Gemini Enterprise à l'aide de modèles. Gemini Enterprise achemine les interactions entre les utilisateurs et les agents, ainsi que les LLM sous-jacents via Model Armor. Cela signifie que les prompts des utilisateurs ou des agents et les réponses générées par les LLM sont inspectés par Model Armor avant d'être présentés à l'utilisateur. Pour en savoir plus, consultez la section Intégrer à Gemini Enterprise.

En plus des modalités listées dans la section Modalités compatibles, l' intégration de Model Armor à Gemini Enterprise est également compatible avec les documents. Toutefois, les images intégrées aux documents ne sont pas analysées.

Serveurs Google et Google Cloud MCP

Model Armor peut être configuré pour protéger vos données et sécuriser le contenu lorsque vous envoyez des requêtes aux Google Cloud services qui exposent des outils et des serveurs MCP (Model Context Protocol). Model Armor contribue à sécuriser vos applications d'IA agentiques en désinfectant les appels et les réponses des outils MCP à l'aide des paramètres de plancher. Ce processus atténue les risques tels que l'injection de prompts et la divulgation de données sensibles. Pour en savoir plus, consultez la section Intégrer aux serveurs Google et Google Cloud MCP.

Service Extensions

Model Armor peut être intégré aux Google Cloud services de mise en réseau via Service Extensions. Service Extensions vous permet d' intégrer des services internes (Google Cloud services) ou externes (gérés par l'utilisateur) pour traiter le trafic. Vous pouvez configurer une extension de service sur les équilibreurs de charge d'application pour analyser le trafic réseau pour diverses interactions avec l'IA, par exemple avec des agents et des serveurs MCP. Vous pouvez également utiliser des extensions de service avec des passerelles d'inférence GKE pour analyser le trafic entrant et sortant d'un cluster GKE. Cela permet de s'assurer que toutes les interactions avec l'IA qui transitent par l'équilibreur de charge sont protégées par Model Armor. Pour en savoir plus, consultez la section Intégrer aux Google Cloud services de mise en réseau.

Gemini Enterprise Agent Platform

Model Armor peut être directement intégré à Gemini Enterprise Agent Platform à l'aide de paramètres de plancher ou de modèles. Cette intégration analyse les requêtes et les réponses du modèle Gemini, et bloque celles qui ne respectent pas les paramètres de plancher. Elle assure la protection des prompts et des réponses dans l'API Gemini de Vertex AI pour la méthode generateContent. Vous devez activer Cloud Logging pour obtenir de la visibilité sur les résultats de désinfection des prompts et des réponses. Pour en savoir plus, consultez la section Intégrer à Gemini Enterprise Agent Platform.

Avant de commencer

Activer les API

Vous devez activer l'API Model Armor avant de pouvoir utiliser Model Armor.

Console

  1. Activer l'API Model Armor

    Rôles requis pour activer les API

    Pour activer les API, vous avez besoin du rôle IAM Administrateur d'utilisation du service (roles/serviceusage.serviceUsageAdmin), qui contient l'autorisation serviceusage.services.enable. Découvrez comment attribuer des rôles.

    Activer l'API

  2. Sélectionnez le projet dans lequel vous souhaitez activer Model Armor.

gcloud

Avant de commencer, suivez ces étapes à l'aide de la Google Cloud CLI avec l'API Model Armor :

  1. Dans la Google Cloud console, activez Cloud Shell.

    Activer Cloud Shell

    En bas de la Google Cloud console, une session Cloud Shell démarre et affiche une invite de ligne de commande. Cloud Shell est un environnement de shell dans lequel la Google Cloud CLI est déjà installée, et dans lequel des valeurs sont déjà définies pour votre projet actuel. L'initialisation de la session peut prendre quelques secondes.

  2. Définissez le remplacement du point de terminaison de l'API à l'aide de la gcloud CLI.

Définir le remplacement du point de terminaison de l'API à l'aide de la gcloud CLI

Cette étape n'est requise que si vous utilisez la gcloud CLI pour activer l'API Model Armor. Vous devez définir manuellement le remplacement du point de terminaison de l'API pour vous assurer que la gcloud CLI achemine correctement les requêtes vers le service Model Armor.

Exécutez la commande suivante pour définir le point de terminaison de l'API pour le service Model Armor.

gcloud config set api_endpoint_overrides/modelarmor "https://modelarmor.LOCATION.rep.googleapis.com/"

Remplacez LOCATION par la région dans laquelle vous souhaitez utiliser Model Armor.

Gérer le quota

Model Armor utilise un système de quotas pour garantir une utilisation équitable et protéger la stabilité du système. Le quota par défaut pour l'API Model Armor est de 1 200 requêtes par minute et par projet. Vous pouvez appliquer une valeur comprise entre 0 et 1 200 requêtes par minute et par projet. Pour demander un ajustement, consultez la section Demander un ajustement de quota. Si vous avez besoin d'un quota supérieur à celui par défaut, contactez Cloud Customer Care.

Le quota Model Armor nécessite des considérations importantes lors de l'intégration à d'autres services. Le quota principal avec lequel vous interagissez est le nombre de requêtes API par minute et par projet.

  • Quota par défaut de Model Armor : lorsqu'un service effectue un appel à l'API Model Armor pour analyse (par exemple, pour vérifier des prompts ou des réponses), cela consomme le quota de l'API Model Armor de votre projet.
  • Quota des services d'intégration : le quota Model Armor est distinct de tous les quotas associés aux services d'intégration. Vous devez vous assurer que le quota est suffisant pour tous les services de votre chemin de requête. Tout appel effectué à l'API Model Armor pour désinfecter le contenu de votre application est comptabilisé dans les limites de quota de l'API Model Armor.

Détecter les situations de dépassement de quota

Vous atteignez les limites de quota Model Armor si les journaux de votre application affichent des erreurs provenant de Model Armor, généralement des erreurs HTTP 429 RESOURCE_EXHAUSTED, qui indiquent un nombre excessif de requêtes.

Estimer les besoins en quota

Pour déterminer le quota Model Armor à demander :

  • Estimez le nombre maximal de requêtes par minute que vos services enverront à Model Armor.
  • Déterminez le nombre de fois que Model Armor est appelé par interaction utilisateur avec votre service (par exemple, une fois pour le prompt et une fois pour la réponse).
  • Tenez compte du nombre maximal d'utilisateurs ou de sessions simultanés.
  • Demandez un quota avec une marge raisonnable (par exemple, 20 à 30% au-dessus de votre pic prévu) pour gérer les pics inattendus.
  • Commencez par votre meilleure estimation, surveillez attentivement l'utilisation après le lancement et demandez d'autres ajustements si nécessaire.

Par exemple, si vous prévoyez 500 utilisateurs par minute et que chaque interaction de l'utilisateur appelle Model Armor deux fois (prompt et réponse), vous avez besoin d'au moins 1 000 requêtes par minute. En tenant compte d'une marge, demander 1 200 à 1 300 requêtes par minute est un bon point de départ.

Remarques

  • Assurez-vous de surveiller et de gérer les quotas pour les autres services. Le manque de quota pour d'autres services a un impact sur votre application, même si vous disposez d'un quota Model Armor suffisant.
  • Mettez en œuvre des nouvelles tentatives côté client avec un intervalle exponentiel entre les tentatives dans la configuration de votre application pour gérer les problèmes de quota temporaires ou d'autres erreurs pouvant être retentées. Pour en savoir plus, consultez la section Stratégie de nouvelle tentative.

Intégrer à l'aide de l'API REST

Lorsque vous utilisez l'API REST pour l'intégration, Model Armor ne fonctionne que comme détecteur à l'aide de modèles. Il identifie et signale les potentielles violations de règles en fonction de modèles prédéfinis plutôt que de les empêcher activement. Lors de l'intégration à l'API Model Armor, votre application peut utiliser la sortie de Model Armor pour bloquer ou autoriser des actions en fonction des résultats de l'évaluation de sécurité fournis. L'API Model Armor renvoie des informations sur les menaces potentielles ou les violations de règles liées à votre trafic d'API, en particulier dans le cas d'interactions avec l'IA. Votre application peut appeler l'API Model Armor et utiliser les informations reçues dans la réponse pour prendre une décision et agir en fonction de votre logique personnalisée prédéfinie.

Options lors de l'intégration de Model Armor

Model Armor propose les options d'intégration suivantes. Chaque option offre des fonctionnalités et des capacités différentes.

Option d'intégration Configurer les détections Inspecter uniquement Inspecter et bloquer Couverture
Passerelle d'agent (aperçu) Uniquement à l'aide de modèles Oui Oui Tous les modèles et tous les clouds
Apigee Uniquement à l'aide de modèles Oui Oui Tous les modèles et tous les clouds2
Gemini Enterprise Uniquement à l'aide de modèles Oui Oui Tous les modèles et tous les clouds2
Serveurs Google et Google Cloud MCP Uniquement à l'aide des paramètres de plancher Oui Oui Serveurs Google et Google Cloud MCP
Service Extensions Uniquement à l'aide de modèles Oui Oui Modèles au format OpenAI1, agents et serveurs MCP sur tous les clouds2
Gemini Enterprise Agent Platform À la fois à l'aide des paramètres de plancher et des modèles Oui Oui Modèles Gemini (non en flux continu)

1 Plusieurs modèles populaires, y compris Anthropic Claude, Mistral AI et Grok, sont compatibles avec les spécifications OpenAI. Ces modèles sont généralement déployés à l'aide de moteurs d'inférence tels que vLLM, qui fournissent la couche d'API compatible avec OpenAI nécessaire. vLLM est compatible avec un large éventail de modèles, y compris la série Meta Llama, DeepSeek, les familles Mistral et Mixtral, et Gemma.

2 Inclut d'autres clouds publics tels qu'AWS et Azure.

Avec l'option d'intégration Gemini Enterprise Agent Platform, Model Armor fournit une application en ligne à l'aide de paramètres de plancher ou de modèles. Cela signifie que Model Armor applique activement les règles en intervenant directement dans le processus sans nécessiter de modifications du code de votre application.

Les intégrations Service Extensions et Gemini Enterprise n'utilisent que des modèles pour l'application des règles en ligne. Cela signifie que Model Armor peut appliquer des règles directement sans que vous ayez à modifier le code de l'application à la fois dans Service Extensions et lors des interactions utilisateur ou agent dans les instances Gemini Enterprise.

L'intégration de Model Armor et Gemini Enterprise ne désinfecte que le prompt utilisateur initial et la réponse finale de l'agent ou du modèle. Les étapes intermédiaires qui se produisent entre le prompt utilisateur initial et la génération de la réponse finale ne sont pas couvertes par cette intégration.

Model Armor dans Security Command Center

Model Armor inspecte les prompts et les réponses des LLM pour détecter diverses menaces, y compris l'injection de prompts, les tentatives de jailbreak, les URL malveillantes et les contenus nuisibles. Lorsque Model Armor détecte une violation d'un paramètre de plancher configuré, il bloque le prompt ou la réponse et envoie un résultat à Security Command Center. Pour en savoir plus, consultez la section Résultats de Model Armor.