Model Armor se integra con Google Cloud servicios para proteger las interacciones con la IA y los modelos de lenguaje grandes (LLM). Model Armor identifica y registra posibles incumplimientos de políticas, y puede bloquear de forma activa acciones según las evaluaciones de seguridad.
Modalidades admitidas
En las integraciones de Model Armor con otros Google Cloud servicios, Model Armor solo analiza las entradas y salidas basadas en texto hacia y desde los LLMs, los agentes y los Google Cloud servidores de MCP. No se analizan otras modalidades, excepto los documentos en la integración de Gemini Enterprise. Para obtener detalles sobre los tipos de documentos admitidos, consulta Verificación de documentos.
Servicios compatibles
En esta sección, se describen los servicios de Google Cloud que puedes integrar con Model Armor.
Agent Gateway
Integra Model Armor con Agent Gateway para aplicar políticas de seguridad al tráfico que fluye hacia y desde todos los agentes regidos por la puerta de enlace. Esta integración permite la inspección intercalada y el bloqueo de contenido malicioso o que no cumple con los requisitos. El objetivo de esta integración es mejorar la seguridad del flujo de trabajo y el cumplimiento de los lineamientos de seguridad de la organización, sin necesidad de modificar el código de la aplicación. Esta protección se aplica a los protocolos admitidos en las rutas de entrada (hacia el agente) y de salida (desde el agente). Para obtener más información, consulta Integración con Agent Gateway.
Apigee
La integración te permite usar las capacidades de protección basadas en IA de Model Armor directamente en la capa de puerta de enlace de API de Apigee. Configuras políticas específicas de Model Armor dentro de tus proxies de API de Apigee. Cuando una llamada a la API pasa por un proxy de Apigee que tiene estas políticas, Apigee envía los mensajes y las respuestas al servicio de Model Armor para su inspección. Para obtener más información, consulta Integración con Apigee.
Gemini Enterprise
Model Armor se puede integrar directamente con Gemini Enterprise a través de plantillas. Gemini Enterprise enruta las interacciones entre los usuarios y los agentes, y los LLM subyacentes a través de Model Armor. Esto significa que Model Armor inspecciona las instrucciones de los usuarios o los agentes, y las respuestas generadas por los LLMs antes de presentárselas al usuario. Para obtener más información, consulta Cómo realizar la integración con Gemini Enterprise.
Además de las modalidades que se indican en Modalidades compatibles, la integración de Model Armor con Gemini Enterprise también admite documentos. Sin embargo, no se revisan las imágenes incorporadas en los documentos.
Servidores de Google y Google Cloud MCP
Model Armor se puede configurar para ayudar a proteger tus datos y el contenido seguro cuando envías solicitudes a los servicios de Google Cloud que exponen herramientas y servidores del Protocolo de contexto del modelo (MCP). Model Armor ayuda a proteger tus aplicaciones de IA de agentes, ya que depura las llamadas y respuestas de las herramientas de MCP con la configuración mínima. Este proceso mitiga riesgos como la inyección de instrucciones y la divulgación de datos sensibles. Para obtener más información, consulta Integración con servidores de Google y Google Cloud MCP.
Service Extensions
Model Armor se puede integrar con Google Cloud servicios de redes a través de Service Extensions. Las extensiones de servicio te permiten integrar servicios internos (Google Cloud servicios) o externos (administrados por el usuario) para procesar tráfico. Puedes configurar una extensión de servicio en los balanceadores de cargas de aplicaciones para filtrar el tráfico de red de varias interacciones de IA, como con agentes y servidores de MCP. También puedes usar extensiones de servicio con puertas de enlace de inferencia de GKE para filtrar el tráfico que fluye desde y hacia un clúster de GKE. Esto ayuda a garantizar que Model Armor proteja todas las interacciones de IA que pasan por el balanceador de cargas. Para obtener más información, consulta Integración con servicios de redes de Google Cloud .
Agent Platform de Gemini Enterprise
Model Armor se puede integrar directamente en Agent Platform de Gemini Enterprise con configuración mínima o plantillas.
Esta integración examina las solicitudes y respuestas del modelo de Gemini, y bloquea las que incumplen la configuración mínima. Esta integración proporciona protección de instrucciones y respuestas dentro de la API de Gemini en Vertex AI para el método generateContent. Debes habilitar Cloud Logging para obtener visibilidad de los resultados de la sanitización de instrucciones y respuestas. Para obtener más información, consulta Integración con Gemini Enterprise Agent Platform.
Antes de comenzar
Habilita las APIs
Debes habilitar la API de Model Armor para poder usar Model Armor.
Console
Habilita la API de Model Armor.
Roles necesarios para habilitar las APIs
Para habilitar las APIs, necesitas el rol de IAM de administrador de Service Usage (
roles/serviceusage.serviceUsageAdmin), que contiene el permisoserviceusage.services.enable. Obtén más información para otorgar roles.Elige el proyecto en el que quieres activar Model Armor.
gcloud
Antes de empezar, sigue estos pasos a través de la Google Cloud CLI con la API de Model Armor:
En la consola de Google Cloud , activa Cloud Shell.
En la parte inferior de la consola de Google Cloud , se inicia una sesión de Cloud Shell que muestra una ventana emergente con una línea de comandos. Cloud Shell es un entorno de shell con Google Cloud CLI ya instalada y con valores ya establecidos para el proyecto actual. La sesión puede tardar unos segundos en inicializarse.
Configura la anulación del extremo de API con la gcloud CLI.
Cómo configurar la anulación del extremo de API con la gcloud CLI
Este paso solo es necesario si usas gcloud CLI para habilitar la API de Model Armor. Debes configurar manualmente la anulación del extremo de API para garantizar que la gcloud CLI enrute correctamente las solicitudes al servicio de Model Armor.
Ejecuta el siguiente comando para configurar el extremo de API del servicio de Model Armor.
gcloud config set api_endpoint_overrides/modelarmor "https://modelarmor.LOCATION.rep.googleapis.com/"
Reemplaza LOCATION por la región en la que quieres usar Model Armor.
Administrar cuota
Model Armor usa un sistema de cuotas para garantizar un uso justo y proteger la estabilidad del sistema. La cuota predeterminada para la API de Model Armor es de 1,200 QPM por proyecto. Puedes aplicar un valor entre 0 y 1,200 QPM por proyecto. Para solicitar un ajuste, consulta Solicita un ajuste de cuota. Si necesitas más que la cuota predeterminada, comunícate con Atención al cliente de Cloud.
La cuota de Model Armor requiere consideraciones importantes cuando se integra con otros servicios. La cuota principal con la que interactúas es la cantidad de solicitudes a la API por minuto y por proyecto.
- Cuota predeterminada de Model Armor: Cuando un servicio llama a la API de Model Armor para realizar un análisis (por ejemplo, verificar instrucciones o respuestas), se consume la cuota de la API de Model Armor de tu proyecto.
- Cuota de servicios de integración: La cuota de Model Armor es independiente de las cuotas asociadas con los servicios de integración. Debes asegurarte de que haya cuota suficiente para todos los servicios en la ruta de acceso de tu solicitud. Cada llamada que se realice a la API de Model Armor para sanear contenido para tu aplicación se tendrá en cuenta para los límites de cuota de la API de Model Armor.
Descubre situaciones de falta de cuota
Alcanzas los límites de cuota de Model Armor si los registros de tu aplicación muestran errores de Model Armor, por lo general, errores HTTP 429 RESOURCE_EXHAUSTED, que indican que hay demasiadas solicitudes.
Estima las necesidades de cuota
Para determinar cuánta cuota de Model Armor solicitar, haz lo siguiente:
- Estima la cantidad máxima de solicitudes por minuto que tus servicios enviarán a Model Armor.
- Ten en cuenta cuántas veces se llama a Model Armor por interacción del usuario con tu servicio (por ejemplo, una vez para el mensaje y otra para la respuesta).
- Ten en cuenta la cantidad máxima de usuarios o sesiones simultáneos.
- Solicita una cuota con un búfer razonable (por ejemplo, entre un 20% y un 30% por encima de tu pico esperado) para controlar los aumentos inesperados.
- Comienza con tu mejor estimación, supervisa el uso de cerca después del lanzamiento y solicita más ajustes según sea necesario.
Por ejemplo, si esperas 500 usuarios por minuto y cada interacción del usuario llama a Model Armor dos veces (instrucción y respuesta), necesitas al menos 1,000 QPM. Teniendo en cuenta un margen, solicitar entre 1,200 y 1,300 QPM es un buen punto de partida.
Consideraciones
- Asegúrate de supervisar y administrar las cuotas de otros servicios. Si se agota la cuota para otros servicios, se verá afectada tu aplicación, incluso si tienes suficiente cuota de Model Armor.
- Implementa reintentos del cliente con retirada exponencial en la configuración de tu aplicación para controlar problemas transitorios de cuota o cualquier otro error que se pueda reintentar. Para obtener más información, consulta Estrategia de reintento.
Realiza la integración con la API de REST
Cuando usas la API de REST para la integración, Model Armor solo funciona como detector con plantillas. Identifica y registra posibles incumplimientos de políticas según plantillas predefinidas, en lugar de prevenirlos de forma activa. Cuando se integra con la API de Model Armor, tu aplicación puede usar el resultado de Model Armor para bloquear o permitir acciones según los resultados de la evaluación de seguridad proporcionados. La API de Model Armor devuelve información sobre posibles amenazas o incumplimientos de políticas relacionados con el tráfico de tu API, especialmente en el caso de las interacciones con IA. Tu aplicación puede llamar a la API de Model Armor y usar la información recibida en la respuesta para tomar una decisión y realizar una acción según tu lógica personalizada predefinida.
Opciones para integrar Model Armor
Model Armor ofrece las siguientes opciones de integración. Cada opción proporciona diferentes funciones y capacidades.
| Opción de integración | Configura las detecciones | Solo inspección | Inspeccionar y bloquear | Cobertura |
|---|---|---|---|---|
| Agent Gateway (vista previa) | Solo se usan plantillas | Sí | Sí | Todos los modelos y todas las nubes |
| Apigee | Solo se usan plantillas | Sí | Sí | Todos los modelos y todas las nubes2 |
| Gemini Enterprise | Solo se usan plantillas | Sí | Sí | Todos los modelos y todas las nubes2 |
| Servidores de Google y Google Cloud MCP | Solo con la configuración mínima | Sí | Sí | Servidores de Google y Google Cloud MCP |
| Extensiones de servicio | Solo se usan plantillas | Sí | Sí | Modelos de formato de OpenAI1, agentes y servidores de MCP en todas las nubes2 |
| Gemini Enterprise Agent Platform | Ambos usan la configuración mínima y las plantillas. | Sí | Sí | Modelos de Gemini (sin transmisión) |
1Varios modelos populares, incluidos Anthropic Claude, Mistral AI y Grok, admiten las especificaciones de OpenAI. Por lo general, estos modelos se implementan con motores de inferencia como vLLM, que proporcionan la capa de API compatible con OpenAI necesaria. vLLM admite una amplia variedad de modelos, incluidas las series Meta Llama, las familias DeepSeek, Mistral y Mixtral, y Gemma.
2Incluye otras nubes públicas, como AWS y Azure.
Con la opción de integración de Gemini Enterprise Agent Platform, Model Armor proporciona aplicación intercalada con la configuración mínima o las plantillas. Esto significa que Model Armor aplica las políticas de forma activa interviniendo directamente en el proceso sin necesidad de modificar el código de la aplicación.
Las integraciones de Service Extensions y Gemini Enterprise solo usan plantillas para la aplicación de políticas intercaladas. Esto significa que Model Armor puede aplicar políticas directamente sin necesidad de que modifiques el código de la aplicación, tanto dentro de Service Extensions como durante las interacciones del usuario o del agente en las instancias de Gemini Enterprise.
La integración de Model Armor y Gemini Enterprise solo limpia la instrucción inicial del usuario y la respuesta final del agente o del modelo. Esta integración no abarca los pasos intermedios que ocurren entre la instrucción inicial del usuario y la generación de la respuesta final.
Model Armor en Security Command Center
Model Armor inspecciona las instrucciones y respuestas de los LLM en busca de diversas amenazas, como inyección de instrucciones, intentos de jailbreaking, URLs maliciosas y contenido dañino. Cuando Model Armor detecta un incumplimiento de una configuración mínima, bloquea la instrucción o la respuesta y envía un hallazgo a Security Command Center. Para obtener más información, consulta Resultados de Model Armor.