Descripción general de AI Protection

AI Protection te ayuda a administrar la postura de seguridad de tus cargas de trabajo de IA detectando amenazas y ayudándote a mitigar los riesgos de tu inventario de recursos de IA. En este documento, se proporciona una descripción general de AI Protection, incluidos sus beneficios y varios conceptos clave. AI Protection está disponible con las activaciones a nivel de la organización de Security Command Center.

Para los niveles de servicio Premium y Enterprise, cuando Security Command Center se activa a nivel de la organización, AI Protection ayuda a proporcionar una vista integral de la seguridad de la IA en todo tu Google Cloud entorno. El panel de AI Protection dentro de la Google Cloud consola de muestra un conjunto coherente de widgets y funciones, con datos agregados de todos los proyectos y recursos de la organización.

Capacidades de AI Protection

AI Protection te ayuda a administrar las amenazas y los riesgos para tus sistemas de IA de las siguientes maneras:

  • Evalúa tu inventario de recursos de IA: Evalúa y comprende tus sistemas y recursos de IA, incluidos los siguientes:
    • Modelos
    • Fuentes de datos
    • Extremos
    • Agentes (vista previa)
    • Servidores del Protocolo de contexto del modelo (MCP) que se catalogan en el Registro de agentes (vista previa) El descubrimiento de servidores de MCP requiere que la API de App Hub (apphub.googleapis.com) esté habilitada en cada proyecto que aloja un servidor de MCP.
  • Identifica vulnerabilidades: Identifica vulnerabilidades de software (CVE) en cargas de trabajo de agentes implementadas con el entorno de ejecución de agentes.
  • Identifica riesgos: Identifica los riesgos de los agentes y su impacto en el ecosistema en función de la simulación de ruta de ataque y las reglas predefinidas del gráfico de seguridad, con agentes y servidores de MCP como recursos de alto valor.
  • Detecta agentes con privilegios excesivos: Detecta agentes del entorno de ejecución de agentes a los que se otorgan permisos excesivos (vista previa)
  • Administra los riesgos y el cumplimiento: Administra de forma proactiva los riesgos para tus recursos de IA y verifica que tus implementaciones de IA cumplan con los estándares de seguridad pertinentes.
  • Mitiga los riesgos legales y financieros: Reduce los riesgos financieros, de reputación, y legales asociados con las violaciones de seguridad y el incumplimiento normativo.
  • Detecta y administra amenazas: Detecta y responde a posibles amenazas para tus sistemas y recursos de IA de manera oportuna.
  • Consulta un panel: Administra todos los riesgos y las amenazas relacionados con la IA desde un panel centralizado.

Casos de uso de AI Protection

AI Protection ayuda a las organizaciones a mejorar su seguridad mediante la identificación y mitigación de amenazas y riesgos relacionados con los sistemas de IA y los datos sensibles. Los siguientes casos de uso son ejemplos de cómo se puede usar AI Protection en diferentes organizaciones:

  • Institución de servicios financieros: datos financieros de los clientes

    Una gran institución de servicios financieros usa modelos de IA que procesan datos financieros sensibles.

    • Desafío: El procesamiento de datos financieros altamente sensibles con modelos de IA implica varios riesgos, incluido el riesgo de violaciones de la seguridad de los datos, el robo de datos durante el entrenamiento o la inferencia, y las vulnerabilidades en la infraestructura subyacente de la IA.
    • Caso de uso: AI Protection supervisa continuamente los flujos de trabajo de IA en busca de actividades sospechosas, trabaja para detectar el acceso a los datos no autorizado y el comportamiento anómalo del modelo, realiza la clasificación de datos sensibles y ayuda a mejorar el cumplimiento de las reglamentaciones, como PCI DSS y RGPD.
  • Proveedor de atención médica: privacidad y cumplimiento del paciente

    Un importante proveedor de atención médica administra registros electrónicos de salud y usa IA para el diagnóstico y la planificación del tratamiento, y trata con información de salud protegida (PHI).

    • Desafío: La PHI analizada por los modelos de IA está sujeta a reglamentaciones estrictas como HIPAA. Entre los riesgos, se incluye la exposición accidental de PHI a través de configuraciones incorrectas o ataques maliciosos que se dirigen a los sistemas de IA para obtener datos de pacientes.
    • Caso de uso: AI Protection identifica y alerta sobre posibles incumplimientos de HIPAA, detecta el acceso no autorizado a PHI por parte de modelos o usuarios, marca servicios de IA vulnerables y potencialmente mal configurados, y supervisa las filtraciones de datos.
  • Empresa de fabricación y robótica: propiedad intelectual patentada

    Una empresa de fabricación que se especializa en robótica avanzada y automatización depende en gran medida de la IA para optimizar las líneas de producción y el control robótico, con propiedad intelectual (PI) vital integrada en sus algoritmos de IA y datos de fabricación.

    • Desafío: Los algoritmos de IA patentados y los datos operativos sensibles son vulnerables al robo de amenazas internas o adversarios externos, lo que podría generar desventajas competitivas o interrupciones operativas.
    • Caso de uso: AI Protection supervisa el acceso no autorizado a los modelos de IA y los repositorios de código, detecta intentos de robo de modelos entrenados y patrones inusuales de acceso a los datos, y marca vulnerabilidades en los entornos de desarrollo de IA para evitar el robo de PI.

Reglas de Event Threat Detection para recursos de Agent Platform de Gemini Enterprise

Event Threat Detection detecta varias amenazas potenciales que involucran recursos de Agent Platform de Gemini Enterprise, como actividad anómala de la cuenta de servicio, cambios en los permisos sensibles y abuso de identidad de agentes.

Las categorías de hallazgos que se aplican a los recursos de IA incluyen lo siguiente:

  • Persistencia: Nuevo método de la API de IA
  • Persistencia: Nueva geografía para el servicio de IA
  • Elevación de privilegios: Suplantación de identidad anómala de la cuenta de servicio en la actividad del administrador de IA
  • Elevación de privilegios: Uso anómalo de identidad temporal como cuenta de servicio para acceso a datos de IA
  • Elevación de privilegios: Delegación anómala de cuentas de servicio de varios pasos para actividades de administrador de IA
  • Elevación de privilegios: Delegación anómala de cuentas de servicio de varios pasos para el acceso a los datos de IA
  • Elevación de privilegios: Uso de identidad anómalo de la cuenta de servicio para actividades de administrador de IA
  • Acceso inicial: Actividad de la cuenta de servicio inactiva en el servicio de IA
  • Persistencia: Otorgamiento anómalo de IAM a la identidad de agente
  • Acceso a credenciales: Credencial de identidad de agente usada fuera de Google Cloud
  • Persistencia: Se agregó un permiso de IA sensible al rol personalizado
  • Persistencia: Rol sensible otorgado por el agente de IA
  • Persistencia: Se otorgó un rol sensible a un agente de IA externo
  • Evasión de defensa: Se otorgó el rol de Creador de tokens a nivel de proyecto al agente de IA
  • Evasión de defensa: Se otorgó el rol de Creador de tokens a nivel de carpeta al agente de IA
  • Evasión de defensa: Se otorgó el rol de Creador de tokens a nivel de la organización al agente de IA

Para obtener una lista completa de los hallazgos de Event Threat Detection que se aplican a los recursos de IA, consulta Servicios de detección.

Detección de amenazas de Agent Platform para el entorno de ejecución de agentes

La Detección de amenazas de Agent Platform proporciona detección de amenazas en el entorno de ejecución para los agentes implementados en el entorno de ejecución de agentes. Supervisa los agentes en ejecución en busca de posibles ataques y genera hallazgos en Security Command Center.

La Detección de amenazas de Agent Platform puede generar hallazgos para el entorno de ejecución de agentes, incluidas las siguientes categorías:

  • Comando y control: Se detectó una herramienta de esteganografía
  • Acceso a credenciales: Buscar Google Cloud credenciales
  • Acceso a credenciales: Reconocimiento de claves GPG
  • Acceso a las credenciales: Busca claves privadas o contraseñas
  • Evasión de defensa: Línea de comandos de archivo ELF en Base64
  • Evasión de defensa: Se ejecutó una secuencia de comandos de Python codificada en Base64
  • Evasión de defensa: Se ejecutó una secuencia de comandos de shell codificada en Base64
  • Evasión de defensa: Iniciar la herramienta de compilador de código en el contenedor
  • Ejecución: Se detectó la ejecución remota de código de Netcat en un contenedor
  • Ejecución: Posible ejecución de comandos arbitrarios con CUPS (CVE-2024-47177)
  • Ejecución: Se detectó una posible ejecución remota de comandos
  • Ejecución: Se detectó la ejecución del programa con entorno de proxy HTTP no permitido
  • Ejecución: Se detectó una shell inversa de Socat
  • Ejecución: Se cargó un objeto compartido de OpenSSL sospechoso
  • Robo de datos: Se detectó el lanzamiento de herramientas de copia remota de archivos en el contenedor
  • Impacto: Detecta líneas de comandos maliciosas
  • Impacto: Quita datos masivos del disco
  • Impacto: Actividad de minería de criptomonedas sospechosa con el protocolo Stratum
  • Elevación de privilegios: Abuso de sudo para la elevación de privilegios (CVE-2019-14287)
  • Elevación de privilegios: Vulnerabilidad de elevación de privilegios locales de Polkit (CVE-2021-4034)
  • Elevación de privilegios: Se detectó una posible elevación de privilegios con sudo (CVE-2021-3156)
  • Ejecución: Se ejecutó un código de Python malicioso
  • Ejecución: Escape del contenedor
  • Ejecución: Se detectó la ejecución de la herramienta de ataque de Kubernetes
  • Ejecución: Se detectó la ejecución de la herramienta de reconocimiento local
  • Impacto: Secuencia de comandos maliciosa ejecutada
  • Impacto: Se detectó una URL maliciosa
  • Ejecución: Shell secundaria inesperada

Para obtener una lista completa de los hallazgos de la Detección de amenazas de Agent Platform, consulta Servicios de detección.

Framework de AI Protection

AI Protection usa un framework que incluye controles específicos de la nube que se implementan automáticamente en modo de detección. El modo de detección significa que el control de la nube se aplica a los recursos definidos con fines de supervisión. Se detectan los incumplimientos y se generan alertas. Usas frameworks y controles de la nube para definir tus requisitos de AI Protection y aplicarlos a tu Google Cloud entorno. AI Protection incluye el framework predeterminado, que define los controles de referencia recomendados para AI Protection. Cuando habilitas AI Protection, el default framework se aplica automáticamente a la Google Cloud organización en modo de detección.

Si es necesario, puedes hacer copias del framework para crear frameworks personalizados de AI Protection. Puedes agregar los controles de la nube a tus frameworks personalizados y aplicarlos a la organización, las carpetas o los proyectos. Por ejemplo, puedes crear frameworks personalizados que apliquen controles jurisdiccionales específicos a carpetas específicas para garantizar que los datos dentro de esas carpetas permanezcan dentro de una región geográfica en particular.

Controles de la nube en el framework predeterminado de AI Protection

Para obtener más información sobre los controles de la nube que usa el framework de AI Protection, consulta Google Recommended Nociones básicas de la IA - Vertex AI.

Áreas funcionales compatibles con AI Protection

En esta sección, se definen las áreas funcionales que AI Protection puede ayudar a proteger.

  • Cargas de trabajo de IA: Las cargas de trabajo de aplicaciones de IA abarcan desde herramientas internas destinadas a mejorar la productividad de los empleados hasta soluciones para el consumidor diseñadas para mejorar la experiencia del usuario y generar negocios. Entre los ejemplos, se incluyen agentes de IA, asistentes virtuales, chatbots de IA conversacional y recomendaciones personalizadas.
  • Agentes de IA: Los agentes de IA son sistemas de IA que pueden percibir su entorno, tomar decisiones y realizar acciones para lograr objetivos específicos.
  • Modelos de IA: Los modelos de IA se clasifican en modelos de IA de base, modelos de IA ajustados, modelos de IA estándar de origen y modelos de IA personalizados. Entre los ejemplos, se incluyen Gemini, Llama, modelos de traducción, y modelos personalizados para tareas específicas.
  • Recursos de IA: Los recursos de IA contribuyen a las canalizaciones de operaciones de aprendizaje automático y son utilizados por las cargas de trabajo de IA. Entre los tipos de recursos de IA, se incluyen los siguientes:
    • Recursos de IA declarativos: Las herramientas de administración del ciclo de vida de la IA, como Agent Platform de Gemini Enterprise, hacen un seguimiento de estos recursos.
    • Recursos de IA inferidos: Recursos de uso general, como recursos de procesamiento y almacenamiento, que se usan para procesar datos o cargas de trabajo de IA.
    • Modelo como servicio (solo API): Recursos que tienen llamadas programáticas a modelos de IA de origen o de terceros.

Usa el panel de AI Security

El panel de AI Security te permite visualizar el inventario de recursos de IA de tu organización y revisar las mitigaciones propuestas para los riesgos y las amenazas.

Accede al panel de AI Security

Para acceder al panel de AI Security, en la Google Cloud consola, ve a la página Descripción general > AI Security:

Ir a AI Security

Para obtener más información, consulta el panel de AI Security dashboard.

Comprende la administración de riesgos para los sistemas de IA

En esta sección, se proporciona información sobre los posibles riesgos asociados con los sistemas de IA. Puedes ver los principales riesgos en tu inventario de IA.

Puedes hacer clic en cualquier problema para abrir un panel de detalles que proporcione una visualización del problema.

Consulta las amenazas de IA

En esta sección, se proporcionan estadísticas sobre las amenazas asociadas con los sistemas de IA. Puedes ver las 5 amenazas recientes principales asociadas con tus recursos de IA.

En esta página, puedes hacer lo siguiente:

  • Haz clic en Ver todo para ver las amenazas asociadas con tus recursos de IA.
  • Haz clic en cualquier amenaza para ver más detalles sobre ella.

Visualiza tu inventario de IA

Puedes ver una visualización de tu inventario de IA en el panel que proporciona un resumen de los proyectos que involucran IA generativa, los modelos de origen y de terceros en uso activo, y los conjuntos de datos que se usan para entrenar los modelos de terceros.

En esta página, puedes hacer lo siguiente:

  • Para ver la página de detalles del inventario, haz clic en cualquiera de los nodos de la visualización.
  • Para ver una lista detallada de recursos individuales (como modelos de base y modelos personalizados), haz clic en la información sobre la herramienta.
  • Para abrir una vista detallada del modelo, haz clic en él. En esta vista, se muestran detalles como los extremos en los que se aloja el modelo y el conjunto de datos que se usa para entrenarlo. Si Sensitive Data Protection está habilitado, la vista de conjuntos de datos también muestra si el conjunto de datos contiene datos sensibles.

Revisa el resumen de los hallazgos del framework de IA

En esta sección, te ayudamos a evaluar y administrar los hallazgos del framework de IA y las políticas de seguridad de los datos, y se incluye lo siguiente:

  • Hallazgos: En esta sección, se muestra un resumen de los hallazgos generados por las políticas de seguridad de IA y las políticas de seguridad de los datos. Haz clic en Ver todos los hallazgos o en el recuento de cada categoría de hallazgos para ver detalles sobre el hallazgo. Haz clic en un hallazgo para mostrar información adicional sobre él.
  • Datos sensibles en los conjuntos de datos de Vertex AI: En esta sección, se muestra un resumen de los hallazgos basados en datos sensibles en conjuntos de datos según lo informado por Sensitive Data Protection. Para obtener más información, consulta Introducción a Gemini Enterprise Agent Platform.

Examina los hallazgos de Model Armor

Un gráfico muestra la cantidad total de instrucciones o respuestas que analizó Model Armor y la cantidad de problemas que detectó. Además, el gráfico muestra estadísticas resumidas de varios tipos de problemas detectados, como la inyección de instrucciones y la detección de jailbreak, y la detección de datos sensibles. Para las cargas de trabajo de agentes, Model Armor se puede configurar en Agent Gateway (vista previa) para examinar las instrucciones y las respuestas hacia y desde los agentes.

Esta información se propaga en función de las métricas que Model Armor publica en Cloud Monitoring. Para obtener más información, consulta Descripción general de Model Armor.

¿Qué sigue?