Boletines de seguridad

A continuación, se describen todos los boletines de seguridad relacionados con la IA generativa en Vertex AI.

Para recibir los boletines de seguridad más recientes, tienes estas opciones:

  • Añade la URL de esta página a tu lector de feeds.
  • Añade la URL del feed directamente a tu lector de feeds: https://cloud.google.com/feeds/generative-ai-on-vertex-ai-security-bulletins.xml.

GCP-2025-059

Publicación: 21/10/2025

Actualizado: 22/10/2025

Descripción Gravedad Notas

Actualización del 22 de octubre del 2025: se ha añadido un enlace a la CVE.


El 23 de septiembre del 2025, descubrimos un problema técnico en la API Vertex AI que provocó que se desviara una cantidad limitada de respuestas entre destinatarios de determinados modelos de terceros al usar solicitudes de streaming. Este problema ya se ha resuelto. Los modelos de Google, como Gemini, no se vieron afectados.

Algunos proxies internos no han gestionado correctamente las solicitudes HTTP que tienen un encabezado Expect: 100-continue, lo que ha provocado una desincronización en una conexión de respuesta de streaming, donde una respuesta destinada a una solicitud se ha enviado como respuesta a una solicitud posterior.

¿Qué debo hacer?

Hemos implementado correcciones para abordar correctamente la presencia del encabezado Expect: 100-continue y evitar que vuelva a producirse este problema. También hemos añadido pruebas, monitorización y alertas para poder detectar rápidamente si se produce este problema y evitar que se repita. Por el momento, los clientes no tienen que hacer nada para evitar que se produzca este comportamiento no deseado.

Las correcciones se implementaron en diferentes modelos en fechas distintas. Los modelos de Anthropic se corrigieron el 26 de septiembre a las 09:45 (CEST) y todas las superficies, el 29 de septiembre a las 04:10 (CEST). A continuación, se indican los modelos afectados en la API de Vertex AI y la hora de resolución:

  • Modelos Partner Model-as-a-Service (Claude) de Anthropic

    • El problema se solucionó el 26 de septiembre del 2025 a las 00:45 (PDT).

  • Todos los modelos de código abierto como servicio, incluidos DeepSeek (R1-0528 y V3.1), OpenAI (gpt-oss-120b y gpt-oss-20b), Qwen (Next Instruct 80B, Next Thinking 80B, Qwen 3 Coder y Qwen 3 235B) y Llama (Maverick, Scout, 3.3, 3.2, 3.1 405b, 3.1 70b y 3.1 8b)

    • El problema se solucionó el 28 de septiembre del 2025 a las 02:43 (PDT).

  • Mistral y AI21 Partner Model-as-a-Service models

    • El problema se solucionó el 28 de septiembre del 2025 a las 11:00 (PDT).

  • Modelos implementados por el usuario para los que se ha invocado el método "StreamRawPredict", "ChatCompletions", "GenerateContent" o "StreamGenerateContent" mediante endpoints públicos

    • El problema se solucionó el 28 de septiembre del 2025 a las 19:10 (PDT).

    • No se vieron afectados ni los endpoints dedicados (la opción predeterminada en Model Garden) ni los endpoints privados.

Medio CVE-2025-11915

GCP-2024-063

Publicación: 06/12/2024

Descripción Gravedad Notas

Se ha descubierto una vulnerabilidad en la API de Vertex AI que sirve solicitudes multimodales de Gemini, lo que permite eludir Controles de Servicio de VPC. Un atacante podría abusar del parámetro fileURI de la API para extraer datos.

¿Qué debo hacer?

No es necesario que hagas nada. Hemos implementado una corrección para devolver un mensaje de error cuando se especifica una URL de archivo multimedia en el parámetro fileUri y se habilita Controles de Servicio de VPC. Otros casos prácticos no se verán afectados.

¿Qué vulnerabilidades se están abordando?

La API Vertex AI que sirve solicitudes multimodales de Gemini te permite incluir archivos multimedia especificando la URL del archivo multimedia en el parámetro fileUri. Esta función se puede usar para eludir los perímetros de Controles de Servicio de VPC. Un atacante que se encuentre dentro del perímetro de servicio podría codificar datos sensibles en el parámetro fileURI para eludir el perímetro de servicio.

Medio CVE-2024-12236