Añade la URL del feed directamente a tu lector de feeds: https://cloud.google.com/feeds/generative-ai-on-vertex-ai-security-bulletins.xml.
GCP-2025-059
Publicación: 21/10/2025
Actualizado: 22/10/2025
Descripción
Gravedad
Notas
Actualización del 22 de octubre del 2025: se ha añadido un enlace a la CVE.
El 23 de septiembre del 2025, descubrimos un problema técnico en la API Vertex AI que provocó que se desviara una cantidad limitada de respuestas entre destinatarios de determinados modelos de terceros al usar solicitudes de streaming. Este problema ya se ha resuelto.
Los modelos de Google, como Gemini, no se vieron afectados.
Algunos proxies internos no han gestionado correctamente las solicitudes HTTP que
tienen un encabezado Expect: 100-continue, lo que ha provocado
una desincronización en una conexión de respuesta de streaming, donde
una respuesta destinada a una solicitud se ha enviado como
respuesta a una solicitud posterior.
¿Qué debo hacer?
Hemos implementado correcciones para abordar correctamente la presencia del encabezado Expect: 100-continue y evitar que vuelva a producirse este problema. También hemos añadido pruebas, monitorización y alertas para poder detectar rápidamente si se produce este problema y evitar que se repita. Por el momento, los clientes no tienen que hacer nada para evitar que se produzca este comportamiento no deseado.
Las correcciones se implementaron en diferentes modelos en fechas distintas.
Los modelos de Anthropic se corrigieron el 26 de septiembre a las 09:45 (CEST) y
todas las superficies, el 29 de septiembre a las 04:10 (CEST). A continuación, se indican los modelos afectados
en la API de Vertex AI y la hora de resolución:
El problema se solucionó el 26 de septiembre del 2025 a las 00:45 (PDT).
Todos los modelos de código abierto como servicio, incluidos DeepSeek (R1-0528 y V3.1), OpenAI (gpt-oss-120b y gpt-oss-20b), Qwen (Next Instruct 80B, Next Thinking 80B, Qwen 3 Coder y Qwen 3 235B) y Llama (Maverick, Scout, 3.3, 3.2, 3.1 405b, 3.1 70b y 3.1 8b)
El problema se solucionó el 28 de septiembre del 2025 a las 02:43 (PDT).
Se ha descubierto una vulnerabilidad en la API de Vertex AI que sirve solicitudes multimodales de Gemini, lo que permite eludir Controles de Servicio de VPC.
Un atacante podría abusar del parámetro
fileURI
de la API para extraer datos.
¿Qué debo hacer?
No es necesario que hagas nada. Hemos implementado una corrección para devolver un mensaje de error cuando se especifica una URL de archivo multimedia en el parámetro fileUri y se habilita Controles de Servicio de VPC. Otros casos prácticos no se verán afectados.
¿Qué vulnerabilidades se están abordando?
La API Vertex AI que sirve solicitudes multimodales de Gemini te permite incluir archivos multimedia especificando la URL del archivo multimedia en el parámetro fileUri. Esta función se puede usar para eludir los perímetros de Controles de Servicio de VPC. Un atacante que se encuentre dentro del perímetro de servicio
podría codificar datos sensibles en el parámetro fileURI para eludir
el perímetro de servicio.
[[["Es fácil de entender","easyToUnderstand","thumb-up"],["Me ofreció una solución al problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Es difícil de entender","hardToUnderstand","thumb-down"],["La información o el código de muestra no son correctos","incorrectInformationOrSampleCode","thumb-down"],["Me faltan las muestras o la información que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-12-04 (UTC)."],[],[]]