Adicione o URL do feed diretamente ao seu leitor de feeds: https://cloud.google.com/feeds/generative-ai-on-vertex-ai-security-bulletins.xml
GCP-2025-059
Publicado: 21/10/2025
Atualizado em: 22/10/2025
Descrição
Gravidade
Observações
Atualização de 22/10/2025:adicionamos um link para a CVE.
Em 23 de setembro de 2025, descobrimos um problema técnico na API Vertex AI que resultou no envio incorreto de uma quantidade limitada de respostas entre destinatários para alguns modelos de terceiros ao usar solicitações de streaming. O problema já foi resolvido.
Os modelos do Google, como o Gemini, não foram afetados.
Alguns proxies internos não processaram corretamente solicitações HTTP que
têm um cabeçalho Expect: 100-continue, resultando em
uma dessincronização em uma conexão de resposta de streaming, em que
uma resposta destinada a uma solicitação foi entregue como
a resposta para uma solicitação subsequente.
O que devo fazer?
Implementamos correções para resolver adequadamente a presença do cabeçalho Expect: 100-continue e evitar que esse problema aconteça de novo. Também adicionamos testes, monitoramento e alertas para detectar rapidamente uma ocorrência desse problema e evitar regressões. No momento, os clientes não precisam fazer nada para evitar que o comportamento não intencional ocorra.
As correções foram implementadas para diferentes modelos em cronogramas separados. Os modelos da Anthropic foram corrigidos em 26 de setembro às 00:45 PDT, e todas as plataformas foram corrigidas em 28 de setembro às 19:10 PDT. Os modelos afetados
na API Vertex AI e o horário da resolução estão listados abaixo:
O problema foi corrigido em 26 de setembro de 2025, às 00h45 (Horário do Pacífico).
Todos os modelos de serviço de modelo aberto, incluindo: DeepSeek (R1-0528 e V3.1), OpenAI (gpt-oss-120b e gpt-oss-20b), Qwen (Next Instruct 80B, Next Thinking 80B, Qwen 3 Coder e Qwen 3 235B), Llama (Maverick, Scout, 3.3, 3.2, 3.1 405b, 3.1 70b e 3.1 8b)
O problema foi corrigido em 28 de setembro de 2025, às 2h43 PDT.
Uma vulnerabilidade foi descoberta na API Vertex AI que atende solicitações
multimodais do Gemini, permitindo ignorar o
VPC Service Controls.
Um invasor pode usar o parâmetro
fileURI
da API para exfiltrar dados.
O que devo fazer?
Nenhuma ação é necessária. Implementamos uma correção para retornar uma mensagem de erro quando um
URL de arquivo de mídia é especificado no parâmetro fileUri e o VPC Service Controls
está ativado. Outros casos de uso não são afetados.
Quais vulnerabilidades estão sendo abordadas?
A API Vertex AI que atende solicitações multimodais do Gemini permite
incluir arquivos de mídia especificando o URL deles no parâmetro
fileUri. Essa capacidade pode ser usada para ignorar
perímetros do VPC Service Controls. Um invasor dentro do perímetro de serviço
pode codificar dados sensíveis no parâmetro fileURI para burlar
o perímetro de serviço.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-12-04 UTC."],[],[]]