Adicione o URL do feed diretamente ao seu leitor de feeds: https://cloud.google.com/feeds/generative-ai-on-vertex-ai-security-bulletins.xml
GCP-2025-059
Publicado: 2025-10-21
Atualização: 22-10-2025
Descrição
Gravidade
Notas
Atualização de 22/10/2025: foi adicionado um link para o CVE.
A 23 de setembro de 2025, descobrimos um problema técnico na API Vertex AI que resultou na má atribuição de uma quantidade limitada de respostas entre destinatários para determinados modelos de terceiros quando se usavam pedidos de streaming. Este problema já foi resolvido.
Os modelos Google, por exemplo, o Gemini, não foram afetados.
Alguns proxies internos não processaram corretamente os pedidos HTTP que
têm um cabeçalho Expect: 100-continue, o que resultou
numa dessincronização numa ligação de resposta de streaming, em que
uma resposta destinada a um pedido foi, em vez disso, enviada como
a resposta a um pedido subsequente.
O que devo fazer?
Implementámos correções para resolver corretamente a presença do cabeçalho Expect: 100-continue e evitar a recorrência deste problema. Também adicionámos testes, monitorização e alertas
para podermos detetar rapidamente uma ocorrência deste problema e evitar
a regressão. De momento, os clientes não têm de tomar medidas para
impedir a ocorrência do comportamento não intencional.
As correções foram implementadas para diferentes modelos em programações separadas,
com os modelos da Anthropic a serem corrigidos até 26 de setembro às 12:45 PDT e
todas as superfícies corrigidas até 28 de setembro às 19:10 PDT. Os modelos afetados
na API Vertex AI e a hora da resolução estão indicados abaixo:
O problema foi corrigido a 26 de setembro de 2025 às 00:45 (Hora de Verão do Pacífico).
Todos os modelos Open
Model-as-a-Service, incluindo: DeepSeek
(R1-0528 e V3.1), OpenAI (gpt-oss-120b e gpt-oss-20b),
Qwen (Next Instruct 80B, Next Thinking 80B, Qwen 3 Coder e
Qwen 3 235B), Llama (Maverick, Scout, 3.3, 3.2, 3.1 405b, 3.1 70b e
3.1 8b)
O problema foi corrigido a 28 de setembro de 2025 às 09:43.
Foi descoberta uma vulnerabilidade na publicação da API Vertex AI de pedidos
multimodais do Gemini, o que permite ignorar os
VPC Service Controls.
Um atacante pode conseguir abusar do parâmetro
fileURI
da API para roubar dados.
O que devo fazer?
Não são necessárias ações. Implementámos uma correção para devolver uma mensagem de erro quando um URL de ficheiro multimédia é especificado no parâmetro fileUri e o VPC Service Controls está ativado. Outros exemplos de utilização não são afetados.
Que vulnerabilidades estão a ser abordadas?
A API Vertex AI que publica pedidos multimodais do Gemini permite-lhe
incluir ficheiros multimédia especificando o URL do ficheiro multimédia no parâmetro
fileUri. Esta capacidade pode ser usada para contornar os perímetros dos VPC Service Controls. Um atacante dentro do perímetro de serviço
pode codificar dados confidenciais no parâmetro fileURI para contornar
o perímetro de serviço.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-12-04 UTC."],[],[]]