Sicherheitsbulletins

Im Folgenden werden alle Sicherheitsbulletins im Zusammenhang mit generativer KI in Vertex AI beschrieben.

Sie haben folgende Möglichkeiten, um die neuesten Sicherheitsbulletins zu erhalten:

  • Fügen Sie Ihrem Feed-Reader die URL dieser Seite hinzu.
  • Fügen Sie die Feed-URL direkt Ihrem Feed-Reader hinzu: https://cloud.google.com/feeds/generative-ai-on-vertex-ai-security-bulletins.xml

GCP-2025-059

Veröffentlicht: 21.10.2025

Aktualisiert: 22.10.2025

Beschreibung Schweregrad Hinweise

Aktualisierung vom 22.10.2025: Link zu CVE hinzugefügt.


Am 23. September 2025 haben wir ein technisches Problem in der Vertex AI API festgestellt, das dazu führte, dass eine begrenzte Anzahl von Antworten bei der Verwendung von Streaminganfragen für bestimmte Drittanbietermodelle falsch weitergeleitet wurde. Der Fehler wurde bereits behoben. Google-Modelle wie Gemini waren nicht betroffen.

Einige interne Proxys haben HTTP-Anfragen mit einem Expect: 100-continue-Header nicht richtig verarbeitet. Dies führte zu einer Desynchronisierung in einer Streaming-Antwortverbindung, bei der eine Antwort, die für eine Anfrage vorgesehen war, stattdessen als Antwort auf eine nachfolgende Anfrage gesendet wurde.

Was soll ich tun?

Wir haben Korrekturen implementiert, um das Vorhandensein des Expect: 100-continue-Headers richtig zu behandeln und ein erneutes Auftreten dieses Problems zu verhindern. Wir haben außerdem Tests, Monitoring und Benachrichtigungen hinzugefügt, damit wir das Problem schnell erkennen und Regressionen verhindern können. Kunden können derzeit nichts unternehmen, um das unbeabsichtigte Verhalten zu verhindern.

Die Korrekturen wurden für verschiedene Modelle zu unterschiedlichen Zeiten eingeführt. Die Anthropic-Modelle wurden bis zum 26. September, 09:45 Uhr MESZ, korrigiert und alle Oberflächen bis zum 29. September, 04:10 Uhr MESZ. Die betroffenen Modelle in der Vertex AI API und der Zeitpunkt der Fehlerbehebung sind unten aufgeführt:

  • Anthropic Partner Model-as-a-Service-Modelle (Claude)

    • Das Problem wurde am 26. September 2025 um 09:45 Uhr UTC behoben.

  • Alle Open Model-as-a-Service-Modelle, einschließlich: DeepSeek (R1-0528 und V3.1), OpenAI (gpt-oss-120b und gpt-oss-20b), Qwen (Next Instruct 80B, Next Thinking 80B, Qwen 3 Coder und Qwen 3 235B), Llama (Maverick, Scout, 3.3, 3.2, 3.1 405b, 3.1 70b und 3.1 8b)

    • Das Problem wurde am 28. September 2025 um 2:43 Uhr PDT behoben.

  • Mistral und AI21 Partner-MaaS-Modelle

    • Das Problem wurde am 28. September 2025 um 20:00 Uhr MESZ behoben.

  • Selbst bereitgestellte Modelle, für die die Methode „StreamRawPredict“, „ChatCompletions“, „GenerateContent“ oder „StreamGenerateContent“ über öffentliche Endpunkte aufgerufen wurde

    • Das Problem wurde am 29. September 2025 um 04:10 Uhr MESZ behoben.

    • Weder dedizierte (Standardeinstellung in Model Garden) noch private Endpunkte waren betroffen.

Mittel CVE-2025-11915

GCP-2024-063

Veröffentlicht: 06.12.2024

Beschreibung Schweregrad Hinweise

In der Vertex AI API, die multimodale Gemini-Anfragen verarbeitet, wurde eine Sicherheitslücke entdeckt, die die Umgehung der VPC Service Controls ermöglicht. Ein Angreifer könnte den Parameter fileURI der API möglicherweise missbrauchen, um Daten zu exfiltrieren.

Was soll ich tun?

Es sind keine Maßnahmen erforderlich. Wir haben eine Korrektur implementiert, die eine Fehlermeldung zurückgibt, wenn im Parameter „fileUri“ eine Mediendatei-URL angegeben ist und die VPC Service Controls aktiviert sind. Andere Anwendungsfälle sind davon nicht betroffen.

Welche Sicherheitslücken werden behoben?

Mit der Vertex AI API für Gemini-Anfragen können Sie Mediendateien einfügen, indem Sie die URL der Mediendatei im Parameter fileUri angeben. Diese Funktion kann verwendet werden, um VPC Service Controls-Perimeter zu umgehen. Ein Angreifer innerhalb des Dienstperimeters könnte sensible Daten im Parameter fileURI codieren, um den Dienstperimeter zu umgehen.

Mittel CVE-2024-12236