Model Armor lässt sich in verschiedene Google Cloud -Dienste einbinden:
- Google Kubernetes Engine (GKE) und Dienst-Extensions
- Vertex AI
- Google Agentspace
GKE und Diensterweiterungen
Model Armor kann über Dienst-Erweiterungen in GKE eingebunden werden. Mit Dienst-Erweiterungen können Sie interne (Google Cloud -Dienste) oder externe (nutzerverwaltete) Dienste zur Verarbeitung von Traffic einbinden. Sie können eine Dienst-Extension für Application Load Balancer, einschließlich GKE-Inferenz-Gateways, konfigurieren, um den Traffic zu und von einem GKE-Cluster zu filtern. So wird überprüft, ob alle Interaktionen mit den KI-Modellen durch Model Armor geschützt sind. Weitere Informationen finden Sie unter Integration in GKE.
Vertex AI
Model Armor kann entweder über Floor-Einstellungen oder Vorlagen direkt in Vertex AI integriert werden.
Bei dieser Integration werden Anfragen und Antworten von Gemini-Modellen überprüft und Anfragen und Antworten, die gegen die Mindesteinstellungen verstoßen, werden blockiert. Diese Integration bietet Schutz für Prompts und Antworten in der Gemini API in Vertex AI für die Methode generateContent
. Sie müssen Cloud Logging aktivieren, um die Ergebnisse der Bereinigung von Prompts und Antworten zu sehen. Weitere Informationen finden Sie unter Integration mit Vertex AI.
Google Agentspace
Model Armor kann mithilfe von Vorlagen direkt in Google Agentspace eingebunden werden. Google Agentspace leitet die Interaktionen zwischen Nutzern und Agents sowie den zugrunde liegenden LLMs über Model Armor weiter. Das bedeutet, dass Prompts von Nutzern oder Kundenservicemitarbeitern und die von den LLMs generierten Antworten von Model Armor geprüft werden, bevor sie dem Nutzer präsentiert werden. Weitere Informationen finden Sie unter Integration mit Google Agentspace.
Hinweise
APIs aktivieren
Sie müssen Model Armor APIs aktivieren, bevor Sie Model Armor verwenden können.
Console
Enable the Model Armor API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin
), which contains theserviceusage.services.enable
permission. Learn how to grant roles.Wählen Sie das Projekt aus, für das Sie Model Armor aktivieren möchten.
gcloud
Führen Sie die folgenden Schritte mit der Google Cloud CLI und der Model Armor API aus, bevor Sie beginnen:
In the Google Cloud console, activate Cloud Shell.
At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.
Führen Sie den folgenden Befehl aus, um den API-Endpunkt für den Model Armor-Dienst festzulegen.
gcloud config set api_endpoint_overrides/modelarmor "https://modelarmor.LOCATION.rep.googleapis.com/"
Ersetzen Sie
LOCATION
durch die Region, in der Sie Model Armor verwenden möchten.
Führen Sie den folgenden Befehl aus, um Model Armor zu aktivieren.
gcloud services enable modelarmor.googleapis.com --project=PROJECT_ID
Ersetzen Sie PROJECT_ID
durch die ID des Projekts.
Optionen bei der Integration von Model Armor
Model Armor bietet die folgenden Integrationsoptionen. Jede Option bietet unterschiedliche Funktionen und Möglichkeiten.
Integrationsoption | Richtlinienerzwingung/-erkennung | Erkennungen konfigurieren | Nur prüfen | Prüfen und blockieren | Modell- und Cloud-Abdeckung |
---|---|---|---|---|---|
REST API | Detektor | Nur Vorlagen verwenden | Ja | Ja | Alle Modelle und alle Clouds |
Vertex AI (Vorschau) | Inline-Durchsetzung | Grundlegende Einstellungen oder Vorlagen verwenden | Ja | Ja | Gemini (nicht Streaming) auf Google Cloud |
Google Kubernetes Engine | Inline-Durchsetzung | Nur Vorlagen verwenden | Ja | Ja | Modelle mit OpenAI-Format auf Google Cloud |
Google Agentspace | Inline-Durchsetzung | Nur Vorlagen verwenden | Ja | Ja | Alle Modelle und alle Clouds |
Bei der REST API-Integrationsoption fungiert Model Armor nur als Detektor, der Vorlagen verwendet. Das bedeutet, dass potenzielle Richtlinienverstöße anhand vordefinierter Vorlagen erkannt und gemeldet werden, anstatt aktiv verhindert zu werden. Bei der Integration in die Model Armor API kann Ihre Anwendung die Ausgabe verwenden, um Aktionen basierend auf den bereitgestellten Sicherheitsbewertungsergebnissen zu blockieren oder zuzulassen. Die Model Armor API gibt Informationen zu potenziellen Bedrohungen oder Richtlinienverstößen im Zusammenhang mit Ihrem API-Traffic zurück, insbesondere bei KI-/LLM-Interaktionen. Ihre Anwendung kann die Model Armor API aufrufen und die in der Antwort empfangenen Informationen verwenden, um eine Entscheidung zu treffen und Maßnahmen basierend auf Ihrer vordefinierten benutzerdefinierten Logik zu ergreifen.
Mit der Vertex AI-Integrationsoption bietet Model Armor die Inline-Durchsetzung mithilfe von Mindestwerten oder Vorlagen. Das bedeutet, dass Model Armor Richtlinien aktiv durchsetzt, indem es direkt in den Prozess eingreift, ohne dass Änderungen an Ihrem Anwendungscode erforderlich sind.
Ähnlich wie bei Vertex AI wird bei den Integrationsoptionen für GKE und Google Agentspace die Inline-Durchsetzung auch nur mithilfe von Vorlagen angeboten. Das bedeutet, dass Model Armor Richtlinien direkt im Inferenz-Gateway sowie in den Nutzer- oder Agent-Interaktionen in den Google Agentspace-Instanzen erzwingen kann, ohne dass Änderungen an Ihrem Anwendungscode erforderlich sind.
Durch die Integration von Model Armor und Google Agentspace werden nur der ursprüngliche Nutzer-Prompt und die endgültige Antwort des Agents oder Modells bereinigt. Alle Zwischenschritte zwischen dem ursprünglichen Nutzer-Prompt und der endgültigen Antwortgenerierung sind nicht in dieser Integration enthalten.
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2025-10-19 (UTC).