Einbindung von Model Armor in Google Cloud-Dienste

Model Armor lässt sich in verschiedene Google Cloud -Dienste einbinden:

  • Google Kubernetes Engine (GKE) und Dienst-Extensions
  • Vertex AI
  • Google Agentspace

GKE und Diensterweiterungen

Model Armor kann über Dienst-Erweiterungen in GKE eingebunden werden. Mit Dienst-Erweiterungen können Sie interne (Google Cloud -Dienste) oder externe (nutzerverwaltete) Dienste zur Verarbeitung von Traffic einbinden. Sie können eine Dienst-Extension für Application Load Balancer, einschließlich GKE-Inferenz-Gateways, konfigurieren, um den Traffic zu und von einem GKE-Cluster zu filtern. So wird überprüft, ob alle Interaktionen mit den KI-Modellen durch Model Armor geschützt sind. Weitere Informationen finden Sie unter Integration in GKE.

Vertex AI

Model Armor kann entweder über Floor-Einstellungen oder Vorlagen direkt in Vertex AI integriert werden. Bei dieser Integration werden Anfragen und Antworten von Gemini-Modellen überprüft und Anfragen und Antworten, die gegen die Mindesteinstellungen verstoßen, werden blockiert. Diese Integration bietet Schutz für Prompts und Antworten in der Gemini API in Vertex AI für die Methode generateContent. Sie müssen Cloud Logging aktivieren, um die Ergebnisse der Bereinigung von Prompts und Antworten zu sehen. Weitere Informationen finden Sie unter Integration mit Vertex AI.

Google Agentspace

Model Armor kann mithilfe von Vorlagen direkt in Google Agentspace eingebunden werden. Google Agentspace leitet die Interaktionen zwischen Nutzern und Agents sowie den zugrunde liegenden LLMs über Model Armor weiter. Das bedeutet, dass Prompts von Nutzern oder Kundenservicemitarbeitern und die von den LLMs generierten Antworten von Model Armor geprüft werden, bevor sie dem Nutzer präsentiert werden. Weitere Informationen finden Sie unter Integration mit Google Agentspace.

Hinweise

APIs aktivieren

Sie müssen Model Armor APIs aktivieren, bevor Sie Model Armor verwenden können.

Console

  1. Enable the Model Armor API.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the API

  2. Wählen Sie das Projekt aus, für das Sie Model Armor aktivieren möchten.

gcloud

Führen Sie die folgenden Schritte mit der Google Cloud CLI und der Model Armor API aus, bevor Sie beginnen:

  1. In the Google Cloud console, activate Cloud Shell.

    Activate Cloud Shell

    At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.

  2. Führen Sie den folgenden Befehl aus, um den API-Endpunkt für den Model Armor-Dienst festzulegen.

    gcloud config set api_endpoint_overrides/modelarmor "https://modelarmor.LOCATION.rep.googleapis.com/"

    Ersetzen Sie LOCATION durch die Region, in der Sie Model Armor verwenden möchten.

  3. Führen Sie den folgenden Befehl aus, um Model Armor zu aktivieren.

      gcloud services enable modelarmor.googleapis.com --project=PROJECT_ID
       

    Ersetzen Sie PROJECT_ID durch die ID des Projekts.

    Optionen bei der Integration von Model Armor

    Model Armor bietet die folgenden Integrationsoptionen. Jede Option bietet unterschiedliche Funktionen und Möglichkeiten.

    Integrationsoption Richtlinienerzwingung/-erkennung Erkennungen konfigurieren Nur prüfen Prüfen und blockieren Modell- und Cloud-Abdeckung
    REST API Detektor Nur Vorlagen verwenden Ja Ja Alle Modelle und alle Clouds
    Vertex AI (Vorschau) Inline-Durchsetzung Grundlegende Einstellungen oder Vorlagen verwenden Ja Ja Gemini (nicht Streaming) auf Google Cloud
    Google Kubernetes Engine Inline-Durchsetzung Nur Vorlagen verwenden Ja Ja Modelle mit OpenAI-Format auf Google Cloud
    Google Agentspace Inline-Durchsetzung Nur Vorlagen verwenden Ja Ja Alle Modelle und alle Clouds

    Bei der REST API-Integrationsoption fungiert Model Armor nur als Detektor, der Vorlagen verwendet. Das bedeutet, dass potenzielle Richtlinienverstöße anhand vordefinierter Vorlagen erkannt und gemeldet werden, anstatt aktiv verhindert zu werden. Bei der Integration in die Model Armor API kann Ihre Anwendung die Ausgabe verwenden, um Aktionen basierend auf den bereitgestellten Sicherheitsbewertungsergebnissen zu blockieren oder zuzulassen. Die Model Armor API gibt Informationen zu potenziellen Bedrohungen oder Richtlinienverstößen im Zusammenhang mit Ihrem API-Traffic zurück, insbesondere bei KI-/LLM-Interaktionen. Ihre Anwendung kann die Model Armor API aufrufen und die in der Antwort empfangenen Informationen verwenden, um eine Entscheidung zu treffen und Maßnahmen basierend auf Ihrer vordefinierten benutzerdefinierten Logik zu ergreifen.

    Mit der Vertex AI-Integrationsoption bietet Model Armor die Inline-Durchsetzung mithilfe von Mindestwerten oder Vorlagen. Das bedeutet, dass Model Armor Richtlinien aktiv durchsetzt, indem es direkt in den Prozess eingreift, ohne dass Änderungen an Ihrem Anwendungscode erforderlich sind.

    Ähnlich wie bei Vertex AI wird bei den Integrationsoptionen für GKE und Google Agentspace die Inline-Durchsetzung auch nur mithilfe von Vorlagen angeboten. Das bedeutet, dass Model Armor Richtlinien direkt im Inferenz-Gateway sowie in den Nutzer- oder Agent-Interaktionen in den Google Agentspace-Instanzen erzwingen kann, ohne dass Änderungen an Ihrem Anwendungscode erforderlich sind.

    Durch die Integration von Model Armor und Google Agentspace werden nur der ursprüngliche Nutzer-Prompt und die endgültige Antwort des Agents oder Modells bereinigt. Alle Zwischenschritte zwischen dem ursprünglichen Nutzer-Prompt und der endgültigen Antwortgenerierung sind nicht in dieser Integration enthalten.