Panoramica

Model Armor si integra con Google Cloud i servizi per proteggere le interazioni con l'AI e i modelli linguistici di grandi dimensioni (LLM). Model Armor identifica e segnala potenziali violazioni delle norme e può bloccare attivamente le azioni in base alle valutazioni di sicurezza.

Model Armor si integra con vari Google Cloud servizi:

Agent Gateway

Integra Model Armor con Agent Gateway per applicare le policy di sicurezza al traffico in entrata e in uscita da tutti gli agenti regolati dal gateway. Questa integrazione consente l'ispezione e il blocco in linea di contenuti dannosi o non conformi. Questa integrazione mira a migliorare la sicurezza del flusso di lavoro e il rispetto delle linee guida di sicurezza dell'organizzazione, senza la necessità di modificare il codice dell'applicazione. Questa protezione si applica ai protocolli supportati sia nei percorsi in entrata (verso l'agente) sia in uscita (dall'agente). Per saperne di più, consulta Eseguire l'integrazione con Agent Gateway.

Apigee

L'integrazione ti consente di utilizzare le funzionalità di protezione AI di Model Armor direttamente nel livello del gateway API Apigee. Configura policy Model Armor specifiche all'interno dei proxy API Apigee. Quando una chiamata API passa attraverso un proxy Apigee che dispone di queste policy, Apigee invia i prompt e le risposte al servizio Model Armor per l'ispezione. Per saperne di più, consulta Eseguire l'integrazione con Apigee.

Gemini Enterprise

Model Armor può essere integrato direttamente con Gemini Enterprise utilizzando i modelli. Gemini Enterprise instrada le interazioni tra utenti e agenti e gli LLM sottostanti tramite Model Armor. Ciò significa che i prompt degli utenti o degli agenti e le risposte generate dagli LLM vengono ispezionati da Model Armor prima di essere presentati all'utente. Per saperne di più, consulta Eseguire l'integrazione con Gemini Enterprise.

Server Google e Google Cloud MCP

Model Armor può essere configurato per proteggere i dati e i contenuti quando invii richieste ai Google Cloud servizi che espongono strumenti e server Model Context Protocol (MCP). Model Armor contribuisce a proteggere le applicazioni AI agentiche sanificando le chiamate e le risposte degli strumenti MCP utilizzando le impostazioni di base. Questa procedura riduce i rischi come la prompt injection e la divulgazione di dati sensibili. Per saperne di più, consulta Eseguire l'integrazione con i server Google e MCP. Google Cloud

Service Extensions

Model Armor può essere integrato con Google Cloud i servizi di rete tramite Service Extensions. Service Extensions ti consente di integrare servizi interni (Google Cloud servizi) o esterni (gestiti dall'utente) per elaborare il traffico. Puoi configurare un'estensione del servizio sui bilanciatori del carico delle applicazioni per filtrare il traffico di rete per varie interazioni AI, ad esempio con agenti e server MCP. Puoi anche utilizzare le estensioni del servizio con i gateway di inferenza GKE per filtrare il traffico in entrata e in uscita da un cluster GKE. In questo modo, tutte le interazioni AI che passano attraverso il bilanciatore del carico sono protette da Model Armor. Per saperne di più, consulta Eseguire l'integrazione con i servizi di rete Google Cloud .

Piattaforma agentica Gemini Enterprise

Model Armor può essere integrato direttamente nella piattaforma agentica Gemini Enterprise utilizzando le impostazioni di base o i modelli. Questa integrazione filtra le richieste e le risposte del modello Gemini, bloccando quelle che violano le impostazioni di base. Questa integrazione fornisce la protezione di prompt e risposte all'interno dell'API Gemini nella piattaforma agentica per il metodo generateContent. Devi abilitare Cloud Logging per visualizzare i risultati della sanificazione di prompt e risposte. Per saperne di più, consulta Eseguire l'integrazione con la piattaforma agentica Gemini Enterprise.

Prima di iniziare

Abilita API

Devi abilitare l'API Model Armor prima di poter utilizzare Model Armor.

Console

  1. Abilita l'API Model Armor.

    Ruoli richiesti per abilitare le API

    Per abilitare le API, devi disporre del ruolo IAM Amministratore utilizzo servizi (roles/serviceusage.serviceUsageAdmin), che contiene l'autorizzazione serviceusage.services.enable. Scopri come concedere i ruoli.

    Abilitare l'API

  2. Seleziona il progetto in cui vuoi attivare Model Armor.

gcloud

Prima di iniziare, segui questi passaggi utilizzando Google Cloud CLI con l'API Model Armor:

  1. Nella Google Cloud console, attiva Cloud Shell.

    Attiva Cloud Shell

    Nella parte inferiore della Google Cloud console, viene avviata una sessione di Cloud Shell e viene visualizzato un prompt della riga di comando. Cloud Shell è un ambiente shell con Google Cloud CLI già inclusa e installata e con valori già impostati per il progetto corrente. L'inizializzazione della sessione può richiedere alcuni secondi.

  2. Imposta l'override dell'endpoint API utilizzando gcloud CLI.

Imposta l'override dell'endpoint API utilizzando gcloud CLI

Questo passaggio è necessario solo se utilizzi gcloud CLI per abilitare l'API Model Armor. Devi impostare manualmente l'override dell'endpoint API per assicurarti che gcloud CLI instradi correttamente le richieste al servizio Model Armor.

Esegui il comando seguente per impostare l'endpoint API per il servizio Model Armor.

gcloud config set api_endpoint_overrides/modelarmor "https://modelarmor.LOCATION.rep.googleapis.com/"

Sostituisci LOCATION con la regione in cui vuoi utilizzare Model Armor.

Gestisci quota

Model Armor utilizza un sistema di quote per garantire un utilizzo equo e proteggere la stabilità del sistema. La quota predefinita per l'API Model Armor è di 1200 QPM per progetto. Puoi applicare un valore compreso tra 0 e 1200 QPM per progetto. Per richiedere una modifica, consulta Richiedere una modifica della quota. Se hai bisogno di una quota superiore a quella predefinita, contatta l'assistenza clienti Google Cloud.

La quota di Model Armor richiede considerazioni importanti durante l'integrazione con altri servizi. La quota principale con cui interagisci è il numero di richieste API al minuto per progetto.

  • Quota predefinita di Model Armor:quando un servizio effettua una chiamata all'API Model Armor per l'analisi (ad esempio, il controllo di prompt o risposte), questa utilizza la quota API Model Armor del tuo progetto.
  • Quota dei servizi di integrazione:la quota di Model Armor è separata da eventuali quote associate ai servizi di integrazione. Devi assicurarti che la quota sia sufficiente per tutti i servizi nel percorso della richiesta. Qualsiasi chiamata effettuata all'API Model Armor per sanificare i contenuti della tua applicazione viene conteggiata rispetto ai limiti di quota dell'API Model Armor.

Scopri le situazioni di esaurimento della quota

Se i log dell'applicazione mostrano errori di Model Armor, in genere errori HTTP 429 RESOURCE_EXHAUSTED, che indicano un numero eccessivo di richieste, hai raggiunto i limiti di quota di Model Armor.

Stima le esigenze di quota

Per determinare la quota di Model Armor da richiedere:

  • Stima il numero massimo di richieste al minuto che i tuoi servizi invieranno a Model Armor.
  • Considera quante volte viene chiamata Model Armor per interazione utente con il tuo servizio (ad esempio, una volta per il prompt e una volta per la risposta).
  • Tieni conto del numero massimo di utenti o sessioni simultanee.
  • Richiedi una quota con un buffer ragionevole (ad esempio, il 20-30% in più rispetto al picco previsto) per gestire picchi imprevisti.
  • Inizia con la tua stima migliore, monitora attentamente l'utilizzo dopo il lancio e richiedi ulteriori modifiche in base alle esigenze.

Ad esempio, se prevedi 500 utenti al minuto e ogni interazione utente chiama Model Armor due volte (prompt e risposta), hai bisogno di almeno 1000 QPM. Tenendo conto di un buffer, richiedere 1200-1300 QPM è un buon punto di partenza.

Considerazioni

  • Assicurati di monitorare e gestire le quote per altri servizi. L'esaurimento della quota per altri servizi influisce sulla tua applicazione, anche se hai una quota di Model Armor sufficiente.
  • Implementa i tentativi di ripetizione lato client con backoff esponenziale nella configurazione dell'applicazione per gestire problemi di quota temporanei o altri errori ripetibili. Per saperne di più, consulta Strategia di ripetizione.

Esegui l'integrazione utilizzando l'API REST

Quando utilizzi l'API REST per l'integrazione, Model Armor funziona solo come rilevatore utilizzando i modelli. Identifica e segnala potenziali violazioni delle norme in base a modelli predefiniti anziché impedirle attivamente. Quando esegui l'integrazione con l'API Model Armor, la tua applicazione può utilizzare l'output di Model Armor per bloccare o consentire le azioni in base ai risultati della valutazione di sicurezza forniti. L'API Model Armor restituisce informazioni su potenziali minacce o violazioni delle norme relative al traffico API, in particolare nel caso di interazioni AI/LLM. La tua applicazione può chiamare l'API Model Armor e utilizzare le informazioni ricevute nella risposta per prendere una decisione e intraprendere un'azione in base alla logica personalizzata predefinita.

Opzioni per l'integrazione di Model Armor

Model Armor offre le seguenti opzioni di integrazione. Ogni opzione fornisce funzionalità e capacità diverse.

Opzione di integrazione Configura i rilevamenti Solo ispezione Ispezione e blocco Copertura
Agent Gateway (anteprima) Solo utilizzando i modelli Tutti i modelli e tutti i cloud
Apigee Solo utilizzando i modelli Tutti i modelli e tutti i cloud2
Gemini Enterprise Solo utilizzando i modelli Tutti i modelli e tutti i cloud2
Server Google e Google Cloud MCP Solo utilizzando le impostazioni di base Server Google e Google Cloud MCP
Service Extensions Solo utilizzando i modelli Modelli in formato OpenAI1, agenti e server MCP su tutti i cloud2
Piattaforma agentica Gemini Enterprise Utilizzando sia le impostazioni di base sia i modelli Modelli Gemini (non in streaming)

1 Diversi modelli popolari, tra cui Anthropic Claude, Mistral AI e Grok, supportano le specifiche OpenAI. Questi modelli vengono in genere implementati utilizzando motori di inferenza come vLLM, che forniscono il livello API compatibile con OpenAI necessario. vLLM supporta un'ampia gamma di modelli, tra cui la serie Meta Llama, DeepSeek, le famiglie Mistral e Mixtral e Gemma.

2 Include altri cloud pubblici come AWS e Azure.

Con l'opzione di integrazione della piattaforma agentica Gemini Enterprise, Model Armor fornisce l'applicazione in linea utilizzando le impostazioni di base o i modelli. Ciò significa che Model Armor applica attivamente le policy intervenendo direttamente nel processo senza richiedere modifiche al codice dell'applicazione.

Le integrazioni di Service Extensions e Gemini Enterprise utilizzano solo i modelli per l'applicazione in linea delle policy. Ciò significa che Model Armor può applicare le policy direttamente senza richiedere la modifica del codice dell'applicazione sia all'interno di Service Extensions sia durante le interazioni utente o agente all'interno delle istanze di Gemini Enterprise.

L'integrazione di Model Armor e Gemini Enterprise sanifica solo il prompt utente iniziale e la risposta finale dell'agente o del modello. I passaggi intermedi che si verificano tra il prompt utente iniziale e la generazione di risposte finale non sono coperti da questa integrazione.

Model Armor in Security Command Center

Model Armor ispeziona i prompt e le risposte LLM per varie minacce, tra cui prompt injection, tentativi di jailbreak, URL dannosi e contenuti dannosi. Quando Model Armor rileva una violazione di un'impostazione di base configurata, blocca il prompt o la risposta e invia un risultato a Security Command Center. Per saperne di più, consulta Risultati di Model Armor.