Integrasi Model Armor dengan layanan Google Cloud

Model Armor terintegrasi dengan berbagai layanan Google Cloud :

  • Google Kubernetes Engine (GKE) dan Ekstensi Layanan
  • Vertex AI
  • Gemini Enterprise
  • Server MCP Google Cloud (Pratinjau)

GKE dan Ekstensi Layanan

Model Armor dapat diintegrasikan dengan GKE melalui Service Extensions. Ekstensi Layanan memungkinkan Anda mengintegrasikan layanan internal (layananGoogle Cloud ) atau eksternal (dikelola pengguna) untuk memproses traffic. Anda dapat mengonfigurasi ekstensi layanan di load balancer aplikasi, termasuk gateway inferensi GKE, untuk menyaring traffic ke dan dari cluster GKE. Hal ini memverifikasi bahwa semua interaksi dengan model AI dilindungi oleh Model Armor. Untuk mengetahui informasi selengkapnya, lihat Integrasi dengan GKE.

Vertex AI

Model Armor dapat diintegrasikan langsung ke Vertex AI menggunakan setelan batas bawah atau template. Integrasi ini menyaring permintaan dan respons model Gemini, memblokir permintaan dan respons yang melanggar setelan batas bawah. Integrasi ini memberikan perlindungan perintah dan respons dalam Gemini API di Vertex AI untuk metode generateContent. Anda harus mengaktifkan Cloud Logging untuk mendapatkan visibilitas ke dalam hasil pembersihan perintah dan respons. Untuk mengetahui informasi selengkapnya, lihat Integrasi dengan Vertex AI.

Gemini Enterprise

Model Armor dapat diintegrasikan langsung dengan Gemini Enterprise menggunakan template. Gemini Enterprise merutekan interaksi antara pengguna dan agen serta LLM yang mendasarinya melalui Model Armor. Artinya, perintah dari pengguna atau agen, dan respons yang dihasilkan oleh LLM, diperiksa oleh Model Armor sebelum ditampilkan kepada pengguna. Untuk informasi selengkapnya, lihat Integrasi dengan Gemini Enterprise.

Server MCP Google Cloud

Model Armor dapat dikonfigurasi untuk membantu melindungi data Anda dan mengamankan konten saat mengirim permintaan ke layanan Google Cloud yang mengekspos alat dan server Model Context Protocol (MCP). Model Armor membantu mengamankan aplikasi AI agentic Anda dengan membersihkan panggilan dan respons alat MCP menggunakan setelan batas bawah. Proses ini memitigasi risiko seperti injeksi perintah dan pengungkapan data sensitif. Untuk mengetahui informasi selengkapnya, lihat Integrasi dengan server MCP Google Cloud.

Sebelum memulai

Mengaktifkan API

Anda harus mengaktifkan Model Armor API sebelum dapat menggunakan Model Armor.

Konsol

  1. Enable the Model Armor API.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the API

  2. Pilih project tempat Anda ingin mengaktifkan Model Armor.

gcloud

Sebelum memulai, ikuti langkah-langkah berikut menggunakan Google Cloud CLI dengan Model Armor API:

  1. In the Google Cloud console, activate Cloud Shell.

    Activate Cloud Shell

    At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.

  2. Jalankan perintah berikut untuk menetapkan endpoint API bagi layanan Model Armor.

    gcloud config set api_endpoint_overrides/modelarmor "https://modelarmor.LOCATION.rep.googleapis.com/"

    Ganti LOCATION dengan region tempat Anda ingin menggunakan Model Armor.

  3. Opsi saat mengintegrasikan Model Armor

    Model Armor menawarkan opsi integrasi berikut. Setiap opsi menyediakan fitur dan kemampuan yang berbeda.

    Opsi integrasi Penegak/pendeteksi kebijakan Mengonfigurasi deteksi Hanya periksa Memeriksa dan memblokir Cakupan model dan cloud
    REST API Pendeteksi Hanya menggunakan template Ya Ya Semua model dan semua cloud
    Vertex AI Penerapan inline Menggunakan setelan minimum atau template Ya Ya Gemini (non-streaming) di Google Cloud
    Google Kubernetes Engine Penerapan inline Hanya menggunakan template Ya Ya Model dengan format OpenAI diaktifkan Google Cloud
    Gemini Enterprise Penerapan inline Hanya menggunakan template Ya Ya Semua model dan semua cloud
    Server MCPGoogle Cloud (Pratinjau) Penerapan inline Hanya menggunakan setelan minimum Ya Ya MCP di Google Cloud

    Untuk opsi integrasi REST API, Model Armor hanya berfungsi sebagai detektor menggunakan template. Artinya, fitur ini mengidentifikasi dan melaporkan potensi pelanggaran kebijakan berdasarkan template yang telah ditentukan, bukan secara aktif mencegahnya. Saat terintegrasi dengan Model Armor API, aplikasi Anda dapat menggunakan outputnya untuk memblokir atau mengizinkan tindakan berdasarkan hasil evaluasi keamanan yang diberikan. Model Armor API menampilkan informasi tentang potensi ancaman atau pelanggaran kebijakan terkait traffic API Anda, terutama dalam kasus interaksi AI/LLM. Aplikasi Anda dapat memanggil Model Armor API dan menggunakan informasi yang diterima dalam respons untuk membuat keputusan dan mengambil tindakan berdasarkan logika kustom yang telah ditentukan sebelumnya.

    Dengan opsi integrasi Vertex AI, Model Armor memberikan penegakan inline menggunakan setelan atau template batas bawah. Artinya, Model Armor secara aktif menerapkan kebijakan dengan melakukan intervensi langsung dalam proses tanpa memerlukan modifikasi pada kode aplikasi Anda.

    Integrasi GKE dan Gemini Enterprise hanya menggunakan template untuk penerapan kebijakan inline. Artinya, Model Armor dapat menerapkan kebijakan secara langsung tanpa mengharuskan Anda mengubah kode aplikasi baik dalam gateway inferensi GKE maupun selama interaksi pengguna atau agen dalam instance Gemini Enterprise.

    Integrasi Model Armor dan Gemini Enterprise hanya menyaring perintah pengguna awal dan respons akhir agen atau model. Langkah-langkah perantara yang terjadi antara perintah pengguna awal dan pembuatan respons akhir tidak tercakup dalam integrasi ini.

    Model Armor di Security Command Center

    Model Armor memeriksa perintah dan respons LLM untuk mendeteksi berbagai ancaman, termasuk injeksi perintah, upaya jailbreak, URL berbahaya, dan konten berbahaya. Saat mendeteksi pelanggaran setelan batas bawah yang dikonfigurasi, Model Armor akan memblokir perintah atau respons dan mengirimkan temuan ke Security Command Center. Untuk mengetahui informasi selengkapnya, lihat Temuan Model Armor.