Perspektif AI dan ML: Keamanan

Dokumen dalam Well-Architected Framework: Perspektif AI dan ML ini memberikan ringkasan prinsip dan rekomendasi untuk memastikan bahwa deployment AI dan ML Anda memenuhi persyaratan keamanan dan kepatuhan organisasi Anda. Rekomendasi dalam dokumen ini selaras dengan pilar keamanan dari Google Cloud Framework yang Dirancang dengan Baik.

Deployment workload AI dan ML yang aman adalah persyaratan penting, terutama di lingkungan perusahaan. Untuk memenuhi persyaratan ini, Anda perlu menerapkan pendekatan keamanan holistik yang dimulai dari konseptualisasi awal solusi AI dan ML Anda, serta diperluas ke pengembangan, deployment, dan operasi berkelanjutan. Google Cloud menawarkan alat dan layanan yang andal yang dirancang untuk membantu mengamankan workload AI dan ML Anda.

Rekomendasi dalam dokumen ini dipetakan ke prinsip inti berikut:

Untuk mengetahui informasi selengkapnya tentang keamanan AI, Anda juga dapat meninjau referensi berikut:

  • Secure AI Framework (SAIF) dariGoogle Cloud memberikan panduan komprehensif untuk membangun sistem AI yang aman dan bertanggung jawab. Panduan ini menguraikan prinsip-prinsip utama dan praktik terbaik untuk mengatasi pertimbangan keamanan dan kepatuhan di seluruh siklus proses AI.
  • Untuk mempelajari lebih lanjut pendekatan Google Cloud's terhadap kepercayaan pada AI, lihat pusat referensi kepatuhan kami.

Tentukan tujuan dan persyaratan yang jelas

Keamanan AI dan ML yang efektif adalah komponen inti dari strategi bisnis Anda secara keseluruhan. Lebih mudah untuk mengintegrasikan kontrol keamanan dan kepatuhan yang diperlukan di awal proses desain dan pengembangan Anda, daripada menambahkan kontrol setelah pengembangan.

Sejak awal proses desain dan pengembangan, buat keputusan yang sesuai untuk lingkungan risiko spesifik dan prioritas bisnis spesifik Anda. Misalnya, langkah keamanan yang terlalu ketat dapat melindungi data, tetapi juga menghambat inovasi dan memperlambat siklus pengembangan. Namun, kurangnya keamanan dapat menyebabkan pelanggaran data, kerusakan reputasi, dan kerugian finansial, yang merugikan sasaran bisnis.

Untuk menentukan sasaran dan persyaratan yang jelas, pertimbangkan rekomendasi berikut.

Menyelaraskan keamanan AI dan ML dengan sasaran bisnis

Untuk menyelaraskan upaya keamanan AI dan ML dengan sasaran bisnis Anda, gunakan pendekatan strategis yang mengintegrasikan keamanan ke dalam setiap tahap siklus proses AI. Untuk mengikuti pendekatan ini, lakukan hal berikut:

  1. Tentukan tujuan bisnis dan persyaratan keamanan yang jelas:

    • Identifikasi sasaran bisnis utama: Tentukan tujuan bisnis yang jelas yang dirancang untuk dicapai oleh inisiatif AI dan ML Anda. Misalnya, tujuan Anda mungkin adalah meningkatkan pengalaman pelanggan, mengoptimalkan operasi, atau mengembangkan produk baru.
    • Menerjemahkan sasaran menjadi persyaratan keamanan: Saat Anda memperjelas sasaran bisnis, tetapkan persyaratan keamanan khusus untuk mendukung sasaran tersebut. Misalnya, sasaran Anda mungkin menggunakan AI untuk mempersonalisasi rekomendasi pelanggan. Untuk mendukung tujuan tersebut, persyaratan keamanan Anda mungkin adalah melindungi privasi data pelanggan dan mencegah akses tidak sah ke algoritma rekomendasi.
  2. Menyeimbangkan keamanan dengan kebutuhan bisnis:

    • Lakukan penilaian risiko: Identifikasi potensi ancaman dan kerentanan keamanan dalam sistem AI Anda.
    • Prioritaskan tindakan keamanan: Tetapkan prioritas tindakan keamanan ini berdasarkan potensi dampaknya terhadap sasaran bisnis Anda.
    • Analisis biaya dan manfaatnya: Pastikan Anda berinvestasi pada solusi yang paling efektif. Pertimbangkan biaya dan manfaat dari berbagai tindakan keamanan.
    • Geser ke kiri untuk keamanan: Terapkan praktik terbaik keamanan sejak awal dalam fase desain, dan sesuaikan tindakan pengamanan Anda seiring perubahan kebutuhan bisnis dan munculnya ancaman.

Mengidentifikasi potensi vektor serangan dan risiko

Pertimbangkan potensi vektor serangan yang dapat memengaruhi sistem AI Anda, seperti keracunan data, inversi model, atau serangan adversarial. Terus pantau dan evaluasi permukaan serangan yang terus berkembang seiring dengan perkembangan sistem AI Anda, serta pantau ancaman dan kerentanan baru. Ingatlah bahwa perubahan pada sistem AI Anda juga dapat menyebabkan perubahan pada permukaan serangan sistem tersebut.

Untuk mengurangi potensi risiko hukum dan reputasi, Anda juga perlu memenuhi persyaratan kepatuhan terkait privasi data, bias algoritma, dan peraturan relevan lainnya.

Untuk mengantisipasi potensi ancaman dan kerentanan sejak dini serta membuat pilihan desain yang memitigasi risiko, terapkan pendekatan aman dari desain.

Google Cloud menyediakan rangkaian alat dan layanan komprehensif untuk membantu Anda menerapkan pendekatan aman sejak desain:

  • Pengelolaan postur keamanan cloud: Gunakan Security Command Center untuk mengidentifikasi potensi kerentanan dan kesalahan konfigurasi di infrastruktur AI Anda.
  • Skor eksposur serangan dan jalur serangan: Perbaiki dan gunakan skor eksposur serangan dan jalur serangan yang dihasilkan Security Command Center.
  • Google Threat Intelligence: Terus dapatkan informasi tentang ancaman dan teknik serangan baru yang muncul untuk menargetkan sistem AI.
  • Logging dan Pemantauan: Lacak performa dan keamanan sistem AI Anda, serta deteksi anomali atau aktivitas mencurigakan. Lakukan audit keamanan secara rutin untuk mengidentifikasi dan mengatasi potensi kerentanan dalam infrastruktur dan model AI Anda.
  • Pengelolaan kerentanan: Terapkan proses pengelolaan kerentanan untuk melacak dan memperbaiki kerentanan keamanan dalam sistem AI Anda.

Untuk mengetahui informasi selengkapnya, lihat Secure by Design di Google dan Menerapkan keamanan berdasarkan desain.

Menjaga keamanan data dan mencegah kehilangan atau kesalahan penanganan

Data adalah aset berharga dan sensitif yang harus dijaga keamanannya. Keamanan data membantu Anda mempertahankan kepercayaan pengguna, mendukung tujuan bisnis, dan memenuhi persyaratan kepatuhan.

Untuk membantu menjaga keamanan data Anda, pertimbangkan rekomendasi berikut.

Mematuhi prinsip minimalisasi data

Untuk memastikan privasi data, patuhi prinsip minimalisasi data. Untuk meminimalkan data, jangan kumpulkan, simpan, atau gunakan data yang tidak benar-benar diperlukan untuk tujuan bisnis Anda. Jika memungkinkan, gunakan data sintetis atau data yang sepenuhnya anonim.

Pengumpulan data dapat membantu mendorong insight dan analisis bisnis, tetapi sangat penting untuk berhati-hati dalam proses pengumpulan data. Jika Anda mengumpulkan informasi identitas pribadi (PII) tentang pelanggan, mengungkapkan informasi sensitif, atau membuat bias atau kontroversi, Anda mungkin membuat model ML yang bias.

Anda dapat menggunakan Google Cloud fitur untuk membantu Anda meningkatkan minimisasi data dan privasi data untuk berbagai kasus penggunaan:

  • Untuk melakukan de-identifikasi data Anda sekaligus mempertahankan utilitasnya, terapkan metode transformasi seperti pseudonymization, de-identifikasi, dan generalisasi seperti bucketing. Untuk menerapkan metode ini, Anda dapat menggunakan Sensitive Data Protection.
  • Untuk memperkaya data dan memitigasi potensi bias, Anda dapat menggunakan tugas pelabelan data Vertex AI. Proses pelabelan data menambahkan tag yang informatif dan bermakna ke data mentah, yang mengubahnya menjadi data pelatihan terstruktur untuk model ML. Pelabelan data menambahkan spesifisitas pada data dan mengurangi ambiguitas.
  • Untuk membantu melindungi resource dari akses atau manipulasi yang berkepanjangan, gunakan fitur Cloud Storage untuk mengontrol siklus proses data.

Untuk mengetahui praktik terbaik tentang cara menerapkan enkripsi data, lihat enkripsi data dalam penyimpanan dan dalam pengiriman di Framework yang Dirancang dengan Baik.

Memantau pengumpulan, penyimpanan, dan transformasi data

Data pelatihan aplikasi AI Anda menimbulkan risiko terbesar untuk munculnya bias dan kebocoran data. Agar tetap mematuhi dan mengelola data di berbagai tim, buat lapisan tata kelola data untuk memantau alur data, transformasi, dan akses. Pertahankan log untuk aktivitas akses dan manipulasi data. Log ini membantu Anda mengaudit akses data, mendeteksi upaya akses tidak sah, dan mencegah akses yang tidak diinginkan.

Anda dapat menggunakan fitur Google Cloud untuk membantu Anda menerapkan strategi tata kelola data:

  • Untuk membuat platform tata kelola data di seluruh organisasi atau di seluruh departemen, gunakan Dataplex Universal Catalog. Platform tata kelola data dapat membantu Anda menemukan, mengelola, memantau, dan mengatur data serta artefak AI secara terpusat di seluruh platform data Anda. Platform tata kelola data juga memberikan akses kepada pengguna tepercaya. Anda dapat melakukan tugas berikut dengan Dataplex Universal Catalog:
    • Mengelola asal-usul data. BigQuery juga dapat memberikan silsilah tingkat kolom.
    • Mengelola pemeriksaan kualitas data dan profil data.
    • Mengelola penemuan, eksplorasi, dan pemrosesan data di berbagai data mart.
    • Mengelola metadata fitur dan artefak model.
    • Buat glosarium bisnis untuk mengelola metadata dan menetapkan kosakata standar.
    • Perkaya metadata dengan konteks melalui aspek dan jenis aspek.
    • Menyatukan tata kelola data di seluruh tabel BigLake dan format terbuka seperti Iceberg dan Delta.
    • Bangun mesh data untuk mendesentralisasi kepemilikan data di antara pemilik data dari berbagai tim atau domain. Praktik ini mematuhi prinsip keamanan data dan dapat membantu meningkatkan aksesibilitas data dan efisiensi operasional.
    • Periksa dan kirim hasil data sensitif dari BigQuery ke Dataplex Universal Catalog.
  • Untuk membangun lakehouse terbuka terpadu yang dikelola dengan baik, integrasikan data lake dan data warehouse Anda dengan layanan metastore terkelola seperti Dataproc Metastore dan BigLake metastore. Lakehouse terbuka menggunakan format tabel terbuka yang kompatibel dengan berbagai mesin pemrosesan data.
  • Untuk menjadwalkan pemantauan fitur dan grup fitur, gunakan Vertex AI Feature Store.
  • Untuk memindai set data Vertex AI di tingkat organisasi, folder, atau project, gunakan Penemuan data sensitif untuk Vertex AI. Anda juga dapat menganalisis profil data yang disimpan di BigQuery.
  • Untuk merekam log real-time dan mengumpulkan metrik terkait pipeline data, gunakan Cloud Logging dan Cloud Monitoring. Untuk mengumpulkan jejak audit panggilan API, gunakan Cloud Audit Logs. Jangan mencatat PII atau data rahasia dalam eksperimen atau di server log yang berbeda.

Menerapkan kontrol akses berbasis peran dengan prinsip hak istimewa terendah

Terapkan kontrol akses berbasis peran (RBAC) untuk menetapkan berbagai tingkat akses berdasarkan peran pengguna. Pengguna hanya boleh memiliki izin minimum yang diperlukan untuk memungkinkan mereka melakukan aktivitas peran mereka. Tetapkan izin berdasarkan prinsip hak istimewa terendah agar pengguna hanya memiliki akses yang mereka butuhkan, seperti tidak ada akses, hanya baca, atau tulis.

RBAC dengan hak istimewa paling rendah penting untuk keamanan saat organisasi Anda menggunakan data sensitif yang berada di data lake, di penyimpanan fitur, atau di hyperparameter untuk pelatihan model. Praktik ini membantu Anda mencegah pencurian data, menjaga integritas model, dan membatasi area permukaan untuk kecelakaan atau serangan.

Untuk membantu Anda menerapkan strategi akses ini, Anda dapat menggunakan fitur Google Cloud berikut:

  • Untuk menerapkan perincian akses, pertimbangkan opsi berikut:

    • Petakan peran IAM berbagai produk ke akun pengguna, grup, atau layanan untuk mengizinkan akses terperinci. Petakan peran ini berdasarkan kebutuhan project, pola akses, atau tag Anda.
    • Tetapkan kebijakan IAM dengan kondisi untuk mengelola akses terperinci ke data, model, dan konfigurasi model, seperti kode, setelan resource, dan hiperparameter.
    • Jelajahi akses terperinci tingkat aplikasi yang membantu Anda mengamankan data sensitif yang Anda audit dan bagikan di luar tim Anda.

  • Untuk membatasi akses ke resource tertentu, Anda dapat menggunakan kebijakan batas akses prinsipal (PAB). Anda juga dapat menggunakan Privileged Access Manager untuk mengontrol peningkatan hak istimewa sementara tepat waktu untuk principal tertentu. Selanjutnya, Anda dapat melihat log audit untuk aktivitas Privileged Access Manager ini.

  • Untuk membatasi akses ke resource berdasarkan alamat IP dan atribut perangkat pengguna akhir, Anda dapat memperluas kebijakan akses Identity-Aware Proxy (IAP).

  • Untuk membuat pola akses bagi berbagai grup pengguna, Anda dapat menggunakan kontrol akses Vertex AI dengan IAM untuk menggabungkan peran bawaan atau kustom.

  • Untuk melindungi instance Vertex AI Workbench menggunakan kontrol akses kontekstual, gunakan Access Context Manager dan Chrome Enterprise Premium. Dengan pendekatan ini, akses dievaluasi setiap kali pengguna mengautentikasi ke instance.

Menerapkan langkah-langkah keamanan untuk pergerakan data

Terapkan perimeter yang aman dan langkah-langkah lain seperti enkripsi dan pembatasan pada pergerakan data. Langkah-langkah ini membantu Anda mencegah pemindahan data yang tidak sah dan kehilangan data, yang dapat menyebabkan kerugian finansial, kerusakan reputasi, kewajiban hukum, dan gangguan pada operasi bisnis.

Untuk membantu mencegah pemindahan data yang tidak sah dan kehilangan data di Google Cloud, Anda dapat menggunakan kombinasi alat dan layanan keamanan.

Untuk menerapkan enkripsi, pertimbangkan hal berikut:

  • Untuk mendapatkan kontrol yang lebih besar atas kunci enkripsi, gunakan kunci enkripsi yang dikelola pelanggan (CMEK) di Cloud KMS. Saat Anda menggunakan CMEK, layanan yang terintegrasi dengan CMEK berikut akan mengenkripsi data dalam penyimpanan untuk Anda:
  • Untuk membantu melindungi data Anda di Cloud Storage, gunakan enkripsi sisi server untuk menyimpan CMEK Anda. Jika Anda mengelola CMEK di server Anda sendiri, enkripsi sisi server dapat membantu melindungi CMEK dan data terkait, meskipun sistem penyimpanan CMEK Anda disusupi.
  • Untuk mengenkripsi data saat transit, gunakan HTTPS untuk semua panggilan API Anda ke layanan AI dan ML. Untuk menerapkan HTTPS bagi aplikasi dan API Anda, gunakan load balancer HTTPS.

Untuk mengetahui praktik terbaik lainnya tentang cara mengenkripsi data, lihat Enkripsi data dalam penyimpanan dan dalam pengiriman di pilar keamanan Well-Architected Framework.

Untuk menerapkan perimeter, pertimbangkan hal berikut:

  • Untuk membuat batas keamanan di sekitar resource AI dan ML Anda serta mencegah pemindahan data yang tidak sah dari Virtual Private Cloud (VPC), gunakan Kontrol Layanan VPC untuk menentukan perimeter layanan. Sertakan resource AI dan ML serta data sensitif Anda dalam perimeter. Untuk mengontrol aliran data, konfigurasikan aturan masuk dan keluar untuk perimeter Anda.
  • Untuk membatasi traffic masuk dan keluar ke resource AI dan ML Anda, konfigurasi aturan firewall. Terapkan kebijakan yang menolak semua traffic secara default dan secara eksplisit hanya mengizinkan traffic yang memenuhi kriteria Anda. Untuk contoh kebijakan, lihat Contoh: Menolak semua koneksi eksternal kecuali ke port tertentu.

Untuk menerapkan batasan pada perpindahan data, pertimbangkan hal berikut:

  • Untuk berbagi data dan menskalakan di seluruh batas privasi dalam lingkungan yang aman, gunakan berbagi BigQuery dan ruang bersih data BigQuery, yang menyediakan framework keamanan dan privasi yang andal.
  • Untuk membagikan data langsung ke tujuan bawaan dari dasbor business intelligence, gunakan Hub Tindakan Looker, yang menyediakan lingkungan cloud yang aman.

Melindungi dari pencemaran data

Pencemaran data adalah jenis serangan siber yang dilakukan penyerang dengan menyuntikkan data berbahaya ke dalam set data pelatihan untuk memanipulasi perilaku model atau menurunkan performa. Serangan cyber ini dapat menjadi ancaman serius bagi sistem pelatihan ML. Untuk melindungi validitas dan kualitas data, pertahankan praktik yang melindungi data Anda. Pendekatan ini sangat penting untuk konsistensi ketidakberpihakan, keandalan, dan integritas model Anda.

Untuk melacak perilaku, transformasi, atau akses yang tidak terduga ke data Anda yang tidak konsisten, siapkan pemantauan dan pemberitahuan yang komprehensif untuk pipeline data dan pipeline ML.

Google Cloud dapat membantu Anda menerapkan lebih banyak perlindungan terhadap keracunan data:

  • Untuk memvalidasi integritas data, pertimbangkan hal berikut:

    • Terapkan pemeriksaan validasi data yang andal sebelum Anda menggunakan data untuk pelatihan. Verifikasi format, rentang, dan distribusi data. Anda dapat menggunakan kemampuan kualitas data otomatis di Dataplex Universal Catalog.
    • Gunakan Sensitive Data Protection dengan Model Armor untuk memanfaatkan kemampuan pencegahan kebocoran data yang komprehensif. Untuk mengetahui informasi selengkapnya, lihat Konsep utama Model Armor. Sensitive Data Protection dengan Model Armor memungkinkan Anda menemukan, mengklasifikasikan, dan melindungi data sensitif seperti kekayaan intelektual. Kemampuan ini dapat membantu Anda mencegah eksposur data sensitif yang tidak sah dalam interaksi LLM.
    • Untuk mendeteksi anomali dalam data pelatihan yang mungkin mengindikasikan keracunan data, gunakan deteksi anomali di BigQuery dengan metode statistik atau model ML.
  • Untuk mempersiapkan pelatihan yang andal, lakukan hal berikut:

    • Gunakan metode ansambel untuk mengurangi dampak titik data yang diracuni. Latih beberapa model pada subset data yang berbeda dengan penyesuaian hyperparameter.
    • Gunakan teknik augmentasi data untuk menyeimbangkan distribusi data di seluruh set data. Pendekatan ini dapat mengurangi dampak keracunan data dan memungkinkan Anda menambahkan contoh adversarial.
  • Untuk menyertakan peninjauan oleh petugas untuk data pelatihan atau output model, lakukan hal berikut:

    • Menganalisis metrik evaluasi model untuk mendeteksi potensi bias, anomali, atau perilaku tidak terduga yang mungkin menunjukkan keracunan data. Untuk mengetahui detailnya, lihat Evaluasi model di Vertex AI.
    • Manfaatkan keahlian domain untuk mengevaluasi model atau aplikasi dan mengidentifikasi pola atau titik data mencurigakan yang mungkin tidak terdeteksi oleh metode otomatis. Untuk mengetahui detailnya, lihat Ringkasan layanan evaluasi AI generatif.

Untuk mengetahui praktik terbaik tentang cara membuat platform data yang berfokus pada keamanan data dan infrastruktur, lihat prinsip Menerapkan keamanan sejak awal dalam Framework yang Dirancang dengan Baik.

Menjaga keamanan dan keandalan pipeline AI dari modifikasi tidak sah

Kode AI dan ML Anda serta pipeline yang ditentukan kode adalah aset penting. Kode yang tidak diamankan dapat dimanipulasi, yang dapat menyebabkan kebocoran data, kegagalan kepatuhan, dan gangguan aktivitas bisnis penting. Menjaga keamanan kode AI dan ML membantu memastikan integritas dan nilai model serta output model Anda.

Untuk menjaga keamanan kode dan pipeline AI, pertimbangkan rekomendasi berikut.

Menggunakan praktik coding yang aman

Untuk mencegah kerentanan, gunakan praktik coding yang aman saat Anda mengembangkan model. Sebaiknya Anda menerapkan validasi input dan output khusus AI, mengelola semua dependensi software, dan secara konsisten menyematkan prinsip coding yang aman ke dalam pengembangan Anda. Sematkan keamanan di setiap tahap siklus proses AI, mulai dari pra-pemrosesan data hingga kode aplikasi akhir Anda.

Untuk menerapkan validasi yang ketat, pertimbangkan hal berikut:

  • Untuk mencegah manipulasi model atau eksploitasi sistem, validasi dan bersihkan input dan output dalam kode Anda.

    • Gunakan Model Armor atau LLM yang di-tuning halus untuk secara otomatis menyaring perintah dan respons terhadap risiko umum.
    • Terapkan validasi data dalam skrip penyerapan dan praproses data untuk jenis, format, dan rentang data. Untuk Vertex AI Pipelines atau BigQuery, Anda dapat menggunakan Python untuk menerapkan validasi data ini.
    • Gunakan agen LLM asisten coding, seperti CodeMender, untuk meningkatkan keamanan kode. Tetap libatkan interaksi manusia untuk memvalidasi perubahan yang diusulkannya.
  • Untuk mengelola dan mengamankan endpoint API model AI Anda, gunakan Apigee, yang mencakup fitur yang dapat dikonfigurasi seperti validasi permintaan, kontrol traffic, dan autentikasi.

  • Untuk membantu mengurangi risiko di sepanjang siklus proses AI, Anda dapat menggunakan AI Protection untuk melakukan hal berikut:

    • Temukan inventaris AI di lingkungan Anda.
    • Menilai potensi kerentanan inventaris.
    • Mengamankan aset AI dengan kontrol, kebijakan, dan perlindungan.
    • Kelola sistem AI dengan kemampuan deteksi, investigasi, dan respons.

Untuk membantu mengamankan dependensi kode dan artefak di pipeline CI/CD Anda, pertimbangkan hal berikut:

  • Untuk mengatasi risiko yang dapat ditimbulkan oleh dependensi library open source pada project Anda, gunakan Analisis Artefak dengan Artifact Registry untuk mendeteksi kerentanan yang diketahui. Menggunakan dan mempertahankan versi library yang disetujui. Simpan paket ML kustom dan dependensi yang telah diperiksa di repositori Artifact Registry pribadi.
  • Untuk menyematkan pemindaian dependensi ke dalam pipeline MLOps Cloud Build Anda, gunakan Otorisasi Biner. Terapkan kebijakan yang hanya mengizinkan deployment jika image container kode Anda lulus pemeriksaan keamanan.
  • Untuk mendapatkan informasi keamanan tentang supply chain software Anda, gunakan dasbor di konsol Google Cloud yang memberikan detail tentang sumber, build, artefak, deployment, dan runtime. Informasi ini mencakup kerentanan dalam artefak build, asal-usul build, dan daftar dependensi Software Bill of Materials (SBOM).
  • Untuk menilai tingkat kematangan keamanan supply chain software Anda, gunakan framework Supply chain Levels for Software Artifacts (SLSA).

Untuk menyematkan prinsip coding yang aman secara konsisten ke dalam setiap tahap pengembangan, pertimbangkan hal berikut:

  • Untuk mencegah eksposur data sensitif dari interaksi model, gunakan Pencatatan dengan Sensitive Data Protection. Jika menggunakan produk ini bersama-sama, Anda dapat mengontrol data yang dicatat oleh aplikasi dan komponen pipeline AI Anda, serta menyembunyikan data sensitif.
  • Untuk menerapkan prinsip hak istimewa terendah, pastikan akun layanan yang Anda gunakan untuk tugas kustom, pipeline, dan model yang di-deploy Vertex AI hanya memiliki izin IAM minimum yang diperlukan. Untuk mengetahui informasi selengkapnya, lihat Menerapkan kontrol akses berbasis peran dengan prinsip hak istimewa terendah.
  • Untuk membantu mengamankan dan melindungi pipeline serta artefak build Anda, pahami konfigurasi keamanan (VPC dan Kontrol Layanan VPC) di lingkungan tempat kode Anda berjalan.

Melindungi pipeline dan artefak model dari akses tidak sah

Artefak dan pipeline model Anda adalah kekayaan intelektual, dan data pelatihannya juga berisi informasi eksklusif. Untuk melindungi bobot model, file, dan konfigurasi deployment dari gangguan dan kerentanan, simpan dan akses artefak ini dengan keamanan yang ditingkatkan. Terapkan tingkat akses yang berbeda untuk setiap artefak berdasarkan peran dan kebutuhan pengguna.

Untuk membantu mengamankan artefak model Anda, pertimbangkan hal berikut:

  • Untuk melindungi artefak model dan file sensitif lainnya, enkripsi dengan Cloud KMS. Enkripsi ini membantu melindungi data dalam penyimpanan dan dalam pengiriman, meskipun penyimpanan yang mendasarinya terganggu.
  • Untuk membantu mengamankan akses ke file Anda, simpan file tersebut di Cloud Storage dan konfigurasi kontrol akses.
  • Untuk melacak konfigurasi yang salah atau tidak memadai dan penyimpangan dari standar yang Anda tetapkan, gunakan Security Command Center untuk mengonfigurasi postur keamanan.
  • Untuk mengaktifkan kontrol akses terperinci dan enkripsi saat istirahat, simpan artefak model Anda di Vertex AI Model Registry. Untuk keamanan tambahan, buat tanda tangan digital untuk paket dan container yang dihasilkan selama proses build yang disetujui.
  • Untuk mendapatkan manfaat dari keamanan tingkat perusahaan Google Cloud, gunakan model yang tersedia di Model Garden. Model Garden menyediakan model eksklusif Google dan menawarkan model pihak ketiga dari partner unggulan.
  • Untuk menerapkan pengelolaan terpusat untuk semua siklus proses pengguna dan grup serta menerapkan prinsip hak istimewa terendah, gunakan IAM.

    • Buat dan gunakan akun layanan khusus dengan hak istimewa terendah untuk pipeline MLOps Anda. Misalnya, akun layanan pipeline pelatihan memiliki izin untuk membaca data hanya dari bucket Cloud Storage tertentu dan untuk menulis artefak model ke Model Registry.
    • Gunakan IAM Conditions untuk menerapkan kontrol akses berbasis atribut bersyarat. Misalnya, kondisi memungkinkan akun layanan memicu pipeline Vertex AI hanya jika permintaan berasal dari pemicu Cloud Build tepercaya.

Untuk membantu mengamankan pipeline deployment Anda, pertimbangkan hal berikut:

  • Untuk mengelola tahap MLOps di Google Cloud layanan dan resource, gunakan Vertex AI Pipelines, yang dapat berintegrasi dengan layanan lain dan memberikan kontrol akses tingkat rendah. Saat Anda menjalankan kembali pipeline, pastikan Anda melakukan pemeriksaan Vertex Explainable AI dan responsible AI sebelum men-deploy artefak model. Pemeriksaan ini dapat membantu Anda mendeteksi atau mencegah masalah keamanan berikut:

    • Perubahan yang tidak sah, yang dapat mengindikasikan adanya upaya merusak model.
    • Pembuatan skrip lintas situs (XSS), yang dapat menunjukkan image atau dependensi penampung yang terkompromi.
    • Endpoint yang tidak aman, yang dapat menunjukkan infrastruktur penayangan yang salah dikonfigurasi.
  • Untuk membantu mengamankan interaksi model selama inferensi, gunakan endpoint pribadi berdasarkan Private Service Connect dengan container bawaan atau container kustom. Buat tanda tangan model dengan skema input dan output yang telah ditentukan sebelumnya.

  • Untuk mengotomatiskan pelacakan perubahan kode, gunakan Git untuk pengelolaan kode sumber, dan integrasikan kontrol versi dengan pipeline CI/CD yang andal.

Untuk mengetahui informasi selengkapnya, lihat Mengamankan Pipeline AI.

Menerapkan silsilah dan pelacakan

Untuk membantu memenuhi persyaratan kepatuhan terhadap peraturan yang mungkin Anda miliki, terapkan pelacakan dan asal-usul aset AI dan ML Anda. Silsilah dan pelacakan data memberikan catatan perubahan yang ekstensif untuk data, model, dan kode. Asal-usul model memberikan transparansi dan akuntabilitas di seluruh siklus proses AI dan ML.

Untuk menerapkan pelacakan dan asal data secara efektif di Google Cloud, pertimbangkan alat dan layanan berikut:

  • Untuk melacak silsilah model, set data, dan artefak yang dienkripsi otomatis saat istirahat, gunakan Vertex ML Metadata. Mencatat metadata tentang sumber data, transformasi, parameter model, dan hasil eksperimen.
  • Untuk melacak silsilah artefak pipeline dari Vertex AI Pipelines, dan untuk menelusuri resource model dan set data, Anda dapat menggunakan Katalog Universal Dataplex. Lacak artefak pipeline individual saat Anda ingin melakukan proses debug, pemecahan masalah, atau analisis akar masalah. Untuk melacak seluruh pipeline MLOps, yang mencakup silsilah artefak pipeline, gunakan Vertex ML Metadata. Vertex ML Metadata juga memungkinkan Anda menganalisis resource dan operasi. Model Registry menerapkan dan mengelola versi setiap model yang Anda simpan.
  • Untuk melacak panggilan API dan tindakan administratif, aktifkan log audit untuk Vertex AI. Menganalisis log audit dengan Log Analytics untuk memahami siapa yang mengakses atau mengubah data dan model, serta kapan. Anda juga dapat merutekan log ke tujuan pihak ketiga.

Men-deploy di sistem yang aman dengan alat dan artefak yang aman

Pastikan kode dan model Anda berjalan di lingkungan yang aman. Lingkungan ini harus memiliki sistem kontrol akses yang kuat dan memberikan jaminan keamanan untuk alat dan artefak yang Anda deploy.

Untuk men-deploy kode Anda di sistem yang aman, pertimbangkan rekomendasi berikut.

Melatih dan men-deploy model di lingkungan yang aman

Untuk menjaga integritas, kerahasiaan, dan ketersediaan sistem AI dan ML Anda, terapkan kontrol akses yang ketat untuk mencegah manipulasi resource yang tidak sah. Pertahanan ini membantu Anda melakukan hal berikut:

  • Memitigasi upaya memanipulasi model yang dapat menghasilkan hasil yang tidak terduga atau bertentangan.
  • Lindungi data pelatihan Anda dari pelanggaran privasi.
  • Mempertahankan waktu beroperasi layanan.
  • Mempertahankan kepatuhan terhadap peraturan.
  • Membangun kepercayaan pengguna.

Untuk melatih model ML di lingkungan dengan keamanan yang ditingkatkan, gunakan layanan terkelola di Google Cloud seperti Cloud Run, GKE, dan Dataproc. Anda juga dapat menggunakan pelatihan tanpa server Vertex AI.

Bagian ini memberikan rekomendasi untuk membantu Anda lebih mengamankan lingkungan pelatihan dan deployment.

Untuk membantu mengamankan lingkungan dan perimeter Anda, pertimbangkan hal berikut:

Untuk membantu mengamankan deployment Anda, pertimbangkan hal berikut:

  • Saat men-deploy model, gunakan Model Registry. Jika Anda men-deploy model dalam container, gunakan GKE Sandbox dan Container-Optimized OS untuk meningkatkan keamanan dan mengisolasi workload. Membatasi akses ke model dari Model Garden berdasarkan peran dan tanggung jawab pengguna.
  • Untuk membantu mengamankan API model Anda, gunakan Apigee atau API Gateway. Untuk mencegah penyalahgunaan, terapkan kunci API, autentikasi, otorisasi, dan pembatasan kapasitas. Untuk mengontrol akses ke API model, gunakan kunci API dan mekanisme autentikasi.
  • Untuk membantu mengamankan akses ke model selama prediksi, gunakan Inferensi Vertex AI. Untuk mencegah pemindahan data yang tidak sah, gunakan perimeter Kontrol Layanan VPC untuk melindungi endpoint pribadi dan mengatur akses ke model pokok. Anda menggunakan endpoint pribadi untuk mengaktifkan akses ke model dalam jaringan VPC. IAM tidak diterapkan secara langsung ke endpoint pribadi, tetapi layanan target menggunakan IAM untuk mengelola akses ke model. Untuk prediksi online, sebaiknya Anda menggunakan Private Service Connect.
  • Untuk melacak panggilan API yang terkait dengan deployment model, aktifkan Cloud Audit Logs untuk Vertex AI. Panggilan API yang relevan mencakup aktivitas seperti pembuatan endpoint, deployment model, dan update konfigurasi.
  • Untuk memperluas infrastruktur ke lokasi edge, pertimbangkan solusi Google Distributed Cloud. Google Cloud Untuk solusi yang sepenuhnya terputus, Anda dapat menggunakan Distributed Cloud air-gapped, yang tidak memerlukan konektivitas ke Google Cloud.
  • Untuk membantu menstandardisasi deployment dan memastikan kepatuhan terhadap kebutuhan peraturan dan keamanan, gunakan Assured Workloads.

Mengikuti panduan SLSA untuk artefak AI

Ikuti pedoman Supply-chain Levels for Software Artifacts (SLSA) standar untuk artefak khusus AI Anda, seperti model dan paket software.

SLSA adalah framework keamanan yang dirancang untuk membantu Anda meningkatkan integritas artefak software dan membantu mencegah gangguan. Jika Anda mematuhi pedoman SLSA, Anda dapat meningkatkan keamanan pipeline AI dan ML serta artefak yang dihasilkan pipeline. Kepatuhan terhadap SLSA dapat memberikan manfaat berikut:

  • Meningkatkan kepercayaan pada artefak AI dan ML Anda: SLSA membantu memastikan bahwa model dan paket software Anda tidak dirusak. Pengguna juga dapat melacak model dan paket software kembali ke sumbernya, yang meningkatkan keyakinan pengguna terhadap integritas dan keandalan artefak.
  • Mengurangi risiko serangan supply chain: SLSA membantu mengurangi risiko serangan yang mengeksploitasi kerentanan di supply chain software, seperti serangan yang menyuntikkan kode berbahaya atau yang membahayakan proses build.
  • Postur keamanan yang ditingkatkan: SLSA membantu Anda memperkuat postur keamanan keseluruhan sistem AI dan ML Anda. Penerapan ini dapat membantu mengurangi risiko serangan dan melindungi aset berharga Anda.

Untuk menerapkan SLSA pada artefak AI dan ML Anda di Google Cloud, lakukan hal berikut:

  1. Pahami tingkat SLSA: Pahami berbagai tingkat SLSA dan persyaratannya. Seiring dengan meningkatnya level, integritas yang mereka berikan juga meningkat.
  2. Menilai tingkat Anda saat ini: Evaluasi praktik Anda saat ini berdasarkan framework SLSA untuk menentukan tingkat Anda saat ini dan mengidentifikasi area yang perlu ditingkatkan.
  3. Tetapkan tingkat target Anda: Tentukan tingkat SLSA yang sesuai untuk ditargetkan berdasarkan toleransi risiko, persyaratan keamanan, dan tingkat kekritisan sistem AI dan ML Anda.
  4. Menerapkan persyaratan SLSA: Untuk memenuhi tingkat SLSA target Anda, terapkan kontrol dan praktik yang diperlukan, yang dapat mencakup hal berikut:

    • Kontrol sumber: Gunakan sistem kontrol versi seperti Git untuk melacak perubahan pada kode dan konfigurasi Anda.
    • Proses build: Gunakan layanan yang membantu mengamankan build Anda, seperti Cloud Build, dan pastikan proses build Anda dibuat dengan skrip atau otomatis.
    • Pembuatan provenance: Buat metadata provenance yang mencatat detail tentang cara artefak Anda dibuat, termasuk proses build, kode sumber, dan dependensi. Untuk mengetahui detailnya, lihat Melacak Vertex ML Metadata dan Melacak eksekusi dan artefak.
    • Penandatanganan artefak: Tandatangani artefak Anda untuk memverifikasi keaslian dan integritasnya.
    • Pengelolaan kerentanan: Pindai artefak dan dependensi Anda secara rutin untuk mendeteksi kerentanan. Gunakan alat seperti Artifact Analysis.
    • Keamanan deployment: Terapkan praktik deployment yang membantu mengamankan sistem Anda, seperti praktik yang dijelaskan dalam dokumen ini.
  5. Peningkatan berkelanjutan: Pantau dan tingkatkan penerapan SLSA Anda untuk mengatasi ancaman dan kerentanan baru, serta berupayalah untuk mencapai tingkat SLSA yang lebih tinggi.

Menggunakan image container bawaan yang divalidasi

Untuk mencegah satu titik kegagalan pada tahap MLOps, pisahkan tugas yang memerlukan pengelolaan dependensi yang berbeda ke dalam container yang berbeda. Misalnya, gunakan container terpisah untuk tugas rekayasa fitur, pelatihan atau penyesuaian, dan inferensi. Pendekatan ini juga memberikan fleksibilitas kepada engineer ML untuk mengontrol dan menyesuaikan lingkungan mereka.

Untuk meningkatkan konsistensi MLOps di seluruh organisasi Anda, gunakan container bawaan. Pertahankan repositori pusat gambar platform dasar yang terverifikasi dan tepercaya dengan praktik terbaik berikut:

  • Pertahankan tim platform terpusat di organisasi Anda yang membangun dan mengelola penampung dasar standar.
  • Perluas image container bawaan yang disediakan Vertex AI khusus untuk AI dan ML. Mengelola image container di repositori pusat dalam organisasi Anda.

Vertex AI menyediakan berbagai container deep learning bawaan untuk pelatihan dan inferensi, serta memungkinkan Anda menggunakan container kustom. Untuk model yang lebih kecil, Anda dapat mengurangi latensi untuk inferensi jika Anda memuat model dalam container.

Untuk meningkatkan keamanan pengelolaan container Anda, pertimbangkan rekomendasi berikut:

  • Gunakan Artifact Registry untuk membuat, menyimpan, dan mengelola repositori image container dengan berbagai format. Artifact Registry menangani kontrol akses dengan IAM, dan memiliki fitur penilaian kerentanan dan kemampuan observasi terintegrasi. Artifact Registry memungkinkan Anda mengaktifkan fitur keamanan container, memindai image container, dan menyelidiki kerentanan.
  • Jalankan langkah-langkah continuous integration dan bangun image container dengan Cloud Build. Masalah dependensi dapat ditandai pada tahap ini. Jika ingin men-deploy hanya image yang dibangun oleh Cloud Build, Anda dapat menggunakan Otorisasi Biner. Untuk membantu mencegah serangan rantai pasokan, deploy image yang dibuat oleh Cloud Build di Artifact Registry. Mengintegrasikan alat pengujian otomatis seperti SonarQube, PyLint, atau OWASP ZAP.
  • Gunakan platform container seperti GKE atau Cloud Run, yang dioptimalkan untuk GPU atau TPU untuk workload AI dan ML. Pertimbangkan opsi pemindaian kerentanan untuk container di cluster GKE.

Mempertimbangkan Confidential Computing untuk GPU

Untuk melindungi data yang sedang digunakan, Anda dapat menggunakan Confidential Computing. Langkah-langkah keamanan konvensional melindungi data dalam penyimpanan dan dalam pengiriman, tetapi Confidential Computing mengenkripsi data selama pemrosesan. Saat menggunakan Confidential Computing untuk GPU, Anda membantu melindungi data pelatihan dan parameter model yang sensitif dari akses tidak sah. Anda juga dapat membantu mencegah akses tidak sah dari pengguna cloud yang memiliki hak istimewa atau calon penyerang yang mungkin mendapatkan akses ke infrastruktur yang mendasarinya.

Untuk menentukan apakah Anda memerlukan Confidential Computing untuk GPU, pertimbangkan sensitivitas data, persyaratan peraturan, dan potensi risiko.

Jika Anda menyiapkan Confidential Computing, pertimbangkan opsi berikut:

  • Untuk workload AI dan ML serbaguna, gunakan instance VM Rahasia dengan GPU NVIDIA T4. Instance VM ini menawarkan enkripsi berbasis hardware untuk data aktif.
  • Untuk workload dalam container, gunakan Confidential GKE Node. Node ini menyediakan lingkungan yang aman dan terisolasi untuk pod Anda.
  • Untuk memastikan bahwa workload Anda berjalan di enclave yang asli dan aman, verifikasi laporan pengesahan yang disediakan Confidential VM.
  • Untuk melacak performa, pemanfaatan resource, dan peristiwa keamanan, pantau resource Confidential Computing dan Confidential GKE Node Anda menggunakan Monitoring dan Logging.

Memverifikasi dan melindungi input

Perlakukan semua input ke sistem AI Anda sebagai tidak tepercaya, terlepas dari apakah input tersebut berasal dari pengguna akhir atau sistem otomatis lainnya. Untuk membantu menjaga keamanan sistem AI Anda dan memastikan sistem tersebut beroperasi sebagaimana mestinya, Anda harus mendeteksi dan membersihkan potensi vektor serangan sejak dini.

Untuk memverifikasi dan melindungi input Anda, pertimbangkan rekomendasi berikut.

Menerapkan praktik yang membantu mengamankan sistem AI generatif

Perlakukan perintah sebagai komponen aplikasi penting yang memiliki kepentingan yang sama dengan kode terhadap keamanan. Terapkan strategi pertahanan mendalam yang menggabungkan desain proaktif, penapisan otomatis, dan pengelolaan siklus proses yang disiplin.

Untuk membantu mengamankan perintah AI generatif Anda, Anda harus mendesainnya untuk keamanan, menyaringnya sebelum digunakan, dan mengelolanya di sepanjang siklus prosesnya.

Untuk meningkatkan keamanan desain dan rekayasa perintah Anda, pertimbangkan praktik berikut:

  • Menyusun perintah agar jelas: Desain dan uji semua perintah Anda dengan menggunakan kemampuan pengelolaan perintah Vertex AI Studio. Perintah harus memiliki struktur yang jelas dan tidak ambigu. Tentukan peran, sertakan contoh few-shot, dan berikan petunjuk spesifik yang dibatasi. Metode ini mengurangi risiko bahwa model dapat salah menafsirkan input pengguna dengan cara yang menciptakan celah keamanan.
  • Uji input untuk ketahanan dan perujukan: Uji semua sistem Anda secara proaktif terhadap input yang tidak terduga, salah bentuk, dan berbahaya untuk mencegah error atau output yang tidak aman. Gunakan pengujian red team untuk menyimulasikan serangan di dunia nyata. Sebagai langkah standar di Vertex AI Pipelines, otomatiskan pengujian keandalan Anda. Anda dapat menggunakan teknik pengujian berikut:

    • Uji kegagalan (fuzz testing).
    • Uji langsung terhadap PII, input sensitif, dan injeksi SQL.
    • Memindai input multimodal yang dapat berisi malware atau melanggar kebijakan perintah.
  • Terapkan pertahanan berlapis: Gunakan beberapa pertahanan dan jangan pernah mengandalkan satu langkah pertahanan. Misalnya, untuk aplikasi berbasis retrieval-augmented generation (RAG), gunakan LLM terpisah untuk mengklasifikasikan niat pengguna yang masuk dan memeriksa pola berbahaya. Kemudian, LLM tersebut dapat meneruskan permintaan ke LLM utama yang lebih canggih yang menghasilkan respons akhir.

  • Bersihkan dan validasi input: Sebelum Anda memasukkan input eksternal atau input yang diberikan pengguna ke dalam perintah, filter dan validasi semua input dalam kode aplikasi Anda. Validasi ini penting untuk membantu Anda mencegah injeksi perintah tidak langsung.

Untuk penyaringan otomatis perintah dan respons, pertimbangkan praktik berikut:

  • Gunakan layanan keamanan yang komprehensif: Terapkan layanan keamanan khusus yang tidak bergantung pada model seperti Model Armor sebagai lapisan perlindungan wajib untuk LLM Anda. Model Armor memeriksa perintah dan respons untuk mendeteksi ancaman seperti injeksi perintah, upaya jailbreak, dan konten berbahaya. Untuk membantu memastikan bahwa model Anda tidak membocorkan data pelatihan sensitif atau kekayaan intelektual dalam responsnya, gunakan integrasi Sensitive Data Protection dengan Model Armor. Untuk mengetahui detailnya, lihat Filter Model Armor.
  • Memantau dan mencatat interaksi: Pertahankan log mendetail untuk semua perintah dan respons untuk endpoint model Anda. Gunakan Logging untuk mengaudit interaksi ini, mengidentifikasi pola penyalahgunaan, dan mendeteksi vektor serangan yang mungkin muncul terhadap model yang di-deploy.

Untuk membantu mengamankan pengelolaan siklus proses perintah, pertimbangkan praktik berikut:

  • Menerapkan pembuatan versi untuk perintah: Perlakukan semua perintah produksi Anda seperti kode aplikasi. Gunakan sistem kontrol versi seperti Git untuk membuat histori perubahan yang lengkap, menerapkan standar kolaborasi, dan memungkinkan rollback ke versi sebelumnya. Praktik MLOps inti ini dapat membantu Anda memelihara sistem AI yang stabil dan aman.
  • Memusatkan pengelolaan perintah: Gunakan repositori pusat untuk menyimpan, mengelola, dan men-deploy semua perintah berversi Anda. Strategi ini menerapkan konsistensi di seluruh lingkungan dan memungkinkan update runtime tanpa perlu men-deploy ulang aplikasi secara penuh.
  • Lakukan audit rutin dan pengujian red team: Uji pertahanan sistem Anda secara berkelanjutan terhadap kerentanan yang diketahui, seperti yang tercantum dalam OWASP Top 10 for LLM Applications. Sebagai engineer AI, Anda harus proaktif dan melakukan pengujian tim merah pada aplikasi Anda sendiri untuk menemukan dan memperbaiki kelemahan sebelum penyerang dapat mengeksploitasinya.

Mencegah kueri berbahaya ke sistem AI Anda

Selain autentikasi dan otorisasi, yang dibahas dalam dokumen ini sebelumnya, Anda dapat mengambil langkah-langkah lebih lanjut untuk membantu mengamankan sistem AI Anda dari input berbahaya. Anda perlu menyiapkan sistem AI untuk skenario pasca-autentikasi saat penyerang melewati protokol autentikasi dan otorisasi, lalu mencoba menyerang sistem secara internal.

Untuk menerapkan strategi komprehensif yang dapat membantu melindungi sistem Anda dari serangan pasca-autentikasi, terapkan persyaratan berikut:

  • Mengamankan lapisan jaringan dan aplikasi: Buat pertahanan berlapis untuk semua aset AI Anda.

    • Untuk membuat perimeter keamanan yang mencegah pemindahan data yang tidak sah dari model dari Model Registry atau data sensitif dari BigQuery, gunakan Kontrol Layanan VPC. Selalu gunakan mode uji coba untuk memvalidasi dampak perimeter sebelum Anda menerapkannya.
    • Untuk membantu melindungi alat berbasis web seperti notebook, gunakan IAP.
    • Untuk membantu mengamankan semua endpoint inferensi, gunakan Apigee untuk keamanan dan tata kelola tingkat perusahaan. Anda juga dapat menggunakan API Gateway untuk autentikasi yang mudah.
  • Perhatikan anomali pola kueri: Misalnya, penyerang yang memeriksa kerentanan sistem dapat mengirim ribuan kueri berurutan yang sedikit berbeda. Menandai pola kueri yang tidak normal yang tidak mencerminkan perilaku pengguna normal.

  • Pantau volume permintaan: Lonjakan volume kueri secara tiba-tiba menunjukkan serangan penolakan layanan (DoS) atau serangan pencurian model, yang merupakan upaya untuk merekayasa balik model. Gunakan pembatasan laju dan pembatasan untuk mengontrol volume permintaan dari satu alamat IP atau pengguna.

  • Memantau dan menyetel pemberitahuan untuk anomali geografis dan temporal: Buat dasar pengukuran untuk pola akses normal. Buat pemberitahuan untuk aktivitas mendadak dari lokasi geografis yang tidak biasa atau pada jam-jam yang tidak wajar. Misalnya, lonjakan besar login dari negara baru pada pukul 03.00.

Memantau, mengevaluasi, dan bersiap untuk menanggapi output

Sistem AI memberikan nilai karena menghasilkan output yang meningkatkan, mengoptimalkan, atau mengotomatiskan pengambilan keputusan oleh manusia. Untuk menjaga integritas dan kredibilitas sistem dan aplikasi AI Anda, pastikan outputnya aman dan sesuai dengan parameter yang diharapkan. Anda juga memerlukan rencana untuk merespons insiden.

Untuk mempertahankan output Anda, pertimbangkan rekomendasi berikut.

Mengevaluasi performa model dengan metrik dan langkah-langkah keamanan

Untuk memastikan model AI Anda memenuhi tolok ukur performa, memenuhi persyaratan keamanan, dan mematuhi standar kepatuhan dan keadilan, evaluasi model secara menyeluruh. Lakukan evaluasi sebelum deployment, lalu terus evaluasi model dalam produksi secara rutin. Untuk meminimalkan risiko dan membangun sistem AI yang tepercaya, terapkan strategi evaluasi komprehensif yang menggabungkan metrik performa dengan penilaian keamanan AI tertentu.

Untuk mengevaluasi ketahanan model dan postur keamanan, pertimbangkan rekomendasi berikut:

  • Menerapkan penandatanganan dan verifikasi model di pipeline MLOps Anda.

    • Untuk model yang di-container, gunakan Binary Authorization untuk memverifikasi tanda tangan.
    • Untuk model yang di-deploy langsung ke endpoint Vertex AI, gunakan pemeriksaan kustom dalam skrip deployment Anda untuk verifikasi.
    • Untuk model apa pun, gunakan Cloud Build untuk penandatanganan model.
  • Menilai ketahanan model Anda terhadap input yang tidak terduga atau adversarial.

    • Untuk semua model Anda, uji model Anda untuk mengetahui apakah ada kerusakan data umum dan modifikasi data yang berpotensi berbahaya. Untuk mengatur pengujian ini, Anda dapat menggunakan pelatihan Vertex AI atau Vertex AI Pipelines.
    • Untuk model yang penting bagi keamanan, lakukan simulasi serangan adversarial untuk memahami potensi kerentanan.
    • Untuk model yang di-deploy dalam container, gunakan Artifact Analysis di Artifact Registry untuk memindai image dasar untuk mendeteksi kerentanan.
  • Gunakan Pemantauan Model Vertex AI untuk mendeteksi penyimpangan dan kecondongan untuk model yang di-deploy. Kemudian, masukkan kembali insight ini ke dalam siklus evaluasi ulang atau pelatihan ulang.

  • Gunakan evaluasi model dari Vertex AI sebagai komponen pipeline dengan Vertex AI Pipelines. Anda dapat menjalankan komponen evaluasi model sendiri atau dengan komponen pipeline lainnya. Bandingkan versi model dengan metrik dan set data yang Anda tentukan. Mencatat hasil evaluasi ke Vertex ML Metadata untuk silsilah dan pelacakan.

  • Gunakan atau bangun di atas layanan evaluasi AI generatif untuk mengevaluasi model yang Anda pilih atau menerapkan alur kerja evaluasi oleh petugas peninjau kustom.

Untuk menilai keadilan, bias, kemampuan penjelasan, dan faktualitas, pertimbangkan rekomendasi berikut:

  • Tentukan ukuran keadilan yang sesuai dengan kasus penggunaan Anda, lalu evaluasi potensi bias model Anda di berbagai irisan data.
  • Memahami fitur mana yang mendorong prediksi model untuk memastikan bahwa fitur dan prediksi yang dihasilkan selaras dengan pengetahuan domain dan pedoman etis.
  • Gunakan Vertex Explainable AI untuk mendapatkan atribusi fitur untuk model Anda.
  • Gunakan layanan evaluasi AI generatif untuk menghitung metrik. Selama fase pengujian verifikasi sumber, metrik perujukan layanan memeriksa faktualitas terhadap teks sumber yang diberikan.
  • Aktifkan perujukan untuk output model Anda guna memfasilitasi lapisan kedua verifikasi sumber di tingkat pengguna.
  • Tinjau prinsip AI kami dan sesuaikan untuk aplikasi AI Anda.

Memantau output model AI dan ML dalam produksi

Pantau terus model AI dan ML Anda serta infrastruktur pendukungnya dalam produksi. Penting untuk segera mengidentifikasi dan mendiagnosis penurunan kualitas atau performa output model, kerentanan keamanan yang muncul, dan penyimpangan dari perintah kepatuhan. Pemantauan ini membantu Anda mempertahankan keamanan, keandalan, dan kredibilitas sistem.

Untuk memantau output sistem AI terkait anomali, ancaman, dan penurunan kualitas, pertimbangkan rekomendasi berikut:

  • Gunakan Pemantauan Model untuk output model Anda guna melacak perubahan yang tidak terduga dalam distribusi prediksi atau lonjakan prediksi model dengan keyakinan rendah. Pantau secara aktif output model AI generatif Anda untuk mencari konten yang dihasilkan yang tidak aman, bias, tidak relevan, atau berbahaya. Anda juga dapat menggunakan Model Armor untuk menyaring semua output model Anda.
  • Mengidentifikasi pola error tertentu, merekam indikator kualitas, atau mendeteksi output berbahaya atau tidak mematuhi kebijakan di tingkat aplikasi. Untuk menemukan masalah ini, gunakan pemantauan kustom di dasbor Monitoring dan gunakan metrik berbasis log dari Logging.

Untuk memantau output terkait sinyal khusus keamanan dan perubahan yang tidak sah, pertimbangkan rekomendasi berikut:

  • Mengidentifikasi upaya akses tidak sah ke model AI, set data di Cloud Storage atau BigQuery, atau komponen pipeline MLOps. Secara khusus, identifikasi perubahan yang tidak terduga atau tidak sah pada izin IAM untuk resource AI. Untuk melacak aktivitas ini dan meninjaunya untuk menemukan pola yang mencurigakan, gunakan log audit Aktivitas Admin dan log audit Akses Data di Cloud Audit Logs. Mengintegrasikan temuan dari Security Command Center, yang dapat menandai kesalahan konfigurasi keamanan dan menandai potensi ancaman yang relevan dengan aset AI Anda.
  • Pantau output untuk permintaan dalam jumlah besar atau permintaan dari sumber yang mencurigakan, yang mungkin mengindikasikan upaya untuk merekayasa balik model atau mengekstraksi data. Anda juga dapat menggunakan Sensitive Data Protection untuk memantau pemindahan data yang berpotensi sensitif.
  • Mengintegrasikan log ke dalam operasi keamanan Anda. Gunakan Google Security Operations untuk membantu Anda mendeteksi, mengatur, dan merespons ancaman cyber apa pun dari sistem AI Anda.

Untuk melacak kondisi dan performa operasional infrastruktur yang menayangkan model AI Anda, pertimbangkan rekomendasi berikut:

  • Mengidentifikasi masalah operasional yang dapat memengaruhi penyampaian layanan atau performa model.
  • Pantau endpoint Vertex AI untuk latensi, tingkat error, dan pola traffic.
  • Pantau pipeline MLOps untuk mengetahui status eksekusi dan error.
  • Gunakan Monitoring, yang menyediakan metrik siap pakai. Anda juga dapat membuat dasbor kustom untuk membantu mengidentifikasi masalah seperti gangguan endpoint atau kegagalan pipeline.

Menerapkan prosedur pemberitahuan dan respons insiden

Saat Anda mengidentifikasi potensi masalah performa, keamanan, atau kepatuhan, respons yang efektif sangat penting. Untuk memastikan notifikasi tepat waktu kepada tim yang sesuai, terapkan mekanisme pemberitahuan yang andal. Tetapkan dan operasikan prosedur respons insiden yang komprehensif dan mendukung AI untuk mengelola, membatasi, dan memperbaiki masalah ini secara efisien.

Untuk membuat mekanisme pemberitahuan yang andal untuk masalah AI yang Anda identifikasi, pertimbangkan rekomendasi berikut:

  • Konfigurasi pemberitahuan yang dapat ditindaklanjuti untuk memberi tahu tim yang relevan, berdasarkan aktivitas pemantauan platform Anda. Misalnya, konfigurasi pemberitahuan agar dipicu saat Pemantauan Model mendeteksi drift, skew, atau anomali prediksi yang signifikan. Atau, konfigurasi pemberitahuan agar dipicu saat Model Armor atau aturan Pemantauan kustom menandai input berbahaya atau output yang tidak aman.
  • Tentukan saluran notifikasi yang jelas, yang dapat mencakup Slack, email, atau SMS melalui integrasi Pub/Sub. Sesuaikan saluran notifikasi untuk tingkat keparahan pemberitahuan dan tim yang bertanggung jawab.

Mengembangkan dan mengoperasionalkan rencana respons insiden yang mendukung AI. Rencana respons insiden yang terstruktur sangat penting untuk meminimalkan potensi dampak dan memastikan pemulihan. Sesuaikan rencana ini untuk mengatasi risiko khusus AI seperti gangguan model, prediksi yang salah karena penyimpangan, injeksi perintah, atau output yang tidak aman dari model generatif. Untuk membuat rencana yang efektif, sertakan fase utama berikut:

  • Persiapan: Identifikasi aset dan kerentanannya, kembangkan playbook, dan pastikan tim Anda memiliki hak istimewa yang sesuai. Fase ini mencakup tugas-tugas berikut:

    • Mengidentifikasi aset AI penting, seperti model, set data, dan resource Vertex AI tertentu seperti endpoint atau instance Vertex AI Feature Store.
    • Mengidentifikasi potensi mode kegagalan atau vektor serangan aset.
    • Kembangkan playbook khusus AI untuk insiden yang sesuai dengan model ancaman organisasi Anda. Misalnya, playbook dapat mencakup hal-hal berikut:

      • Rollback model yang menggunakan pembuatan versi di Model Registry.
      • Pipeline pelatihan ulang darurat di pelatihan Vertex AI.
      • Isolasi sumber data yang disusupi di BigQuery atau Cloud Storage.
    • Gunakan IAM untuk memastikan tim respons memiliki akses hak istimewa terendah yang diperlukan ke alat yang dibutuhkan selama insiden.

  • Identifikasi dan triase: Gunakan pemberitahuan yang dikonfigurasi untuk mendeteksi dan memvalidasi potensi insiden. Tetapkan kriteria dan nilai minimum yang jelas untuk cara organisasi Anda menyelidiki atau menyatakan insiden terkait AI. Untuk penyelidikan mendetail dan pengumpulan bukti, gunakan Logging untuk log aplikasi dan log layanan, serta gunakan Cloud Audit Logs untuk aktivitas administratif dan pola akses data. Tim keamanan dapat menggunakan Google SecOps untuk analisis telemetri keamanan yang lebih mendalam.

  • Pembatasan: Mengisolasi sistem atau komponen AI yang terpengaruh untuk mencegah dampak lebih lanjut atau eksfiltrasi data. Fase ini dapat mencakup tugas-tugas berikut:

    • Menonaktifkan endpoint Vertex AI yang bermasalah.
    • Mencabut izin IAM tertentu.
    • Perbarui aturan firewall atau kebijakan Cloud Armor.
    • Menjeda pipeline Vertex AI yang berperilaku tidak semestinya.
  • Penghapusan: Identifikasi dan hapus akar penyebab insiden. Fase ini mungkin mencakup tugas berikut:

    • Patch kode yang rentan dalam container model kustom.
    • Menghapus pintu belakang berbahaya yang teridentifikasi dari model.
    • Bersihkan data yang telah diracuni sebelum Anda memulai tugas pelatihan ulang yang aman di pelatihan Vertex AI.
    • Perbarui konfigurasi yang tidak aman.
    • Perbaiki logika validasi input untuk memblokir teknik injeksi perintah (prompt injection) tertentu.
  • Pemulihan dan deployment ulang yang aman: Pulihkan sistem AI yang terpengaruh ke kondisi operasional yang baik dan aman. Fase ini mungkin mencakup tugas berikut:

    • Men-deploy versi model yang sebelumnya divalidasi dan dipercaya dari Model Registry.
    • Pastikan Anda menemukan dan menerapkan semua patch keamanan untuk kerentanan yang mungkin ada dalam kode atau sistem Anda.
    • Reset izin IAM ke prinsip hak istimewa terendah.
  • Aktivitas pasca-insiden dan pelajaran yang didapat: Setelah Anda menyelesaikan insiden AI yang signifikan, lakukan peninjauan pasca-insiden secara menyeluruh. Peninjauan ini melibatkan semua tim yang relevan, seperti tim AI dan ML, MLOps, keamanan, dan data science. Memahami siklus proses insiden secara keseluruhan. Gunakan insight ini untuk menyempurnakan desain sistem AI, memperbarui kontrol keamanan, meningkatkan konfigurasi Pemantauan, serta meningkatkan rencana dan playbook respons insiden AI.

Integrasikan respons insiden AI dengan kerangka kerja organisasi yang lebih luas, seperti pengelolaan insiden IT dan keamanan, untuk upaya yang terkoordinasi. Untuk menyelaraskan respons insiden khusus AI dengan framework organisasi Anda, pertimbangkan hal berikut:

  • Eskalasi: Tentukan jalur yang jelas untuk cara Anda melakukan eskalasi insiden AI yang signifikan ke SOC pusat, IT, unit hukum, atau unit bisnis yang relevan.
  • Komunikasi: Gunakan saluran organisasi yang sudah ada untuk semua laporan dan info terbaru insiden internal dan eksternal.
  • Alat dan proses: Gunakan sistem manajemen insiden dan ticketing perusahaan yang ada untuk insiden AI guna memastikan pelacakan dan visibilitas yang konsisten.
  • Kolaborasi: Tentukan terlebih dahulu protokol kolaborasi antara tim AI dan ML, MLOps, data science, keamanan, hukum, dan kepatuhan untuk respons insiden AI yang efektif.

Kontributor

Penulis:

Kontributor lainnya: