Pembuatan gambar Gemini dan AI yang bertanggung jawab

Untuk memastikan pengalaman yang aman dan bertanggung jawab, kemampuan pembuatan gambar Vertex AI dilengkapi dengan pendekatan keamanan berlapis. Fitur ini dirancang untuk mencegah pembuatan konten yang tidak pantas, termasuk materi seksual vulgar, berbahaya, kekerasan, kebencian, atau beracun.

Semua pengguna harus mematuhi Kebijakan Penggunaan Terlarang untuk AI Generatif. Kebijakan ini melarang keras pembuatan konten yang:

  • Berkaitan dengan eksploitasi atau pelecehan seksual terhadap anak-anak.
  • Memfasilitasi terorisme atau ekstremisme kekerasan.
  • Memfasilitasi penggambaran adegan intim non-konsensual. Memfasilitasi tindakan menyakiti diri sendiri.
  • Berisi konten seksual vulgar.
  • Merupakan ujaran kebencian.
  • Mendukung pelecehan atau penindasan.

Jika diberi perintah yang tidak aman, model mungkin menolak membuat gambar, atau perintah atau respons yang dihasilkan mungkin diblokir oleh filter keamanan kami.

  • Penolakan model: Jika perintah berpotensi tidak aman, model mungkin menolak untuk memproses permintaan. Jika hal ini terjadi, model biasanya memberikan respons teks yang menyatakan bahwa model tidak dapat membuat gambar yang tidak aman. FinishReason adalah STOP.
  • Pemblokiran filter keamanan:
    • Jika perintah diidentifikasi sebagai berpotensi berbahaya oleh filter keamanan, API akan menampilkan BlockedReason di PromptFeedback.
    • Jika respons diidentifikasi sebagai berpotensi berbahaya oleh filter keamanan, respons API menyertakan FinishReason IMAGE_SAFETY, IMAGE_PROHIBITED_CONTENT, atau yang serupa.

Kategori kode filter keamanan

Bergantung pada filter keamanan yang Anda konfigurasi, output Anda mungkin berisi kode alasan keamanan (safety reason code) yang mirip dengan berikut ini:

    {
      "raiFilteredReason": "ERROR_MESSAGE. Support codes: 56562880"
    }

Kode yang tercantum sesuai dengan kategori berbahaya tertentu. Pemetaan kode ke kategori ini adalah sebagai berikut:

Kode error Kategori keamanan Deskripsi Konten yang difilter: input perintah atau output gambar
58061214
17301594
Anak Mendeteksi konten anak yang tidak diizinkan karena setelan permintaan API atau daftar yang diizinkan. input (perintah): 58061214
output (gambar): 17301594
29310472
15236754
Selebritas Mendeteksi representasi fotorealistik selebritas dalam permintaan. input (perintah): 29310472
output (gambar): 15236754
62263041 Konten berbahaya Mendeteksi konten yang berpotensi berbahaya. input (perintah)
57734940
22137204
Kebencian Mendeteksi topik atau konten terkait kebencian. input (perintah): 57734940
output (gambar): 22137204
74803281
29578790
42876398
Lainnya Mendeteksi masalah keamanan lain-lain dengan permintaan. input (perintah): 42876398
output (gambar): 29578790, 74803281
39322892 Orang/Wajah Mendeteksi orang atau wajah saat tidak diizinkan karena setelan keamanan permintaan. output (gambar)
92201652 Informasi pribadi Mendeteksi Informasi Identitas Pribadi (PII) dalam teks, seperti penyebutan nomor kartu kredit, alamat rumah, atau informasi serupa lainnya. input (perintah)
89371032
49114662
72817394
Konten terlarang Mendeteksi permintaan konten terlarang dalam permintaan. input (perintah): 89371032
output (gambar): 49114662, 72817394
90789179
63429089
43188360
Sexual Mendeteksi konten yang bersifat seksual. input (perintah): 90789179
output (gambar): 63429089, 43188360
78610348 Toxic Mendeteksi topik atau konten berbahaya dalam teks. input (perintah)
61493863
56562880
Kekerasan Mendeteksi konten terkait kekerasan dari gambar atau teks. input (perintah): 61493863
output (gambar): 56562880
32635315 Vulgar Mendeteksi topik atau konten vulgar dari teks. input (perintah)
64151117 Selebritas atau anak Mendeteksi representasi fotorealistik selebritas atau anak-anak yang melanggar kebijakan keselamatan Google. input (perintah)
output (gambar)

Apa langkah selanjutnya?

Lihat link berikut untuk mengetahui informasi selengkapnya tentang pembuatan gambar Gemini: