Halaman ini menjelaskan cara mendapatkan informasi tentang error yang terjadi dalam impor katalog dan peristiwa pengguna serta dalam operasi API lainnya di AI Commerce Search.
Untuk mendapatkan bantuan terkait cara menyiapkan pemberitahuan, lihat Menyiapkan pemberitahuan Cloud Monitoring.
Pengantar
Memberikan informasi katalog dan peristiwa pengguna yang akurat ke API penting untuk mendapatkan hasil berkualitas tertinggi. Memantau dan memahami sumber error membantu Anda menemukan dan memperbaiki error di situs Anda.
Melihat error integrasi gabungan
Untuk melihat error gabungan yang dihasilkan oleh proses upload data dan permintaan prediksi atau penelusuran, gunakan halaman Monitoring.
Halaman ini menampilkan semua error untuk AI Commerce Search API. Anda dapat melihat error terkait katalog produk, peristiwa pengguna, prediksi rekomendasi, hasil penelusuran, dan model. Sistem juga mencatat error dari impor, seperti baris yang salah format dalam file Cloud Storage. Sistem mencatat hingga 100 error per file impor. Anda dapat menentukan jangka waktu error ditampilkan dan memfilter berdasarkan jenis error.
Anda dapat mengklik error satu per satu untuk melihat log error tersebut di Cloud Logging.
Anda dapat membuka log error satu per satu dengan meluaskan log tersebut. Log error memberikan detail selengkapnya tentang permintaan, termasuk payload permintaan dan respons serta detail error. Informasi ini dapat membantu Anda menentukan lokasi panggilan metode yang salah di situs Anda.
Untuk error JSON yang tidak valid, Anda bisa mendapatkan informasi selengkapnya tentang masalah ini dengan meluaskan kolom status.
Melihat status untuk operasi integrasi tertentu
Anda dapat melihat status operasi integrasi tertentu di jendela Activity status:
Buka halaman Data> di konsol AI Commerce Search di Gemini Enterprise for Customer Experience.
Buka halaman DataKlik Activity status.
Jendela Activity status menampilkan status operasi yang berjalan lama pada katalog produk, peristiwa pengguna, dan kontrol Anda.
Anda dapat memeriksa error untuk operasi integrasi tertentu di jendela ini.
Klik View logs di kolom Detail operasi yang berisi error untuk memeriksa file log-nya di Cloud Logging.
Melihat log di Cloud Logging
Untuk membuka file log langsung di Cloud Logging, gunakan prosedur berikut. Anda harus memiliki peran Logs Viewer (roles/logging.viewer) untuk melihat log.
Buka Logs Explorer di Google Cloud konsol. Buka Logs Explorer
Pilih project AI Commerce Search Anda dari pemilih project.
Klik menu drop-down Resource , lalu pilih Consumed API > Cloud Retail.
Untuk mengetahui informasi selengkapnya tentang Logs Explorer, lihat Melihat log menggunakan Logs Explorer.
Misalnya, link ini membuka log untuk semua error AI Commerce Search dalam satu jam terakhir:
Membuka log AI Commerce Search
Untuk mengonfigurasi log API yang akan ditulis, lihat Mengonfigurasi Logging.
Mengonfigurasi Logging
Anda dapat mengonfigurasi log layanan yang akan ditulis ke Logging. Konfigurasi logging menyediakan cara untuk menetapkan tingkat keparahan log yang akan ditulis, mengaktifkan atau menonaktifkan logging, dan mengganti setelan logging default untuk layanan tertentu.
Setiap permintaan API yang dibuat pengguna akhir dapat menghasilkan satu entri logging. Entri berisi informasi seperti metode API, waktu pemanggilan, kode respons, serta isi permintaan dan respons. Konfigurasi logging project menentukan jenis log yang dihasilkan oleh API yang akan ditulis ke Logging, dengan opsi untuk menentukan konfigurasi logging secara mendetail untuk layanan API tertentu.
Untuk memperbarui konfigurasi logging, Anda memerlukan peran editor AI Commerce Search.
Anda dapat menggunakan konsol atau LoggingConfig API untuk mengonfigurasi Logging.
Konsol
Untuk memperbarui konfigurasi logging di konsol, ikuti langkah-langkah berikut:
Buka halaman Monitoring di konsol AI Commerce Search di Gemini Enterprise for Customer Experience.
Buka halaman MonitoringKlik Logging configuration.
Untuk menetapkan konfigurasi logging global, pilih a tingkat logging. Jika Anda memilih LOG_ALL, masukkan juga frekuensi sampling untuk log yang berhasil.
Untuk menetapkan konfigurasi tingkat layanan, pilih layanan yang akan diperbarui, lalu pilih tingkat logging-nya. Setelan ini menggantikan konfigurasi logging global.
curl
Untuk memperbarui konfigurasi logging menggunakan API, gunakan resource LoggingConfig. Lihat referensi LoggingConfig API.
Untuk melihat konfigurasi logging saat ini, gunakan
loggingConfig.Get.curl -X GET \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://retail.googleapis.com/v2alpha/projects/PROJECT_ID/loggingConfig"- PROJECT_ID: ID project Anda.
Untuk memperbarui konfigurasi logging, gunakan metode
loggingConfig.Patch. Untuk mengetahui informasi selengkapnya, lihat referensiLoggingConfigAPI.Contoh ini menggunakan
loggingConfig.Patchuntuk menetapkan konfigurasi logging global keLOG_WARNINGS_AND_ABOVE. Contoh ini juga menetapkan dua konfigurasi tingkat layanan:CatalogServiceditetapkan keLOG_WARNINGS_AND_ABOVEdanControlServiceditetapkan keLOG_ALL.curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ "https://retail.googleapis.com/v2alpha/projects/PROJECT_ID/loggingConfig" \ --data '{ "name": "projects/PROJECT_ID/loggingConfig", "default_log_generation_rule": {"logging_level": "LOG_ERRORS_AND_ABOVE"}, "service_log_generation_rules": [ { "service_name": "CatalogService", "log_generation_rule": { "logging_level": "LOG_WARNINGS_AND_ABOVE" } }, { "service_name": "ControlService", "log_generation_rule": { "logging_level": "LOG_ALL", "info_log_sample_rate": "0.1" } } ] }'
Tingkat logging
Hanya log dengan tingkat keparahan tertentu yang ditulis ke Logging. Setelan tingkat logging menentukan log yang dihasilkan oleh metode API yang akan ditulis ke Logging.
Jika tidak ada konfigurasi logging tingkat layanan yang ditetapkan untuk metode API, setelan tingkat logging global akan digunakan.
Setelan tingkat logging default adalah LOG_WARNINGS_AND_ABOVE.
Kolom logging_level menerima nilai berikut:
LOGGING_DISABLED: Tidak ada log yang ditulis.LOG_ERRORS_AND_ABOVE: Hanya mencatat error ke log.LOG_WARNINGS_AND_ABOVE: Hanya mencatat error dan peringatan ke log.LOG_ALL: Mencatat semuanya ke log, termasuk log yang berhasil seperti logINFO.
Frekuensi sampling untuk log yang berhasil
Jika Anda menetapkan setelan tingkat logging ke LOG_ALL, tetapi tidak ingin mencatat setiap log yang berhasil ke log, Anda dapat menentukan frekuensi sampling. Misalnya, Anda mungkin memutuskan untuk memantau log secara berkala untuk konfirmasi status yang berhasil, atau ingin melihat persentase log yang berhasil. Menentukan frekuensi sampling dapat membantu Anda melakukannya tanpa menulis entri log INFO dalam volume tinggi ke Logging, yang dapat menimbulkan biaya Logging yang lebih tinggi.
Untuk menentukan frekuensi sampling, tetapkan info_log_sample_rate ke nilai float valid yang lebih besar dari 0 dan kurang dari atau sama dengan 1. Frekuensi sampling menentukan kemungkinan log INFO ditulis ke Logging. Nilai default-nya adalah 1 (semua log INFO ditulis).
Konfigurasi tingkat layanan
Anda dapat menetapkan konfigurasi logging untuk layanan tertentu. Tindakan ini akan mengganti setelan logging global untuk layanan tersebut. Misalnya, Anda mungkin menetapkan tingkat logging global ke LOG_WARNINGS_AND_ABOVE, tetapi menetapkan tingkat logging layanan UserEventService ke LOG_ALL sehingga Anda dapat memeriksa integrasi peristiwa pengguna yang berhasil.
Gunakan objek ServiceLoggingLevel untuk menetapkan tingkat logging mendetail.
Kolom service_name menerima nilai berikut:
CompletionServiceControlServiceMerchantCenterStreamingModelServicePredictionServiceProductServiceServingConfigServiceUserEventService
Jenis error
Bagian ini memberikan definisi untuk jenis error yang dapat muncul di log Anda:
MISSING_FIELD: Nilai kolom yang wajib diisi belum ditetapkan; misalnya, item katalog judulnya belum ditetapkan.INVALID_TIMESTAMP: Stempel waktu tidak valid, sepertinya terlalu jauh di masa depan, atau tidak diformat dengan benar.FIELD_VALUE_TOO_SMALL: Nilai dalam kolom lebih rendah dari nilai minimum yang diwajibkan; ,misalnya, harga negatif.INCORRECT_JSON_FORMAT: Format JSON dalam permintaan salah, sepertinya tidak dilengkapi { bracket.INVALID_LANGUAGE_CODE: Format kode bahasa salah.FIELD_VALUE_EXCEEDED: Nilai dalam kolom lebih tinggi dari nilai maksimum yang diizinkan.INVALID_RESOURCE_ID: ID resource tidak valid; misalnya,catalog_idyang tidak ada dalam nama resource.FIELD_SIZE_EXCEEDED: Jumlah entri dalam kolom melebihi batas maksimum.UNEXPECTED_FIELD: Kolom yang seharusnya kosong memiliki nilai; misalnya, transaksi terkait halaman detail melihat peristiwa.INVALID_FORMAT: Format kolom salah; misalnya, format string salahRESOURCE_ALREADY_EXISTS: Anda mencoba membuat resource yang sudah ada; misalnya, membuat item katalog yang sebelumnya sudah dibuat.INVALID_API_KEY: Kunci API tidak cocok dengan project dalam permintaan Anda.INSUFFICIENT_PERMISSIONS: Anda tidak memiliki izin untuk mengeksekusi permintaan; error ini biasanya berkaitan dengan kurangnya izin IAM yang diperlukan.UNJOINED_WITH_CATALOG: Permintaan menyertakan ID item katalog yang tidak ada dalam katalog. Pastikan katalog Anda selalu ter-update.BATCH_ERROR: Terdapat beberapa error dalam permintaan; misalnya, impor sebaris dengan 10 item tidak dapat divalidasi karena alasan yang berbeda.INACTIVE_RECOMMENDATION_MODEL: Anda membuat kueri model yang tidak aktif untuk penayangan.ABUSIVE_ENTITY: ID pengunjung atau ID pengguna yang terkait dengan permintaan telah mengirimkan jumlah peristiwa yang tidak normal dalam waktu singkat.FILTER_TOO_STRICT: Filter permintaan prediksi memblokir semua hasil prediksi. Item populer umum (tidak dipersonalisasi) akan ditampilkan, kecuali jika panggilan menentukanstrictFilteringsebagai salah (false), yang dalam hal ini tidak ada item yang ditampilkan. Beberapa alasan umum mengapa masalah ini terjadi:- Anda menentukan tag filter yang tidak ada dalam katalog Anda. Mungkin perlu waktu hingga satu hari agar update tag filter diterapkan.
- Filter Anda terlalu sempit.
Melihat metrik pemuatan data
Untuk memantau penyerapan data katalog dan peristiwa pengguna di Google Cloud konsol, ikuti langkah-langkah berikut:
Lihat metrik error untuk penyerapan data katalog dan peristiwa pengguna di halaman Monitoring.
Setelah sistem upload data Anda berjalan dengan sukses, gunakan tab Catalog dan Event di halaman Data untuk melihat informasi gabungan tentang katalog Anda, melihat pratinjau produk yang diupload, dan melihat visualisasi metrik integrasi peristiwa pengguna.
Untuk membuat pemberitahuan yang memberi tahu Anda jika terjadi masalah pada upload data, ikuti prosedur di Menyiapkan pemberitahuan Cloud Monitoring.
Ringkasan data katalog
Gunakan tab Catalog di halaman Data untuk melihat statistik data tingkat tinggi untuk setiap cabang katalog. Halaman ini menampilkan jumlah produk yang telah Anda impor, jumlah produk yang tersedia, dan waktu terakhir Anda mengimpor produk untuk setiap cabang katalog produk.
Anda juga dapat melihat pratinjau item katalog yang telah diupload, dan memfilter berdasarkan kolom produk.
Anda dapat mengimpor data ke cabang yang berbeda sebagai cara untuk melakukan staging dan melihat pratinjau rekomendasi atau hasil penelusuran. Misalnya, untuk mempersiapkan musim liburan, Anda dapat mengupload data katalog baru ke cabang non-default dan memastikan hasil AI Commerce Search dibuat dengan benar sebelum menayangkannya di situs Anda.
Statistik perekaman peristiwa pengguna
Untuk setiap jenis peristiwa pengguna, Anda dapat melihat di tab Event jumlah peristiwa yang telah direkam, jumlah peristiwa yang tidak dapat dikaitkan dengan produk (peristiwa yang belum digabungkan), dan perbedaan jumlahnya dari periode sebelumnya. Anda dapat memilih jangka waktu standar atau memasukkan rentang waktu kustom.
Grafik metrik menampilkan peristiwa pengguna yang diserap dari waktu ke waktu, yang dapat Anda filter menurut jenis peristiwa pengguna.
Metrik kualitas data
Di halaman Data quality, Anda dapat melihat metrik yang menunjukkan persentase produk dan peristiwa pengguna yang memenuhi standar kualitas data yang direkomendasikan untuk penelusuran. Gunakan halaman ini untuk menilai data yang perlu Anda impor atau perbarui guna meningkatkan kualitas hasil penelusuran dan membuka tingkat performa penelusuran.
Untuk mengetahui informasi selengkapnya tentang tingkat performa penelusuran dan memeriksa kualitas data Anda, lihat Membuka tingkat performa penelusuran.
Untuk daftar semua metrik kualitas data katalog, lihat Metrik kualitas data katalog.
Untuk semua persyaratan dan rekomendasi peristiwa pengguna untuk rekomendasi dan penelusuran, lihat Persyaratan dan praktik terbaik peristiwa pengguna.
Peristiwa yang belum digabungkan
Jika peristiwa pengguna atau permintaan API merujuk ke produk yang belum diupload ke AI Commerce Search, peristiwa tersebut adalah peristiwa yang belum digabungkan. Peristiwa pengguna yang belum digabungkan masih dicatat ke log, dan permintaan yang belum digabungkan akan ditangani, tetapi keduanya tidak dapat digunakan untuk lebih meningkatkan model untuk prediksi mendatang. Oleh karena itu, Anda harus memastikan bahwa persentase peristiwa yang tidak dicatat ke log sangat rendah untuk peristiwa pengguna dan permintaan prediksi.
Anda dapat melihat persentase peristiwa pengguna yang belum digabungkan di tab Event di halaman Data.
Error API
Anda dapat melihat grafik error API dari waktu ke waktu, yang ditampilkan berdasarkan nama metode, dengan mengklik View API metrics di panel tombol halaman Monitoring.
Memantau aktivitas metode API
Untuk visualisasi traffic, error, dan latensi menurut metode API, buka halaman Monitoring. Anda dapat memilih jangka waktu standar atau memasukkan rentang waktu kustom.
Untuk melihat detail selengkapnya tentang setiap grafik:
- Di bawah grafik, klik nama metode untuk mengisolasinya dalam grafik.
- Arahkan kursor ke grafik untuk melihat keterangan dengan setiap metode dan nilainya pada saat itu.
- Klik dan tarik bagian mana pun dari grafik untuk memperbesar jangka waktu tersebut.
Langkah berikutnya
- Pelajari cara menetapkan pemberitahuan error untuk feed data Anda.
- Pelajari lebih lanjut Pelaporan Error.
- Pelajari lebih lanjut cara melihat log di Logging.