Memecahkan masalah error kuota dan batas

BigQuery memiliki berbagai kuota dan batas yang membatasi tarif serta volume permintaan dan operasi yang berbeda. Keduanya dibuat untuk melindungi infrastruktur dan membantu melindungi dari penggunaan pelanggan yang tidak terduga. Dokumen ini menjelaskan cara mendiagnosis dan memitigasi error tertentu yang dihasilkan dari kuota dan batas.

Beberapa pesan error menentukan kuota atau batas yang dapat Anda tingkatkan, sementara pesan error lainnya menentukan kuota atau batas yang tidak dapat Anda tingkatkan. Mencapai batas keras berarti Anda perlu menerapkan solusi sementara atau permanen atau praktik terbaik untuk workload Anda. Tindakan ini adalah praktik terbaik, bahkan untuk kuota atau batas yang dapat ditingkatkan.

Dokumen ini mengatur pesan error dan solusinya berdasarkan kategori ini, dan bagian "Ringkasan" di bagian selanjutnya dalam dokumen ini menjelaskan cara membaca pesan error dan menerapkan solusi yang tepat untuk masalah Anda.

Jika pesan error Anda tidak tercantum dalam dokumen ini, lihat daftar pesan error, yang memiliki informasi error yang lebih umum.

Ringkasan

Jika operasi BigQuery gagal karena melebihi kuota, API akan menampilkan kode status HTTP 403 Forbidden. Isi respons berisi informasi selengkapnya tentang kuota yang telah tercapai. Isi respons terlihat mirip dengan berikut ini:

{
  "code" : 403,
  "errors" : [ {
    "domain" : "global",
    "message" : "Quota exceeded: ...",
    "reason" : "quotaExceeded"
  } ],
  "message" : "Quota exceeded: ..."
}

Kolom message dalam payload menjelaskan batas mana yang terlampaui. Misalnya, kolom message mungkin bertuliskan Exceeded rate limits: too many table update operations for this table.

Secara umum, batas kuota dibagi menjadi dua kategori, yang ditunjukkan oleh kolom reason dalam payload respons.

  • rateLimitExceeded. Nilai ini menunjukkan batas jangka pendek. Untuk mengatasi masalah batas ini, coba lagi operasi ini setelah beberapa detik. Gunakan backoff eksponensial di antara upaya percobaan ulang. Artinya, meningkatkan penundaan secara eksponensial di antara setiap percobaan ulang.

  • quotaExceeded. Nilai ini menunjukkan batas jangka waktu yang lebih panjang. Jika mencapai batas kuota jangka panjang, Anda harus menunggu 10 menit atau lebih lama sebelum mencoba operasi lagi. Jika Anda secara konsisten mencapai salah satu batas kuota jangka panjang ini, Anda harus menganalisis workload untuk mencari cara memitigasi masalah. Mitigasi dapat mencakup pengoptimalan workload Anda atau meminta penambahan kuota.

Untuk error quotaExceeded, periksa pesan error guna memahami batas kuota mana yang terlampaui. Kemudian, analisis workload Anda untuk melihat apakah Anda dapat menghindari tercapainya kuota.

Dalam beberapa kasus, kuota dapat ditingkatkan dengan menghubungi dukungan BigQuery atau menghubungi Google Cloud bagian penjualan, tetapi sebaiknya Anda mencoba saran dalam dokumen ini terlebih dahulu.

Diagnosis

Untuk mendiagnosis masalah, lakukan hal berikut:

  • Gunakan tampilan INFORMATION_SCHEMA bersama dengan penentu wilayah untuk menganalisis masalah yang mendasarinya. Tampilan ini berisi metadata tentang resource BigQuery Anda, termasuk tugas, reservasi, dan streaming insert.

    Misalnya, kueri berikut menggunakan tampilan INFORMATION_SCHEMA.JOBS untuk mencantumkan semua error terkait kuota dalam satu hari terakhir:

    SELECT
    job_id,
    creation_time,
    error_result
    FROM  `region-REGION_NAME`.INFORMATION_SCHEMA.JOBS
    WHERE creation_time > TIMESTAMP_SUB(CURRENT_TIMESTAMP, INTERVAL 1 DAY) AND
        error_result.reason IN ('rateLimitExceeded', 'quotaExceeded')

    Ganti REGION_NAME dengan region project. Harus diawali dengan region-. Misalnya, untuk multi-region US, gunakan region-us.

  • Lihat error di Cloud Audit Logs.

    Misalnya, dengan menggunakan Logs Explorer, kueri berikut menampilkan error dengan Quota exceeded atau limit dalam string pesan:

    resource.type = ("bigquery_project" OR "bigquery_dataset")
    protoPayload.status.code ="7"
    protoPayload.status.message: ("Quota exceeded" OR "limit")
    

    Dalam contoh ini, kode status 7 menunjukkan PERMISSION_DENIED, yang sesuai dengan kode status 403 HTTP.

    Untuk contoh kueri Cloud Audit Logs tambahan, lihat Kueri BigQuery.

Memecahkan masalah kuota atau batas yang dapat ditingkatkan

Anda dapat menambah kuota dan batas berikut; namun, sebaiknya coba dulu solusi atau praktik terbaik yang disarankan.

Project Anda melampaui kuota untuk byte kueri gratis yang dipindai

BigQuery menampilkan error ini saat Anda menjalankan kueri di paket penggunaan gratis dan akun mencapai batas bulanan ukuran data yang dapat dikueri. Untuk mengetahui informasi selengkapnya tentang harga kueri, lihat Paket penggunaan gratis.

Pesan error

Your project exceeded quota for free query bytes scanned

Resolusi

Untuk terus menggunakan BigQuery, Anda perlu mengupgrade akun ke akun Penagihan Cloud berbayar.

Error kuota streaming insert

Bagian ini memberikan beberapa tips untuk memecahkan masalah error kuota terkait streaming data ke BigQuery.

Di region tertentu, streaming insert memiliki kuota yang lebih tinggi jika Anda tidak mengisi kolom insertId untuk setiap baris. Untuk mengetahui informasi selengkapnya tentang kuota streaming insert, lihat Streaming insert. Error terkait kuota untuk streaming BigQuery bergantung pada ada atau tidaknya insertId.

Pesan error

Jika kolom insertId kosong, error kuota berikut mungkin terjadi:

Batas kuota Pesan error
Byte per detik per project Entity Anda dengan gaia_id: GAIA_ID, project: PROJECT_ID dalam region: REGION melampaui kuota untuk byte penyisipan per detik.

Jika kolom insertId terisi, error kuota berikut mungkin terjadi:

Batas kuota Pesan error
Baris per detik per project Project Anda: PROJECT_ID di REGION melampaui kuota untuk baris streaming insert per detik.
Baris per detik per tabel Tabel Anda: TABLE_ID melampaui kuota untuk baris streaming insert per detik.
Byte per detik per tabel Tabel Anda: TABLE_ID melampaui kuota untuk byte streaming insert per detik.

Tujuan kolom insertId adalah untuk menghapus duplikat baris yang disisipkan. Jika beberapa penyisipan dengan insertId yang sama tiba dalam periode beberapa menit, BigQuery akan menulis satu versi data. Namun, penghapusan duplikat otomatis ini tidak dijamin. Untuk throughput streaming maksimum, sebaiknya Anda tidak menyertakan insertId, dan gunakan penghapusan duplikat manual. Untuk mengetahui informasi selengkapnya, lihat Memastikan konsistensi data.

Saat Anda mengalami error ini, diagnosis masalahnya, lalu ikuti langkah-langkah yang direkomendasikan untuk mengatasinya.

Diagnosis

Gunakan tampilan STREAMING_TIMELINE_BY_* untuk menganalisis traffic streaming. Tampilan ini menggabungkan statistik streaming selama interval satu menit, yang dikelompokkan berdasarkan kode error. Error kuota muncul dalam hasil dengan error_code yang sama dengan RATE_LIMIT_EXCEEDED atau QUOTA_EXCEEDED.

Bergantung pada batas kuota spesifik yang telah tercapai, lihat total_rows atau total_input_bytes. Jika error tersebut adalah kuota tingkat tabel, filter menurut table_id.

Misalnya, kueri berikut menampilkan total byte yang diserap per menit, dan jumlah total error kuota:

SELECT
 start_timestamp,
 error_code,
 SUM(total_input_bytes) as sum_input_bytes,
 SUM(IF(error_code IN ('QUOTA_EXCEEDED', 'RATE_LIMIT_EXCEEDED'),
     total_requests, 0)) AS quota_error
FROM
 `region-REGION_NAME`.INFORMATION_SCHEMA.STREAMING_TIMELINE_BY_PROJECT
WHERE
  start_timestamp > TIMESTAMP_SUB(CURRENT_TIMESTAMP, INTERVAL 1 DAY)
GROUP BY
 start_timestamp,
 error_code
ORDER BY 1 DESC

Resolusi

Untuk mengatasi error kuota ini, lakukan tindakan berikut:

  • Jika Anda menggunakan kolom insertId untuk penghapusan duplikat, dan project Anda berada di region yang mendukung kuota streaming yang lebih tinggi, sebaiknya hapus kolom insertId. Solusi ini mungkin memerlukan beberapa langkah tambahan untuk menghapus duplikat data secara manual. Untuk informasi selengkapnya, lihat Menghapus duplikat secara manual.

  • Jika Anda tidak menggunakan insertId, atau jika tidak mungkin untuk menghapusnya, pantau traffic streaming Anda selama periode 24 jam dan analisis error kuota:

    • Jika Anda melihat sebagian besar error RATE_LIMIT_EXCEEDED, bukan error QUOTA_EXCEEDED, dan keseluruhan traffic di bawah 80% kuota, error tersebut mungkin menunjukkan lonjakan sementara. Anda dapat mengatasi error ini dengan mencoba kembali operasi menggunakan backoff eksponensial di antara percobaan ulang.

    • Jika Anda menggunakan tugas Dataflow untuk menyisipkan data, pertimbangkan untuk menggunakan tugas pemuatan, bukan streaming insert. Untuk informasi selengkapnya, lihat Menetapkan metode penyisipan. Jika Anda menggunakan Dataflow dengan konektor I/O kustom, sebaiknya gunakan konektor I/O bawaan. Untuk mengetahui informasi selengkapnya, lihat Pola I/O kustom.

    • Jika Anda melihat error QUOTA_EXCEEDED atau keseluruhan traffic secara konsisten melebihi 80% kuota, kirimkan permintaan untuk penambahan kuota. Untuk mengetahui informasi selengkapnya, lihat Meminta penyesuaian kuota.

    • Anda juga dapat mempertimbangkan untuk mengganti streaming insert dengan Storage Write API lebih baru yang memiliki throughput lebih tinggi, harga yang lebih rendah, dan banyak fitur berguna.

Jumlah maksimum kueri serentak yang berisi fungsi jarak jauh

BigQuery akan menampilkan error ini ketika jumlah kueri serentak yang berisi fungsi jarak jauh melebihi batas. Namun, batas ini dapat ditingkatkan. Coba solusi dan praktik terbaik terlebih dahulu.

Untuk mempelajari lebih lanjut batas fungsi jarak jauh, lihat Fungsi jarak jauh.

Pesan error

Exceeded rate limits: too many concurrent queries with remote functions for
this project

Diagnosis

Untuk melihat batas kueri serentak yang berisi fungsi jarak jauh, lihat Batas fungsi jarak jauh.

Resolusi

  • Saat menggunakan fungsi jarak jauh, patuhi praktik terbaik untuk fungsi jarak jauh.
  • Anda dapat meminta penambahan kuota dengan menghubungi dukungan atau penjualan. Mungkin perlu waktu beberapa hari untuk meninjau dan memproses permintaan. Sebaiknya nyatakan prioritas, kasus penggunaan, dan ID project dalam permintaan.

Jumlah maksimum pernyataan CREATE MODEL

Error ini berarti Anda telah melampaui kuota untuk pernyataan CREATE MODEL.

Pesan error

Quota exceeded: Your project exceeded quota for CREATE MODEL queries per project.

Resolusi

Jika Anda melebihi kuota untuk pernyataan CREATE MODEL, kirim email ke bqml-feedback@google.com dan minta penambahan kuota.

Error jumlah maksimum tugas penyalinan per hari per kuota project

BigQuery akan menampilkan error ini ketika jumlah tugas penyalinan yang berjalan dalam sebuah project telah melebihi batas harian. Untuk mempelajari lebih lanjut batas tugas penyalinan per hari, lihat Tugas penyalinan.

Pesan error

Your project exceeded quota for copies per project

Diagnosis

Jika ingin mengumpulkan lebih banyak data tentang asal tugas penyalinan, Anda dapat mencoba langkah berikut:

  • Jika tugas penyalinan Anda berada di satu atau hanya beberapa region, Anda dapat mencoba membuat kueri tabel INFORMATION_SCHEMA.JOBS untuk region tertentu. Contoh:

    SELECT
    creation_time, job_id, user_email, destination_table.project_id, destination_table.dataset_id, destination_table.table_id
    FROM `PROJECT_ID`.`region-REGION_NAME`.INFORMATION_SCHEMA.JOBS
    WHERE
    creation_time BETWEEN TIMESTAMP_SUB(CURRENT_TIMESTAMP(), INTERVAL 2 DAY) AND CURRENT_TIMESTAMP()
    AND job_type = "COPY"
    order by creation_time DESC

    Anda juga dapat menyesuaikan interval waktu berdasarkan rentang waktu yang diinginkan.

  • Untuk melihat semua tugas penyalinan di semua region, Anda dapat menggunakan filter berikut di Cloud Logging:

    resource.type="bigquery_resource"
    protoPayload.methodName="jobservice.insert"
    protoPayload.serviceData.jobInsertRequest.resource.jobConfiguration.tableCopy:*
    

Resolusi

  • Jika sasaran operasi penyalinan yang sering dilakukan adalah untuk membuat snapshot data, sebaiknya gunakan snapshot tabel. Snapshot tabel adalah alternatif yang lebih murah dan lebih cepat untuk menyalin tabel lengkap.
  • Anda dapat meminta penambahan kuota dengan menghubungi dukungan atau penjualan. Mungkin perlu waktu beberapa hari untuk meninjau dan memproses permintaan. Sebaiknya nyatakan prioritas, kasus penggunaan, dan ID project dalam permintaan.

Error kuota byte ekstraksi per hari terlampaui

BigQuery akan menampilkan error ini jika ekstraksi melebihi batas harian default 50 TiB dalam sebuah project. Untuk mengetahui informasi selengkapnya tentang batas tugas ekstraksi, lihat Tugas ekstraksi.

Pesan error

Your usage exceeded quota for ExtractBytesPerDay

Diagnosis

Jika Anda mengekspor tabel yang lebih besar dari 50 TiB, ekspor akan gagal karena melebihi batas ekstraksi. Untuk mengatasinya, lihat resolusinya. Jika ingin mengekspor data tabel untuk partisi tabel tertentu, Anda dapat menggunakan dekorator partisi untuk mengidentifikasi partisi yang akan diekspor.

Jika ingin mengumpulkan penggunaan data ekspor selama beberapa hari terakhir, Anda dapat mencoba hal berikut:

  • Melihat kuota untuk project Anda dengan kriteria filter seperti Name: Extract bytes per day atau Metric: bigquery.googleapis.com/quota/extract/bytes beserta diagram Tampilkan penggunaan untuk melihat tren penggunaan Anda selama beberapa hari.

  • Atau, Anda dapat membuat kueri INFORMATION_SCHEMA.JOBS_BY_PROJECT untuk melihat total byte ekstraksi Anda selama beberapa hari. Misalnya, kueri berikut menampilkan total byte harian yang diproses oleh tugas EXTRACT dalam tujuh hari terakhir.

    SELECT
    TIMESTAMP_TRUNC(creation_time, DAY) AS day,
    SUM ( total_bytes_processed ) / POW(1024, 3) AS total_gigabytes_processed
    FROM
    `region-REGION_NAME`.INFORMATION_SCHEMA.JOBS_BY_PROJECT
    WHERE
    creation_time BETWEEN TIMESTAMP_SUB(CURRENT_TIMESTAMP(), INTERVAL 7 DAY) AND CURRENT_TIMESTAMP()
    AND job_type = "EXTRACT"
    GROUP BY 1
    ORDER BY 2 DESC
  • Kemudian, Anda dapat lebih menyaring hasil dengan mengidentifikasi tugas tertentu yang menggunakan lebih banyak byte dari yang diharapkan. Contoh berikut menampilkan 100 tugas EXTRACT teratas yang menggunakan lebih dari 100 GB yang diproses selama tujuh hari terakhir.

    SELECT
    creation_time,
    job_id,
    total_bytes_processed/POW(1024, 3) AS total_gigabytes_processed
    FROM
    `region-REGION_NAME`.INFORMATION_SCHEMA.JOBS_BY_PROJECT
    WHERE
    creation_time BETWEEN TIMESTAMP_SUB(CURRENT_TIMESTAMP(), INTERVAL 7 DAY) AND CURRENT_TIMESTAMP()
    AND job_type="EXTRACT"
    AND total_bytes_processed > (POW(1024, 3) * 100)
    ORDER BY
    total_bytes_processed DESC
    LIMIT 100

Atau, Anda dapat menggunakan penjelajah tugas dengan filter seperti Bytes processed more than untuk memfilter tugas pemrosesan tinggi selama jangka waktu tertentu.

Resolusi

Salah satu metode untuk mengatasi error kuota ini adalah dengan membuat reservasi slot dan menetapkan project Anda ke reservasi dengan jenis tugas PIPELINE. Metode ini dapat melewati pemeriksaan batas karena menggunakan pemesanan khusus, bukan gabungan slot bersama gratis. Jika perlu, reservasi dapat dihapus jika Anda ingin menggunakan gabungan slot bersama nanti.

Untuk pendekatan alternatif yang memungkinkan mengekspor lebih dari 50 TiB, lihat bagian catatan di Tugas ekstraksi.

Error byte tabledata.list maksimum per detik per kuota project

BigQuery akan menampilkan error ini jika nomor project yang disebutkan dalam pesan error mencapai ukuran data maksimum yang dapat dibaca melalui panggilan API tabledata.list dalam sebuah project per detik. Untuk informasi selengkapnya, lihat Byte tabledata.list maksimum per menit.

Pesan error

Your project:[project number] exceeded quota for tabledata.list bytes per second per project

Resolusi

Untuk mengatasi error ini, lakukan hal berikut:

  • Secara umum, sebaiknya upayakan agar tetap di bawah batas ini. Misalnya, dengan memperluas permintaan dalam jangka waktu yang lebih lama dengan penundaan. Jika error tidak sering terjadi, menerapkan percobaan ulang dengan backoff eksponensial akan menyelesaikan masalah ini.
  • Jika kasus penggunaan mengharapkan pembacaan data dalam jumlah besar yang cepat dan sering dari tabel, sebaiknya gunakan BigQuery Storage Read API, bukan tabledata.list API.
  • Jika saran sebelumnya tidak berhasil, Anda dapat meminta penambahan kuota dari dasbor API konsolGoogle Cloud dengan melakukan hal berikut:

    1. Buka dasbor API konsolGoogle Cloud .
    2. Di dasbor, filter Quota: Tabledata list bytes per minute (default quota).
    3. Pilih kuota dan ikuti petunjuk dalam Meminta penyesuaian kuota.

    Mungkin perlu waktu beberapa hari untuk meninjau dan memproses permintaan.

Error jumlah maksimum dari batas permintaan API

BigQuery menampilkan error ini saat Anda mencapai batas kapasitas untuk jumlah permintaan API ke BigQuery API per pengguna per metode—misalnya, panggilan metode tables.get dari akun layanan, atau panggilan metode jobs.insert dari email pengguna yang berbeda. Untuk mengetahui informasi selengkapnya, lihat batas kapasitas Jumlah maksimum permintaan API per detik per pengguna per metode di BigQuery API.

Pesan error

Quota exceeded: Your user_method exceeded quota for concurrent api requests
per user per method.

Saat Anda mengalami error ini, diagnosis masalah, lalu ikuti langkah-langkah yang direkomendasikan untuk mengatasinya.

Diagnosis

Jika Anda belum mengidentifikasi metode yang telah mencapai batas kapasitas ini, lakukan langkah berikut:

Untuk akun layanan

  1. Buka project yang menghosting akun layanan.

  2. Di konsol Google Cloud , buka Dasbor API.

    Untuk petunjuk cara melihat informasi penggunaan mendetail dari API, lihat Menggunakan Dasbor API.

  3. Di Dasbor API, pilih BigQuery API.

  4. Untuk menampilkan informasi penggunaan yang lebih mendetail, pilih Metrics, lalu lakukan tindakan berikut:

    1. Untuk Select Graphs, pilih Traffic by API method.

    2. Filter diagram menurut kredensial akun layanan. Anda mungkin melihat lonjakan untuk suatu metode dalam rentang waktu saat Anda melihat error tersebut.

Untuk panggilan API

Beberapa error log panggilan API di log audit BigQuery di Cloud Logging. Untuk mengidentifikasi metode yang telah mencapai batas, lakukan hal berikut:

  1. Di konsol Google Cloud , buka menu navigasi Google Cloud , lalu pilih Logging > Logs Explorer untuk project Anda:

    Buka Logs Explorer

  2. Filter log dengan menjalankan kueri berikut:

     resource.type="bigquery_resource"
     protoPayload.authenticationInfo.principalEmail="<user email or service account>"
     "Too many API requests per user per method for this user_method"
     In the log entry, you can find the method name under the property protoPayload.method_name.
     

    Untuk informasi selengkapnya, lihat Ringkasan log audit BigQuery.

Resolusi

Untuk mengatasi error kuota ini, lakukan tindakan berikut:

  • Kurangi jumlah permintaan API atau tambahkan penundaan di antara beberapa permintaan API sehingga jumlah permintaan tetap di bawah batas ini.

  • Jika batas hanya terlampaui sesekali, Anda dapat menerapkan percobaan ulang pada error spesifik ini dengan backoff eksponensial.

  • Jika Anda sering menyisipkan data, pertimbangkan untuk menggunakan streaming insert karena streaming insert tidak terpengaruh oleh kuota BigQuery API. Namun, streaming inserts API memiliki biaya yang terkait dengannya dan memiliki serangkaian batas dan kuota sendiri.

    Untuk mempelajari biaya streaming insert, lihat harga BigQuery.

  • Saat memuat data ke BigQuery menggunakan Dataflow dengan konektor I/O BigQuery, Anda mungkin mengalami error ini untuk metode tables.get. Untuk mengatasi masalah ini, lakukan langkah berikut:

    • Tetapkan disposisi pembuatan tabel tujuan ke CREATE_NEVER. Untuk mengetahui informasi selengkapnya, lihat Membuat disposisi.

    • Gunakan Apache Beam SDK versi 2.24.0 atau yang lebih tinggi. Pada SDK versi sebelumnya, disposisi CREATE_IF_NEEDED memanggil metode tables.get untuk memeriksa apakah tabel ada.

  • Anda dapat meminta penambahan kuota dengan menghubungi dukungan atau penjualan. Untuk mendapatkan kuota tambahan, lihat bagian Meminta penambahan kuota. Permintaan penambahan kuota mungkin memerlukan waktu beberapa hari untuk diproses. Untuk memberikan informasi lebih lanjut terkait permintaan Anda, sebaiknya permintaan tersebut menyertakan prioritas tugas, pengguna yang menjalankan kueri, dan metode yang terpengaruh.

Memecahkan masalah kuota atau batas yang tidak dapat ditingkatkan

Anda tidak dapat menambah kuota atau batas berikut, tetapi Anda dapat menerapkan solusi atau praktik terbaik yang disarankan untuk mengatasinya.

Error batas antrean kueri

Jika project mencoba mengantrekan kueri yang lebih interaktif atau batch dari yang diizinkan batas antrean, Anda mungkin mengalami error ini.

Pesan error

Quota exceeded: Your project and region exceeded quota for
max number of jobs that can be queued per project.

Resolusi

Batas ini tidak dapat ditingkatkan. Untuk mengatasi error kuota ini, lakukan tindakan berikut:

  • Jeda tugas. Jika Anda mengidentifikasi proses atau pipeline yang bertanggung jawab atas peningkatan kueri, jeda proses atau pipeline tersebut.

  • Gunakan tugas dengan prioritas batch. Anda dapat mengantrekan lebih banyak kueri batch daripada kueri interaktif.

  • Distribusikan kueri. Atur dan distribusikan muatan ke berbagai project sesuai informasi yang ditentukan oleh sifat kueri dan kebutuhan bisnis Anda.

  • Distribusikan waktu proses. Distribusikan muatan ke seluruh jangka waktu yang lebih besar. Jika solusi pelaporan Anda perlu menjalankan banyak kueri, coba perkenalkan beberapa keacakan saat kueri dimulai. Misalnya, jangan memulai semua laporan sekaligus.

  • Gunakan BigQuery BI Engine. Jika Anda mengalami error ini saat menggunakan alat business intelligence (BI) untuk membuat dasbor yang mengkueri data di BigQuery, sebaiknya Anda menggunakan BigQuery BI Engine. Penggunaan BigQuery BI Engine sangat optimal untuk kasus penggunaan ini.

  • Optimalkan kueri dan model data. Sering kali, kueri dapat ditulis ulang agar berjalan lebih efisien. Misalnya, jika kueri Anda berisi Ekspresi tabel umum (CTE)–klausa WITH–yang direferensikan di lebih dari satu tempat dalam kueri, komputasi ini akan dilakukan beberapa kali. Lebih baik mempertahankan penghitungan yang dilakukan oleh CTE dalam tabel sementara, lalu merujuknya dalam kueri.

    Beberapa penggabungan juga dapat menjadi sumber kurangnya efisiensi. Dalam hal ini, Anda mungkin ingin mempertimbangkan untuk menggunakan kolom bertingkat dan berulang. Penggunaan ini sering kali meningkatkan lokalitas data, menghilangkan kebutuhan untuk beberapa penggabungan, dan secara keseluruhan mengurangi penggunaan resource dan waktu proses kueri.

    Mengoptimalkan kueri akan membuatnya lebih murah, jadi saat menggunakan harga berbasis kapasitas, Anda dapat menjalankan lebih banyak kueri dengan slot. Untuk mengetahui informasi selengkapnya, lihat Pengantar pengoptimalan performa kueri.

  • Optimalkan model kueri. BigQuery bukanlah database relasional. Tidak dioptimalkan untuk kueri kecil dengan jumlah yang tak terbatas. Menjalankan kueri kecil dalam jumlah besar akan cepat menghabiskan kuota Anda. Kueri tersebut tidak berjalan seefisien jika dijalankan dengan produk database yang lebih kecil. BigQuery adalah data warehouse yang besar dan ini adalah kasus penggunaan utamanya. Ini memiliki performa terbaik dengan kueri analitis pada data dalam jumlah besar.

  • Pertahankan data (Tabel tersimpan). Lakukan pra-pemrosesan data di BigQuery dan simpan di tabel tambahan. Misalnya, jika Anda menjalankan banyak kueri serupa yang menggunakan banyak komputasi dengan kondisi WHERE yang berbeda, hasilnya tidak akan di-cache. Kueri tersebut juga menghabiskan resource setiap kali dijalankan. Anda dapat meningkatkan performa kueri tersebut dan mengurangi waktu pemrosesannya dengan melakukan pra-komputasi data dan menyimpannya dalam tabel. Data yang telah dihitung sebelumnya dalam tabel ini dapat dikueri oleh kueri SELECT. Hal ini sering dapat dilakukan selama penyerapan dalam proses ETL, atau dengan menggunakan kueri terjadwal atau tampilan terwujud.

  • Gunakan mode uji coba. Jalankan kueri dalam mode uji coba, yang memperkirakan jumlah byte yang dibaca, tetapi tidak benar-benar memproses kueri.

  • Pratinjau data tabel. Untuk bereksperimen atau menjelajahi data, bukan menjalankan kueri, lihat pratinjau data tabel dengan kemampuan pratinjau tabel di BigQuery.

  • Gunakan hasil kueri yang di-cache. Semua hasil kueri, termasuk kueri batch dan interaktif, disimpan dalam cache dalam tabel sementara selama sekitar 24 jam dengan beberapa pengecualian. Meskipun menjalankan kueri yang di-cache tetap diperhitungkan terhadap batas kueri serentak Anda, kueri yang menggunakan hasil yang di-cache secara signifikan lebih cepat daripada kueri yang tidak menggunakan hasil yang di-cache karena BigQuery tidak perlu menghitung set hasil.

Error batas ukuran shuffle

BigQuery akan menampilkan error ini jika project Anda melebihi batas ukuran memori dan disk maksimum yang tersedia untuk operasi shuffle.

Kuota ini dihitung per pemesanan dan di-slice ke seluruh project untuk pemesanan. Kuota tidak dapat diubah oleh Cloud Customer Care. Anda dapat mempelajari penggunaan Anda lebih lanjut dengan membuat kueri untuk tampilan INFORMATION_SCHEMA.JOBS_TIMELINE.

Pesan error

Anda menerima salah satu pesan error berikut:

  • Quota exceeded: Your project exceeded quota for total shuffle size limit.
  • Resources exceeded: Your project or organization exceeded the maximum
    disk and memory limit available for shuffle operations. Consider provisioning
    more slots, reducing query concurrency, or using more efficient logic in this
    job.

Resolusi

Untuk mengatasi error ini, lakukan hal berikut:

Error jumlah modifikasi partisi untuk kuota tabel yang dipartisi kolom

BigQuery akan menampilkan error ini jika tabel yang berpartisi kolom Anda mencapai kuota jumlah modifikasi partisi yang diizinkan per hari. Perubahan partisi mencakup total semua tugas pemuatan, tugas penyalinan, dan tugas kueri yang menambahkan atau menimpa partisi tujuan.

Untuk melihat nilai batas Jumlah perubahan partisi per tabel berpartisi kolom per hari, lihat Tabel berpartisi.

Pesan error

Quota exceeded: Your table exceeded quota for
Number of partition modifications to a column partitioned table

Resolusi

Kuota ini tidak dapat ditingkatkan. Untuk mengatasi error kuota ini, lakukan tindakan berikut:

  • Ubah partisi pada tabel untuk memiliki lebih banyak data di setiap partisi, guna mengurangi jumlah total partisi. Misalnya, ubah dari mempartisi menurut hari ke partisi menurut bulan atau ubah cara Anda mempartisi tabel.
  • Gunakan pengelompokan, bukan membuat partisi.
  • Jika Anda sering memuat data dari beberapa file kecil yang disimpan di Cloud Storage yang menggunakan tugas per file, gabungkan beberapa tugas pemuatan ke dalam satu tugas. Anda dapat memuat dari beberapa Cloud Storage URI dengan daftar yang dipisahkan koma (misalnya, gs://my_path/file_1,gs://my_path/file_2), atau menggunakan karakter pengganti (misalnya, gs://my_path/*).

    Untuk mengetahui informasi selengkapnya, lihat Pemuatan batch data.

  • Jika Anda menggunakan tugas pemuatan, pemilihan, atau penyalinan untuk menambahkan baris data tunggal ke tabel, misalnya, Anda harus mempertimbangkan untuk mengelompokkan beberapa tugas menjadi satu tugas. BigQuery tidak berperforma baik jika digunakan sebagai database relasional. Sebagai praktik terbaik, hindari menjalankan tindakan penambahan baris tunggal yang sering.
  • Untuk menambahkan data dengan kecepatan tinggi, pertimbangkan untuk menggunakan BigQuery Storage Write API. Solusi ini direkomendasikan untuk penyerapan data berperforma tinggi. BigQuery Storage Write API memiliki fitur yang andal, termasuk semantik pengiriman tepat satu kali. Untuk mempelajari batas dan kuota, lihat Storage Write API dan untuk melihat biaya penggunaan API ini, lihat Harga penyerapan data BigQuery.
  • Untuk memantau jumlah partisi yang diubah pada tabel, gunakan tampilan INFORMATION_SCHEMA.

Error tingkat maksimum dari batas operasi update metadata tabel

BigQuery menampilkan error ini saat tabel Anda mencapai batas kecepatan maksimum operasi update metadata tabel per tabel untuk tabel standar. Operasi tabel mencakup total gabungan dari semua tugas pemuatan, tugas penyalinan, dan tugas kueri yang menambahkan atau menimpa tabel tujuan atau yang menggunakan DML DELETE, INSERT, MERGE, TRUNCATE TABLE, atau UPDATE untuk menulis data ke tabel.

Untuk melihat nilai batas Kecepatan maksimum operasi update metadata tabel per tabel, lihat Tabel standar.

Pesan error

Exceeded rate limits: too many table update operations for this table

Saat Anda mengalami error ini, diagnosis masalahnya, lalu ikuti langkah-langkah yang direkomendasikan untuk mengatasinya.

Diagnosis

Update tabel metadata dapat berasal dari panggilan API yang mengubah metadata tabel atau dari tugas yang mengubah konten tabel. Jika Anda belum mengidentifikasi sumber tempat sebagian besar operasi update ke metadata tabel berasal, lakukan langkah berikut:

Mengidentifikasi panggilan API
  1. Buka menu Google Cloud navigasi, lalu pilih Logging > Logs Explorer:

    Buka Logs Explorer

  2. Filter log untuk melihat operasi tabel dengan menjalankan kueri berikut:

    resource.type="bigquery_dataset"
    protoPayload.resourceName="projects/my-project-id/datasets/my_dataset/tables/my_table"
    (protoPayload.methodName="google.cloud.bigquery.v2.TableService.PatchTable" OR
    protoPayload.methodName="google.cloud.bigquery.v2.TableService.UpdateTable" OR
    protoPayload.methodName="google.cloud.bigquery.v2.TableService.InsertTable")
    
Mengidentifikasi tugas

Kueri berikut menampilkan daftar tugas yang mengubah tabel yang terpengaruh dalam project tersebut dalam satu hari terakhir. Jika Anda mengharapkan beberapa project dalam suatu organisasi menulis ke tabel, ganti JOBS_BY_PROJECT dengan JOBS_BY_ORGANIZATION.

SELECT
 job_id,
 user_email,
 query
FROM  `region-REGION_NAME`.INFORMATION_SCHEMA.JOBS_BY_PROJECT
WHERE creation_time > TIMESTAMP_SUB(CURRENT_TIMESTAMP, INTERVAL 1 DAY)
AND destination_table.project_id = "my-project-id"
AND destination_table.dataset_id = "my_dataset"
AND destination_table.table_id = "my_table"

Untuk informasi selengkapnya, lihat Ringkasan log audit BigQuery.

Resolusi

Kuota ini tidak dapat ditingkatkan. Untuk mengatasi error kuota ini, lakukan tindakan berikut:

  • Kurangi kecepatan update untuk metadata tabel.
  • Tambahkan penundaan antara tugas atau operasi tabel untuk memastikan bahwa kecepatan update berada dalam batas.
  • Untuk penyisipan atau modifikasi data, pertimbangkan untuk menggunakan operasi DML. Operasi DML tidak terpengaruh oleh batas kapasitas Kecepatan maksimum operasi update metadata tabel per tabel.

    Operasi DML memiliki batas dan kuota lainnya. Untuk mengetahui informasi selengkapnya, lihat Menggunakan bahasa manipulasi data (DML).

  • Jika Anda sering memuat data dari beberapa file kecil yang disimpan di Cloud Storage yang menggunakan tugas per file, gabungkan beberapa tugas pemuatan ke dalam satu tugas. Anda dapat memuat dari beberapa Cloud Storage URI dengan daftar yang dipisahkan koma (misalnya, gs://my_path/file_1,gs://my_path/file_2), atau menggunakan karakter pengganti (misalnya, gs://my_path/*).

    Untuk mengetahui informasi selengkapnya, lihat Pemuatan batch data.

  • Jika Anda menggunakan tugas pemuatan, pemilihan, atau penyalinan untuk menambahkan baris data tunggal ke tabel, misalnya, Anda harus mempertimbangkan untuk mengelompokkan beberapa tugas menjadi satu tugas. BigQuery tidak berperforma baik jika digunakan sebagai database relasional. Sebagai praktik terbaik, hindari menjalankan tindakan penambahan baris tunggal yang sering.
  • Untuk menambahkan data dengan kecepatan tinggi, pertimbangkan untuk menggunakan BigQuery Storage Write API. Solusi ini direkomendasikan untuk penyerapan data berperforma tinggi. BigQuery Storage Write API memiliki fitur yang andal, termasuk semantik pengiriman tepat satu kali. Untuk mempelajari batas dan kuota, lihat Storage Write API dan untuk melihat biaya penggunaan API ini, lihat Harga penyerapan data BigQuery.
  • Untuk memantau jumlah partisi yang diubah pada tabel, gunakan tampilan INFORMATION_SCHEMA.

Error kuota penambahan kueri atau impor tabel

BigQuery akan menampilkan pesan error ini saat tabel Anda mencapai batas operasi tabel per hari untuk tabel standar. Operasi tabel mencakup total gabungan dari semua tugas pemuatan, tugas penyalinan, dan tugas kueri yang menambahkan atau menimpa tabel tujuan.

Untuk melihat nilai batas Operasi tabel per hari, lihat Tabel standar.

Pesan error

Your table exceeded quota for imports or query appends per table

Saat Anda mengalami error ini, diagnosis masalahnya, lalu ikuti langkah-langkah yang direkomendasikan untuk mengatasinya.

Diagnosis

Jika Anda belum mengidentifikasi sumber tempat sebagian besar operasi tabel berasal, lakukan hal berikut:

  1. Catat project, set data, dan tabel yang digunakan oleh kueri, pemuatan, atau tugas penyalinan yang gagal.

  2. Gunakan tabel INFORMATION_SCHEMA.JOBS_BY_* untuk mempelajari lebih lanjut tugas yang mengubah tabel.

    Contoh berikut menemukan jumlah tugas per jam yang dikelompokkan berdasarkan jenis tugas untuk periode 24 jam terakhir menggunakan JOBS_BY_PROJECT. Jika Anda mengharapkan beberapa project ditulis ke tabel, ganti JOBS_BY_PROJECT dengan JOBS_BY_ORGANIZATION.

    SELECT
    TIMESTAMP_TRUNC(creation_time, HOUR),
    job_type,
    count(1)
    FROM `region-REGION_NAME`.INFORMATION_SCHEMA.JOBS_BY_PROJECT
    WHERE creation_time > TIMESTAMP_SUB(CURRENT_TIMESTAMP, INTERVAL 1 DAY)
    AND destination_table.project_id = "my-project-id"
    AND destination_table.dataset_id = "my_dataset"
    AND destination_table.table_id = "my_table"
    GROUP BY 1, 2
    ORDER BY 1 DESC

Resolusi

Kuota ini tidak dapat ditingkatkan. Untuk mengatasi error kuota ini, lakukan tindakan berikut:

  • Jika Anda sering memuat data dari beberapa file kecil yang disimpan di Cloud Storage yang menggunakan tugas per file, gabungkan beberapa tugas pemuatan ke dalam satu tugas. Anda dapat memuat dari beberapa Cloud Storage URI dengan daftar yang dipisahkan koma (misalnya, gs://my_path/file_1,gs://my_path/file_2), atau menggunakan karakter pengganti (misalnya, gs://my_path/*).

    Untuk mengetahui informasi selengkapnya, lihat Pemuatan batch data.

  • Jika Anda menggunakan tugas pemuatan, pemilihan, atau penyalinan untuk menambahkan baris data tunggal ke tabel, misalnya, Anda harus mempertimbangkan untuk mengelompokkan beberapa tugas menjadi satu tugas. BigQuery tidak berperforma baik jika digunakan sebagai database relasional. Sebagai praktik terbaik, hindari menjalankan tindakan penambahan baris tunggal yang sering.
  • Untuk menambahkan data dengan kecepatan tinggi, pertimbangkan untuk menggunakan BigQuery Storage Write API. Solusi ini direkomendasikan untuk penyerapan data berperforma tinggi. BigQuery Storage Write API memiliki fitur yang andal, termasuk semantik pengiriman tepat satu kali. Untuk mempelajari batas dan kuota, lihat Storage Write API dan untuk melihat biaya penggunaan API ini, lihat Harga penyerapan data BigQuery.
  • Untuk memantau jumlah partisi yang diubah pada tabel, gunakan tampilan INFORMATION_SCHEMA.

Terlalu banyak pernyataan DML yang luar biasa terhadap tabel

Error ini berarti jumlah pernyataan DML yang bermutasi serentak (UPDATE, DELETE, MERGE) yang berjalan terhadap tabel yang sama telah terlampaui batas kuota bahasa manipulasi data (DML). Batas kuota ini berlaku per tabel, dan hanya berlaku untuk pernyataan DML yang bermutasi, yang tidak termasuk INSERT.

Resolusi

Kelompokkan tugas DML dengan mengikuti Praktik terbaik untuk pernyataan DML.

Error pemuatan kuota file CSV

Jika memuat file CSV besar menggunakan perintah bq load dengan flag --allow_quoted_newlines, Anda mungkin mengalami error ini.

Pesan error

Input CSV files are not splittable and at least one of the files is larger than
the maximum allowed size. Size is: ...

Resolusi

Untuk mengatasi error kuota ini, lakukan tindakan berikut:

  • Tetapkan flag --allow_quoted_newlines ke false.
  • Bagi file CSV menjadi potongan-potongan kecil yang masing-masing berukuran kurang dari 4 GB.

Untuk mengetahui informasi selengkapnya tentang batas yang berlaku saat Anda memuat data ke BigQuery, lihat Memuat tugas.

Pengguna Anda melampaui kuota untuk permintaan project.lists serentak

Error ini terjadi saat tugas Microsoft Power BI yang berkomunikasi dengan BigQuery melalui driver Simba ODBC atau DataHub gagal karena melampaui batas API project.list. Untuk mengatasi masalah ini, gunakan solusi sementara jangka pendek atau jangka panjang yang dijelaskan di bagian ini.

Pesan error

Your user exceeded quota for concurrent project.lists requests

Diagnosis

Error ini terjadi selama fase koneksi dan penemuan untuk Power BI saat laporan Power BI dimuat ulang dan driver Simba membuat koneksi ke proyek BigQuery tertentu.

Resolusi jangka pendek

Untuk mengatasi masalah ini dalam jangka pendek, gunakan solusi berikut, yang diurutkan dari yang paling efektif hingga yang paling tidak efektif. Terapkan perbaikan tiga atau empat, bergantung pada apakah Anda terhubung ke BigQuery menggunakan driver Simba atau menggunakan DataHub.

Untuk perbaikan jangka panjang, lihat Resolusi jangka panjang.

  1. Menunda pembaruan laporan. Jika Anda tidak dapat mengubah DSN, atasi masalah kuota dengan mengurangi jumlah permintaan serentak. Daripada memuat ulang semua laporan secara bersamaan (misalnya, pada pukul 09.00), atur jadwalnya dengan selisih beberapa menit (misalnya, pada pukul 09.01, 09.03, dan 09.05). Praktik ini menyebarkan panggilan API dari waktu ke waktu, sehingga Anda cenderung tidak mencapai batas serentak.

  2. Menerapkan percobaan ulang di Power BI. Strategi reaktif ini membantu laporan pulih dari kegagalan sementara. Power BI memiliki logika coba lagi bawaan untuk kegagalan refresh data. Meskipun praktik ini tidak mencegah error kuota, praktik ini membuat pipeline Anda lebih tangguh dengan memungkinkan laporan berhasil pada upaya berikutnya setelah lonjakan awal panggilan API mereda. Untuk menerapkan perbaikan ini, lakukan hal berikut:

    1. Di layanan Power BI, buka Setelan untuk set data Anda.
    2. Luaskan bagian Muat ulang terjadwal. Di bagian Coba lagi, konfigurasi Power BI untuk menjalankan ulang pemuatan ulang yang gagal secara otomatis.
  3. Untuk driver Simba versi sebelumnya, tentukan project ID di koneksi ODBC. Tindakan ini mencegah pengemudi melakukan panggilan penemuan projects.list. Sebagai gantinya, pengemudi terhubung langsung ke project yang ditentukan, sehingga mencegah panggilan API yang tidak perlu dan menyelesaikan masalah kuota.

    Driver yang lebih baru akan langsung gagal jika project tidak ditentukan dengan pesan yang mirip dengan Unable to establish connection with data source. Missing settings: {[Catalog]}.

    Untuk melakukan perbaikan ini, lakukan hal berikut:

    1. Di komputer yang menjalankan Power BI Gateway atau Power BI Desktop, buka aplikasi ODBC Data Sources (64-bit).
    2. Di layar penyiapan utama untuk driver ODBC Simba untuk BigQuery, isi kolom Catalog (Project) dengan ID project Google Cloud tertentu Anda—misalnya, my-gcp-project-id.
  4. Untuk DataHub versi sebelumnya, tentukan project ID dalam konfigurasi penyerapan DataHub. Lakukan perbaikan ini jika Anda menggunakan DataHub, bukan driver Simba. Mirip dengan Simba, DataHub versi yang lebih baru mengharuskan Anda menentukan project ID atau tidak akan terhubung ke BigQuery.

    Untuk menghindari melampaui batas DataHub, ubah konfigurasi penyerapan DataHub Anda untuk memberikan daftar eksplisit project ID yang akan dipindai. Hal ini mencegah konfigurasi DataHub menemukan semua project yang dapat dilihat oleh akun layanan.

    Dalam file resep sumber BigQuery (biasanya file YAML), gunakan konfigurasi project_ids untuk mencantumkan project yang ingin Anda masukkan. Kemudian, deploy ulang resep penyerapan DataHub dengan konfigurasi baru. Lihat contoh berikut dan contoh yang lebih panjang ini yang disediakan oleh DataHub.

    Berikut adalah contoh cuplikan konfigurasi DataHub:

  source:
  type: "bigquery"
  config:
    # Instead of relying on discovery, explicitly list the projects.
    # This avoids the problematic projects.list() API call.
  project_ids:
    -   "YOUR_PRODUCTION_PROJECT_ID"
    -   "YOUR_ANALYTICS_PROJECT_ID"
    -   "ANOTHER_BQ_PROJECT"

Resolusi jangka panjang

Perbaikan jangka panjang terbaik untuk pesan error ini adalah membuat Google Cloud akun layanan terpisah dan khusus untuk setiap fungsi. Misalnya, buat akun layanan untuk semua laporan Power BI dan akun layanan untuk penyerapan DataHub.

Praktik terbaik ini mengisolasi penggunaan API ke dalam bucket kuota terpisah dan mencegah tugas beban tinggi di DataHub menyebabkan kegagalan laporan bisnis penting di Power BI.

Gunakan rencana tindakan di bagian berikut untuk mengatasi error kuota jangka panjang di Power BI dan DataHub.

Fase 1: Persiapan
  1. Memberi tahu pemilik gateway Power BI dan konfigurasi DataHub bahwa Anda akan melakukan perubahan terkoordinasi untuk mengatasi kegagalan tugas yang sedang berlangsung.
  2. Di konsol Google Cloud , buat dua akun layanan baru—misalnya, sa-powerbi-gateway@... dan sa-datahub-ingestion@....
  3. Buat kunci akun layanan untuk akun layanan Power BI dan DataHub.
  4. Berikan izin hak istimewa paling rendah ke setiap akun layanan baru dengan menetapkan peran Identity and Access Management berikut yang memungkinkannya melakukan tugas di Identity and Access Management (IAM) yang relevan. Hindari penetapan peran yang terlalu luas—misalnya, ProjectEditor.
Peran yang diperlukan

Akun layanan untuk Power BI menjalankan kueri dan membaca data dari tabel. Berikan peran berikut ke akun layanan di setiap project Google Cloud yang berisi data yang harus diakses Power BI. Untuk mempelajari peran ini lebih lanjut, lihat Peran BigQuery.

  • BigQuery Data Viewer: memberikan akses hanya baca ke set data, tabel, dan tampilan.
  • Pengguna Tugas BigQuery: memberikan izin untuk menjalankan tugas, termasuk kueri, yang penting agar Power BI dapat menjalankan permintaannya.

Akun layanan untuk penyerapan DataHub hanya perlu membaca metadata, seperti nama tabel, skema, dan deskripsi, bukan data dalam tabel. Berikan peran berikut di tingkat project untuk setiap project yang dipindai DataHub. Untuk mempelajari peran ini lebih lanjut, lihat Peran IAM untuk BigQuery.

BigQuery Metadata Viewer: peran ini dirancang khusus untuk membaca metadata. Peran ini memberikan izin untuk mencantumkan set data dan tabel serta melihat metadatanya tanpa memberikan akses ke data pokok.

Fase 2: Peluncuran terkoordinasi

Selama periode penggunaan rendah, administrator Power BI memperbarui konfigurasi DSN ODBC di mesin gateway dengan melakukan langkah-langkah berikut:

  1. Mengubah metode autentikasi untuk menggunakan kunci akun layanan sa-powerbi-gateway@... baru yang dibuat pada langkah sebelumnya.
  2. Jika belum dilakukan sebagai perbaikan jangka pendek, masukkan Google Cloud project ID di kolom Catalog (Project) driver ODBC.
  3. Pemilik DataHub telah memperbarui file YAML konfigurasi sumber BigQuery.
  4. Menunjuk ke kunci akun layanan sa-datahub-ingestion@... baru yang dibuat pada langkah sebelumnya.
  5. Jika belum dilakukan sebagai perbaikan jangka pendek, gunakan parameter project_ids untuk mencantumkan project yang akan dipindai secara eksplisit.
  6. Men-deploy ulang resep penyerapan DataHub dengan konfigurasi baru.
Fase 3: Verifikasi dan pemantauan

Untuk memverifikasi dan memantau efek perbaikan, administrator Power BI dan DataHub melakukan langkah-langkah berikut:

  1. Memicu pembaruan secara manual untuk beberapa laporan Power BI utama dan menjalankan penyerapan baru di DataHub. Pastikan tugas ini berhasil diselesaikan tanpa menimbulkan error kuota.
  2. Di konsol Google Cloud , buka halaman IAM & Admin > Kuota.
  3. Filter untuk layanan BigQuery API.
  4. Temukan kuota bernama Permintaan project.lists serentak, lalu klik ikon grafik untuk melihat penggunaan dari waktu ke waktu.

Administrator akan melihat penurunan penggunaan panggilan API spesifik ini secara drastis dan permanen, yang mengonfirmasi bahwa perbaikan berhasil.