Memecahkan masalah error kuota dan batas
BigQuery memiliki berbagai kuota dan batas yang membatasi tarif serta volume permintaan dan operasi yang berbeda. Keduanya dibuat untuk melindungi infrastruktur dan membantu melindungi dari penggunaan pelanggan yang tidak terduga. Dokumen ini menjelaskan cara mendiagnosis dan memitigasi error tertentu yang dihasilkan dari kuota dan batas.
Beberapa pesan error menentukan kuota atau batas yang dapat Anda tingkatkan, sementara pesan error lainnya menentukan kuota atau batas yang tidak dapat Anda tingkatkan. Mencapai batas keras berarti Anda perlu menerapkan solusi sementara atau permanen atau praktik terbaik untuk workload Anda. Tindakan ini adalah praktik terbaik, bahkan untuk kuota atau batas yang dapat ditingkatkan.
Dokumen ini mengatur pesan error dan solusinya berdasarkan kategori ini, dan bagian "Ringkasan" di bagian selanjutnya dalam dokumen ini menjelaskan cara membaca pesan error dan menerapkan solusi yang tepat untuk masalah Anda.
Jika pesan error Anda tidak tercantum dalam dokumen ini, lihat daftar pesan error, yang memiliki informasi error yang lebih umum.
Ringkasan
Jika operasi BigQuery gagal karena melebihi kuota, API akan menampilkan kode status HTTP 403 Forbidden
. Isi respons berisi informasi
selengkapnya tentang kuota yang telah tercapai. Isi respons terlihat mirip dengan
berikut ini:
{
"code" : 403,
"errors" : [ {
"domain" : "global",
"message" : "Quota exceeded: ...",
"reason" : "quotaExceeded"
} ],
"message" : "Quota exceeded: ..."
}
Kolom message
dalam payload menjelaskan batas mana yang terlampaui. Misalnya, kolom message
mungkin bertuliskan Exceeded rate limits: too many table
update operations for this table
.
Secara umum, batas kuota dibagi menjadi dua kategori, yang ditunjukkan oleh kolom reason
dalam payload respons.
rateLimitExceeded
. Nilai ini menunjukkan batas jangka pendek. Untuk mengatasi masalah batas ini, coba lagi operasi ini setelah beberapa detik. Gunakan backoff eksponensial di antara upaya percobaan ulang. Artinya, meningkatkan penundaan secara eksponensial di antara setiap percobaan ulang.quotaExceeded
. Nilai ini menunjukkan batas jangka waktu yang lebih panjang. Jika mencapai batas kuota jangka panjang, Anda harus menunggu 10 menit atau lebih lama sebelum mencoba operasi lagi. Jika Anda secara konsisten mencapai salah satu batas kuota jangka panjang ini, Anda harus menganalisis workload untuk mencari cara memitigasi masalah. Mitigasi dapat mencakup pengoptimalan workload Anda atau meminta penambahan kuota.
Untuk error quotaExceeded
, periksa pesan error guna memahami batas kuota mana yang terlampaui. Kemudian, analisis workload Anda untuk melihat apakah Anda dapat menghindari tercapainya kuota.
Dalam beberapa kasus, kuota dapat ditingkatkan dengan menghubungi dukungan BigQuery atau menghubungi Google Cloud bagian penjualan, tetapi sebaiknya Anda mencoba saran dalam dokumen ini terlebih dahulu.
Diagnosis
Untuk mendiagnosis masalah, lakukan hal berikut:
Gunakan tampilan
INFORMATION_SCHEMA
bersama dengan penentu wilayah untuk menganalisis masalah yang mendasarinya. Tampilan ini berisi metadata tentang resource BigQuery Anda, termasuk tugas, reservasi, dan streaming insert.Misalnya, kueri berikut menggunakan tampilan
INFORMATION_SCHEMA.JOBS
untuk mencantumkan semua error terkait kuota dalam satu hari terakhir:SELECT job_id, creation_time, error_result FROM `region-REGION_NAME`.INFORMATION_SCHEMA.JOBS WHERE creation_time > TIMESTAMP_SUB(CURRENT_TIMESTAMP, INTERVAL 1 DAY) AND error_result.reason IN ('rateLimitExceeded', 'quotaExceeded')
Ganti
REGION_NAME
dengan region project. Harus diawali denganregion-
. Misalnya, untuk multi-regionUS
, gunakanregion-us
.Lihat error di Cloud Audit Logs.
Misalnya, dengan menggunakan Logs Explorer, kueri berikut menampilkan error dengan
Quota exceeded
ataulimit
dalam string pesan:resource.type = ("bigquery_project" OR "bigquery_dataset") protoPayload.status.code ="7" protoPayload.status.message: ("Quota exceeded" OR "limit")
Dalam contoh ini, kode status
7
menunjukkanPERMISSION_DENIED
, yang sesuai dengan kode status403
HTTP.Untuk contoh kueri Cloud Audit Logs tambahan, lihat Kueri BigQuery.
Memecahkan masalah kuota atau batas yang dapat ditingkatkan
Anda dapat menambah kuota dan batas berikut; namun, sebaiknya coba dulu solusi atau praktik terbaik yang disarankan.
Project Anda melampaui kuota untuk byte kueri gratis yang dipindai
BigQuery menampilkan error ini saat Anda menjalankan kueri di paket penggunaan gratis dan akun mencapai batas bulanan ukuran data yang dapat dikueri. Untuk mengetahui informasi selengkapnya tentang harga kueri, lihat Paket penggunaan gratis.
Pesan error
Your project exceeded quota for free query bytes scanned
Resolusi
Untuk terus menggunakan BigQuery, Anda perlu mengupgrade akun ke akun Penagihan Cloud berbayar.
Error kuota streaming insert
Bagian ini memberikan beberapa tips untuk memecahkan masalah error kuota terkait streaming data ke BigQuery.
Di region tertentu, streaming insert memiliki kuota yang lebih tinggi jika Anda tidak mengisi kolom insertId
untuk setiap baris. Untuk mengetahui informasi selengkapnya tentang kuota streaming insert, lihat Streaming insert.
Error terkait kuota untuk streaming BigQuery bergantung pada ada atau tidaknya insertId
.
Pesan error
Jika kolom insertId
kosong, error kuota berikut mungkin terjadi:
Batas kuota | Pesan error |
---|---|
Byte per detik per project | Entity Anda dengan gaia_id: GAIA_ID, project: PROJECT_ID dalam region: REGION melampaui kuota untuk byte penyisipan per detik. |
Jika kolom insertId
terisi, error kuota berikut mungkin terjadi:
Batas kuota | Pesan error |
---|---|
Baris per detik per project | Project Anda: PROJECT_ID di REGION melampaui kuota untuk baris streaming insert per detik. |
Baris per detik per tabel | Tabel Anda: TABLE_ID melampaui kuota untuk baris streaming insert per detik. |
Byte per detik per tabel | Tabel Anda: TABLE_ID melampaui kuota untuk byte streaming insert per detik. |
Tujuan kolom insertId
adalah untuk menghapus duplikat baris yang disisipkan. Jika beberapa penyisipan dengan insertId
yang sama tiba dalam periode beberapa menit, BigQuery akan menulis satu versi data. Namun, penghapusan
duplikat otomatis ini tidak dijamin. Untuk throughput streaming maksimum,
sebaiknya Anda tidak menyertakan insertId
, dan gunakan
penghapusan duplikat manual.
Untuk mengetahui informasi selengkapnya, lihat Memastikan konsistensi data.
Saat Anda mengalami error ini, diagnosis masalahnya, lalu ikuti langkah-langkah yang direkomendasikan untuk mengatasinya.
Diagnosis
Gunakan tampilan STREAMING_TIMELINE_BY_*
untuk menganalisis traffic streaming. Tampilan ini menggabungkan statistik
streaming selama interval satu menit, yang dikelompokkan berdasarkan kode error. Error kuota muncul dalam hasil dengan error_code
yang sama dengan RATE_LIMIT_EXCEEDED
atau QUOTA_EXCEEDED
.
Bergantung pada batas kuota spesifik yang telah tercapai, lihat total_rows
atau total_input_bytes
. Jika error tersebut adalah kuota tingkat tabel, filter menurut table_id
.
Misalnya, kueri berikut menampilkan total byte yang diserap per menit, dan jumlah total error kuota:
SELECT start_timestamp, error_code, SUM(total_input_bytes) as sum_input_bytes, SUM(IF(error_code IN ('QUOTA_EXCEEDED', 'RATE_LIMIT_EXCEEDED'), total_requests, 0)) AS quota_error FROM `region-REGION_NAME`.INFORMATION_SCHEMA.STREAMING_TIMELINE_BY_PROJECT WHERE start_timestamp > TIMESTAMP_SUB(CURRENT_TIMESTAMP, INTERVAL 1 DAY) GROUP BY start_timestamp, error_code ORDER BY 1 DESC
Resolusi
Untuk mengatasi error kuota ini, lakukan tindakan berikut:
Jika Anda menggunakan kolom
insertId
untuk penghapusan duplikat, dan project Anda berada di region yang mendukung kuota streaming yang lebih tinggi, sebaiknya hapus kolominsertId
. Solusi ini mungkin memerlukan beberapa langkah tambahan untuk menghapus duplikat data secara manual. Untuk informasi selengkapnya, lihat Menghapus duplikat secara manual.Jika Anda tidak menggunakan
insertId
, atau jika tidak mungkin untuk menghapusnya, pantau traffic streaming Anda selama periode 24 jam dan analisis error kuota:Jika Anda melihat sebagian besar error
RATE_LIMIT_EXCEEDED
, bukan errorQUOTA_EXCEEDED
, dan keseluruhan traffic di bawah 80% kuota, error tersebut mungkin menunjukkan lonjakan sementara. Anda dapat mengatasi error ini dengan mencoba kembali operasi menggunakan backoff eksponensial di antara percobaan ulang.Jika Anda menggunakan tugas Dataflow untuk menyisipkan data, pertimbangkan untuk menggunakan tugas pemuatan, bukan streaming insert. Untuk informasi selengkapnya, lihat Menetapkan metode penyisipan. Jika Anda menggunakan Dataflow dengan konektor I/O kustom, sebaiknya gunakan konektor I/O bawaan. Untuk mengetahui informasi selengkapnya, lihat Pola I/O kustom.
Jika Anda melihat error
QUOTA_EXCEEDED
atau keseluruhan traffic secara konsisten melebihi 80% kuota, kirimkan permintaan untuk penambahan kuota. Untuk mengetahui informasi selengkapnya, lihat Meminta penyesuaian kuota.Anda juga dapat mempertimbangkan untuk mengganti streaming insert dengan Storage Write API lebih baru yang memiliki throughput lebih tinggi, harga yang lebih rendah, dan banyak fitur berguna.
Jumlah maksimum kueri serentak yang berisi fungsi jarak jauh
BigQuery akan menampilkan error ini ketika jumlah kueri serentak yang berisi fungsi jarak jauh melebihi batas. Namun, batas ini dapat ditingkatkan. Coba solusi dan praktik terbaik terlebih dahulu.
Untuk mempelajari lebih lanjut batas fungsi jarak jauh, lihat Fungsi jarak jauh.
Pesan error
Exceeded rate limits: too many concurrent queries with remote functions for this project
Diagnosis
Untuk melihat batas kueri serentak yang berisi fungsi jarak jauh, lihat Batas fungsi jarak jauh.
Resolusi
- Saat menggunakan fungsi jarak jauh, patuhi praktik terbaik untuk fungsi jarak jauh.
- Anda dapat meminta penambahan kuota dengan menghubungi dukungan atau penjualan. Mungkin perlu waktu beberapa hari untuk meninjau dan memproses permintaan. Sebaiknya nyatakan prioritas, kasus penggunaan, dan ID project dalam permintaan.
Jumlah maksimum pernyataan CREATE MODEL
Error ini berarti Anda telah melampaui kuota untuk pernyataan CREATE MODEL
.
Pesan error
Quota exceeded: Your project exceeded quota for CREATE MODEL queries per project.
Resolusi
Jika Anda melebihi kuota
untuk pernyataan CREATE MODEL
, kirim email ke
bqml-feedback@google.com
dan minta penambahan kuota.
Error jumlah maksimum tugas penyalinan per hari per kuota project
BigQuery akan menampilkan error ini ketika jumlah tugas penyalinan yang berjalan dalam sebuah project telah melebihi batas harian. Untuk mempelajari lebih lanjut batas tugas penyalinan per hari, lihat Tugas penyalinan.
Pesan error
Your project exceeded quota for copies per project
Diagnosis
Jika ingin mengumpulkan lebih banyak data tentang asal tugas penyalinan, Anda dapat mencoba langkah berikut:
Jika tugas penyalinan Anda berada di satu atau hanya beberapa region, Anda dapat mencoba membuat kueri tabel
INFORMATION_SCHEMA.JOBS
untuk region tertentu. Contoh:SELECT creation_time, job_id, user_email, destination_table.project_id, destination_table.dataset_id, destination_table.table_id FROM `PROJECT_ID`.`region-REGION_NAME`.INFORMATION_SCHEMA.JOBS WHERE creation_time BETWEEN TIMESTAMP_SUB(CURRENT_TIMESTAMP(), INTERVAL 2 DAY) AND CURRENT_TIMESTAMP() AND job_type = "COPY" order by creation_time DESC
Anda juga dapat menyesuaikan interval waktu berdasarkan rentang waktu yang diinginkan.
Untuk melihat semua tugas penyalinan di semua region, Anda dapat menggunakan filter berikut di Cloud Logging:
resource.type="bigquery_resource" protoPayload.methodName="jobservice.insert" protoPayload.serviceData.jobInsertRequest.resource.jobConfiguration.tableCopy:*
Resolusi
- Jika sasaran operasi penyalinan yang sering dilakukan adalah untuk membuat snapshot data, sebaiknya gunakan snapshot tabel. Snapshot tabel adalah alternatif yang lebih murah dan lebih cepat untuk menyalin tabel lengkap.
- Anda dapat meminta penambahan kuota dengan menghubungi dukungan atau penjualan. Mungkin perlu waktu beberapa hari untuk meninjau dan memproses permintaan. Sebaiknya nyatakan prioritas, kasus penggunaan, dan ID project dalam permintaan.
Error kuota byte ekstraksi per hari terlampaui
BigQuery akan menampilkan error ini jika ekstraksi melebihi batas harian default 50 TiB dalam sebuah project. Untuk mengetahui informasi selengkapnya tentang batas tugas ekstraksi, lihat Tugas ekstraksi.
Pesan error
Your usage exceeded quota for ExtractBytesPerDay
Diagnosis
Jika Anda mengekspor tabel yang lebih besar dari 50 TiB, ekspor akan gagal karena melebihi batas ekstraksi. Untuk mengatasinya, lihat resolusinya. Jika ingin mengekspor data tabel untuk partisi tabel tertentu, Anda dapat menggunakan dekorator partisi untuk mengidentifikasi partisi yang akan diekspor.
Jika ingin mengumpulkan penggunaan data ekspor selama beberapa hari terakhir, Anda dapat mencoba hal berikut:
Melihat kuota untuk project Anda dengan kriteria filter seperti
Name: Extract bytes per day
atauMetric: bigquery.googleapis.com/quota/extract/bytes
beserta diagram Tampilkan penggunaan untuk melihat tren penggunaan Anda selama beberapa hari.Atau, Anda dapat membuat kueri
INFORMATION_SCHEMA.JOBS_BY_PROJECT
untuk melihat total byte ekstraksi Anda selama beberapa hari. Misalnya, kueri berikut menampilkan total byte harian yang diproses oleh tugasEXTRACT
dalam tujuh hari terakhir.SELECT TIMESTAMP_TRUNC(creation_time, DAY) AS day, SUM ( total_bytes_processed ) / POW(1024, 3) AS total_gigabytes_processed FROM `region-REGION_NAME`.INFORMATION_SCHEMA.JOBS_BY_PROJECT WHERE creation_time BETWEEN TIMESTAMP_SUB(CURRENT_TIMESTAMP(), INTERVAL 7 DAY) AND CURRENT_TIMESTAMP() AND job_type = "EXTRACT" GROUP BY 1 ORDER BY 2 DESC
Kemudian, Anda dapat lebih menyaring hasil dengan mengidentifikasi tugas tertentu yang menggunakan lebih banyak byte dari yang diharapkan. Contoh berikut menampilkan 100 tugas
EXTRACT
teratas yang menggunakan lebih dari 100 GB yang diproses selama tujuh hari terakhir.SELECT creation_time, job_id, total_bytes_processed/POW(1024, 3) AS total_gigabytes_processed FROM `region-REGION_NAME`.INFORMATION_SCHEMA.JOBS_BY_PROJECT WHERE creation_time BETWEEN TIMESTAMP_SUB(CURRENT_TIMESTAMP(), INTERVAL 7 DAY) AND CURRENT_TIMESTAMP() AND job_type="EXTRACT" AND total_bytes_processed > (POW(1024, 3) * 100) ORDER BY total_bytes_processed DESC LIMIT 100
Atau, Anda dapat menggunakan penjelajah tugas dengan filter seperti Bytes processed more than
untuk memfilter tugas pemrosesan tinggi selama jangka waktu tertentu.
Resolusi
Salah satu metode untuk mengatasi error kuota ini adalah dengan membuat
reservasi slot dan
menetapkan project
Anda ke reservasi dengan jenis tugas PIPELINE
. Metode ini dapat
melewati pemeriksaan batas karena menggunakan pemesanan khusus, bukan
gabungan slot bersama gratis. Jika perlu, reservasi dapat dihapus jika Anda ingin menggunakan gabungan slot bersama nanti.
Untuk pendekatan alternatif yang memungkinkan mengekspor lebih dari 50 TiB, lihat bagian catatan di Tugas ekstraksi.
Error byte tabledata.list
maksimum per detik per kuota project
BigQuery akan menampilkan error ini jika nomor project yang disebutkan dalam pesan error mencapai ukuran data maksimum yang dapat dibaca melalui panggilan API tabledata.list
dalam sebuah project per detik. Untuk informasi selengkapnya, lihat
Byte tabledata.list
maksimum per menit.
Pesan error
Your project:[project number] exceeded quota for tabledata.list bytes per second per project
Resolusi
Untuk mengatasi error ini, lakukan hal berikut:
- Secara umum, sebaiknya upayakan agar tetap di bawah batas ini. Misalnya, dengan memperluas permintaan dalam jangka waktu yang lebih lama dengan penundaan. Jika error tidak sering terjadi, menerapkan percobaan ulang dengan backoff eksponensial akan menyelesaikan masalah ini.
- Jika kasus penggunaan mengharapkan pembacaan data dalam jumlah besar yang cepat dan sering dari tabel, sebaiknya gunakan BigQuery Storage Read API, bukan
tabledata.list
API. Jika saran sebelumnya tidak berhasil, Anda dapat meminta penambahan kuota dari dasbor API konsolGoogle Cloud dengan melakukan hal berikut:
- Buka dasbor API konsolGoogle Cloud .
- Di dasbor, filter Quota:
Tabledata list bytes per minute (default quota)
. - Pilih kuota dan ikuti petunjuk dalam Meminta penyesuaian kuota.
Mungkin perlu waktu beberapa hari untuk meninjau dan memproses permintaan.
Error jumlah maksimum dari batas permintaan API
BigQuery menampilkan error ini saat Anda mencapai batas kapasitas untuk jumlah permintaan API ke BigQuery API per pengguna per metode—misalnya, panggilan metode tables.get
dari akun layanan, atau panggilan metode jobs.insert
dari email pengguna yang berbeda.
Untuk mengetahui informasi selengkapnya, lihat batas kapasitas Jumlah maksimum permintaan API per detik per pengguna per metode di BigQuery API.
Pesan error
Quota exceeded: Your user_method exceeded quota for concurrent api requests per user per method.
Saat Anda mengalami error ini, diagnosis masalah, lalu ikuti langkah-langkah yang direkomendasikan untuk mengatasinya.
Diagnosis
Jika Anda belum mengidentifikasi metode yang telah mencapai batas kapasitas ini, lakukan langkah berikut:
Untuk akun layanan
Buka project yang menghosting akun layanan.
Di konsol Google Cloud , buka Dasbor API.
Untuk petunjuk cara melihat informasi penggunaan mendetail dari API, lihat Menggunakan Dasbor API.
Di Dasbor API, pilih BigQuery API.
Untuk menampilkan informasi penggunaan yang lebih mendetail, pilih Metrics, lalu lakukan tindakan berikut:
Untuk Select Graphs, pilih Traffic by API method.
Filter diagram menurut kredensial akun layanan. Anda mungkin melihat lonjakan untuk suatu metode dalam rentang waktu saat Anda melihat error tersebut.
Untuk panggilan API
Beberapa error log panggilan API di log audit BigQuery di Cloud Logging. Untuk mengidentifikasi metode yang telah mencapai batas, lakukan hal berikut:
Di konsol Google Cloud , buka menu navigasi Google Cloud > Logs Explorer untuk project Anda:
, lalu pilih LoggingFilter log dengan menjalankan kueri berikut:
resource.type="bigquery_resource" protoPayload.authenticationInfo.principalEmail="<user email or service account>" "Too many API requests per user per method for this user_method" In the log entry, you can find the method name under the property protoPayload.method_name.
Untuk informasi selengkapnya, lihat Ringkasan log audit BigQuery.
Resolusi
Untuk mengatasi error kuota ini, lakukan tindakan berikut:
Kurangi jumlah permintaan API atau tambahkan penundaan di antara beberapa permintaan API sehingga jumlah permintaan tetap di bawah batas ini.
Jika batas hanya terlampaui sesekali, Anda dapat menerapkan percobaan ulang pada error spesifik ini dengan backoff eksponensial.
Jika Anda sering menyisipkan data, pertimbangkan untuk menggunakan streaming insert karena streaming insert tidak terpengaruh oleh kuota BigQuery API. Namun, streaming inserts API memiliki biaya yang terkait dengannya dan memiliki serangkaian batas dan kuota sendiri.
Untuk mempelajari biaya streaming insert, lihat harga BigQuery.
Saat memuat data ke BigQuery menggunakan Dataflow dengan konektor I/O BigQuery, Anda mungkin mengalami error ini untuk metode
tables.get
. Untuk mengatasi masalah ini, lakukan langkah berikut:Tetapkan disposisi pembuatan tabel tujuan ke
CREATE_NEVER
. Untuk mengetahui informasi selengkapnya, lihat Membuat disposisi.Gunakan Apache Beam SDK versi 2.24.0 atau yang lebih tinggi. Pada SDK versi sebelumnya, disposisi
CREATE_IF_NEEDED
memanggil metodetables.get
untuk memeriksa apakah tabel ada.
Anda dapat meminta penambahan kuota dengan menghubungi dukungan atau penjualan. Untuk mendapatkan kuota tambahan, lihat bagian Meminta penambahan kuota. Permintaan penambahan kuota mungkin memerlukan waktu beberapa hari untuk diproses. Untuk memberikan informasi lebih lanjut terkait permintaan Anda, sebaiknya permintaan tersebut menyertakan prioritas tugas, pengguna yang menjalankan kueri, dan metode yang terpengaruh.
Memecahkan masalah kuota atau batas yang tidak dapat ditingkatkan
Anda tidak dapat menambah kuota atau batas berikut, tetapi Anda dapat menerapkan solusi atau praktik terbaik yang disarankan untuk mengatasinya.
Error batas antrean kueri
Jika project mencoba mengantrekan kueri yang lebih interaktif atau batch dari yang diizinkan batas antrean, Anda mungkin mengalami error ini.
Pesan error
Quota exceeded: Your project and region exceeded quota for max number of jobs that can be queued per project.
Resolusi
Batas ini tidak dapat ditingkatkan. Untuk mengatasi error kuota ini, lakukan tindakan berikut:
Jeda tugas. Jika Anda mengidentifikasi proses atau pipeline yang bertanggung jawab atas peningkatan kueri, jeda proses atau pipeline tersebut.
Gunakan tugas dengan prioritas batch. Anda dapat mengantrekan lebih banyak kueri batch daripada kueri interaktif.
Distribusikan kueri. Atur dan distribusikan muatan ke berbagai project sesuai informasi yang ditentukan oleh sifat kueri dan kebutuhan bisnis Anda.
Distribusikan waktu proses. Distribusikan muatan ke seluruh jangka waktu yang lebih besar. Jika solusi pelaporan Anda perlu menjalankan banyak kueri, coba perkenalkan beberapa keacakan saat kueri dimulai. Misalnya, jangan memulai semua laporan sekaligus.
Gunakan BigQuery BI Engine. Jika Anda mengalami error ini saat menggunakan alat business intelligence (BI) untuk membuat dasbor yang mengkueri data di BigQuery, sebaiknya Anda menggunakan BigQuery BI Engine. Penggunaan BigQuery BI Engine sangat optimal untuk kasus penggunaan ini.
Optimalkan kueri dan model data. Sering kali, kueri dapat ditulis ulang agar berjalan lebih efisien. Misalnya, jika kueri Anda berisi Ekspresi tabel umum (CTE)–klausa
WITH
–yang direferensikan di lebih dari satu tempat dalam kueri, komputasi ini akan dilakukan beberapa kali. Lebih baik mempertahankan penghitungan yang dilakukan oleh CTE dalam tabel sementara, lalu merujuknya dalam kueri.Beberapa penggabungan juga dapat menjadi sumber kurangnya efisiensi. Dalam hal ini, Anda mungkin ingin mempertimbangkan untuk menggunakan kolom bertingkat dan berulang. Penggunaan ini sering kali meningkatkan lokalitas data, menghilangkan kebutuhan untuk beberapa penggabungan, dan secara keseluruhan mengurangi penggunaan resource dan waktu proses kueri.
Mengoptimalkan kueri akan membuatnya lebih murah, jadi saat menggunakan harga berbasis kapasitas, Anda dapat menjalankan lebih banyak kueri dengan slot. Untuk mengetahui informasi selengkapnya, lihat Pengantar pengoptimalan performa kueri.
Optimalkan model kueri. BigQuery bukanlah database relasional. Tidak dioptimalkan untuk kueri kecil dengan jumlah yang tak terbatas. Menjalankan kueri kecil dalam jumlah besar akan cepat menghabiskan kuota Anda. Kueri tersebut tidak berjalan seefisien jika dijalankan dengan produk database yang lebih kecil. BigQuery adalah data warehouse yang besar dan ini adalah kasus penggunaan utamanya. Ini memiliki performa terbaik dengan kueri analitis pada data dalam jumlah besar.
Pertahankan data (Tabel tersimpan). Lakukan pra-pemrosesan data di BigQuery dan simpan di tabel tambahan. Misalnya, jika Anda menjalankan banyak kueri serupa yang menggunakan banyak komputasi dengan kondisi
WHERE
yang berbeda, hasilnya tidak akan di-cache. Kueri tersebut juga menghabiskan resource setiap kali dijalankan. Anda dapat meningkatkan performa kueri tersebut dan mengurangi waktu pemrosesannya dengan melakukan pra-komputasi data dan menyimpannya dalam tabel. Data yang telah dihitung sebelumnya dalam tabel ini dapat dikueri oleh kueriSELECT
. Hal ini sering dapat dilakukan selama penyerapan dalam proses ETL, atau dengan menggunakan kueri terjadwal atau tampilan terwujud.Gunakan mode uji coba. Jalankan kueri dalam mode uji coba, yang memperkirakan jumlah byte yang dibaca, tetapi tidak benar-benar memproses kueri.
Pratinjau data tabel. Untuk bereksperimen atau menjelajahi data, bukan menjalankan kueri, lihat pratinjau data tabel dengan kemampuan pratinjau tabel di BigQuery.
Gunakan hasil kueri yang di-cache. Semua hasil kueri, termasuk kueri batch dan interaktif, disimpan dalam cache dalam tabel sementara selama sekitar 24 jam dengan beberapa pengecualian. Meskipun menjalankan kueri yang di-cache tetap diperhitungkan terhadap batas kueri serentak Anda, kueri yang menggunakan hasil yang di-cache secara signifikan lebih cepat daripada kueri yang tidak menggunakan hasil yang di-cache karena BigQuery tidak perlu menghitung set hasil.
Error batas ukuran shuffle
BigQuery akan menampilkan error ini jika project Anda melebihi batas ukuran memori dan disk maksimum yang tersedia untuk operasi shuffle.
Kuota ini dihitung per pemesanan dan di-slice ke seluruh project untuk
pemesanan. Kuota tidak dapat diubah oleh Cloud Customer Care. Anda dapat mempelajari
penggunaan Anda lebih lanjut dengan membuat kueri untuk tampilan INFORMATION_SCHEMA.JOBS_TIMELINE
.
Pesan error
Anda menerima salah satu pesan error berikut:
Quota exceeded: Your project exceeded quota for total shuffle size limit.
Resources exceeded: Your project or organization exceeded the maximum disk and memory limit available for shuffle operations. Consider provisioning more slots, reducing query concurrency, or using more efficient logic in this job.
Resolusi
Untuk mengatasi error ini, lakukan hal berikut:
- Tingkatkan pemesanan Anda.
- Mengoptimalkan kueri.
- Kurangi konkurensi kueri atau terwujudnya hasil menengah untuk mengurangi dependensi pada resource. Untuk mengetahui informasi selengkapnya, lihat Membuat kueri antrean dan Membuat tampilan terwujud.
Error jumlah modifikasi partisi untuk kuota tabel yang dipartisi kolom
BigQuery akan menampilkan error ini jika tabel yang berpartisi kolom Anda mencapai kuota jumlah modifikasi partisi yang diizinkan per hari. Perubahan partisi mencakup total semua tugas pemuatan, tugas penyalinan, dan tugas kueri yang menambahkan atau menimpa partisi tujuan.
Untuk melihat nilai batas Jumlah perubahan partisi per tabel berpartisi kolom per hari, lihat Tabel berpartisi.
Pesan error
Quota exceeded: Your table exceeded quota for Number of partition modifications to a column partitioned table
Resolusi
Kuota ini tidak dapat ditingkatkan. Untuk mengatasi error kuota ini, lakukan tindakan berikut:
- Ubah partisi pada tabel untuk memiliki lebih banyak data di setiap partisi, guna mengurangi jumlah total partisi. Misalnya, ubah dari mempartisi menurut hari ke partisi menurut bulan atau ubah cara Anda mempartisi tabel.
- Gunakan pengelompokan, bukan membuat partisi.
-
Jika Anda sering memuat data dari beberapa file kecil yang disimpan di Cloud Storage yang menggunakan tugas per file, gabungkan beberapa tugas pemuatan ke dalam satu tugas. Anda dapat memuat dari beberapa Cloud Storage URI dengan daftar yang dipisahkan koma (misalnya,
gs://my_path/file_1,gs://my_path/file_2
), atau menggunakan karakter pengganti (misalnya,gs://my_path/*
).Untuk mengetahui informasi selengkapnya, lihat Pemuatan batch data.
- Jika Anda menggunakan tugas pemuatan, pemilihan, atau penyalinan untuk menambahkan baris data tunggal ke tabel, misalnya, Anda harus mempertimbangkan untuk mengelompokkan beberapa tugas menjadi satu tugas. BigQuery tidak berperforma baik jika digunakan sebagai database relasional. Sebagai praktik terbaik, hindari menjalankan tindakan penambahan baris tunggal yang sering.
- Untuk menambahkan data dengan kecepatan tinggi, pertimbangkan untuk menggunakan BigQuery Storage Write API. Solusi ini direkomendasikan untuk penyerapan data berperforma tinggi. BigQuery Storage Write API memiliki fitur yang andal, termasuk semantik pengiriman tepat satu kali. Untuk mempelajari batas dan kuota, lihat Storage Write API dan untuk melihat biaya penggunaan API ini, lihat Harga penyerapan data BigQuery.
-
Untuk memantau jumlah partisi yang diubah pada tabel, gunakan
tampilan
INFORMATION_SCHEMA
.
Error tingkat maksimum dari batas operasi update metadata tabel
BigQuery menampilkan error ini saat tabel Anda mencapai batas kecepatan maksimum operasi update metadata tabel per tabel untuk tabel standar.
Operasi tabel mencakup total gabungan dari semua tugas pemuatan, tugas penyalinan, dan tugas kueri yang menambahkan atau menimpa tabel tujuan atau yang menggunakan
DML DELETE
, INSERT
,
MERGE
, TRUNCATE TABLE
, atau UPDATE
untuk menulis data ke tabel.
Untuk melihat nilai batas Kecepatan maksimum operasi update metadata tabel per tabel, lihat Tabel standar.
Pesan error
Exceeded rate limits: too many table update operations for this table
Saat Anda mengalami error ini, diagnosis masalahnya, lalu ikuti langkah-langkah yang direkomendasikan untuk mengatasinya.
Diagnosis
Update tabel metadata dapat berasal dari panggilan API yang mengubah metadata tabel atau dari tugas yang mengubah konten tabel. Jika Anda belum mengidentifikasi sumber tempat sebagian besar operasi update ke metadata tabel berasal, lakukan langkah berikut:
Mengidentifikasi panggilan API
Buka menu Google Cloud navigasi> Logs Explorer:
, lalu pilih LoggingFilter log untuk melihat operasi tabel dengan menjalankan kueri berikut:
resource.type="bigquery_dataset" protoPayload.resourceName="projects/my-project-id/datasets/my_dataset/tables/my_table" (protoPayload.methodName="google.cloud.bigquery.v2.TableService.PatchTable" OR protoPayload.methodName="google.cloud.bigquery.v2.TableService.UpdateTable" OR protoPayload.methodName="google.cloud.bigquery.v2.TableService.InsertTable")
Mengidentifikasi tugas
Kueri berikut menampilkan daftar tugas yang mengubah tabel yang terpengaruh dalam
project tersebut dalam satu hari terakhir. Jika Anda mengharapkan beberapa project dalam suatu organisasi menulis ke tabel, ganti JOBS_BY_PROJECT
dengan JOBS_BY_ORGANIZATION
.
SELECT job_id, user_email, query FROM `region-REGION_NAME`.INFORMATION_SCHEMA.JOBS_BY_PROJECT WHERE creation_time > TIMESTAMP_SUB(CURRENT_TIMESTAMP, INTERVAL 1 DAY) AND destination_table.project_id = "my-project-id" AND destination_table.dataset_id = "my_dataset" AND destination_table.table_id = "my_table"
Untuk informasi selengkapnya, lihat Ringkasan log audit BigQuery.
Resolusi
Kuota ini tidak dapat ditingkatkan. Untuk mengatasi error kuota ini, lakukan tindakan berikut:
- Kurangi kecepatan update untuk metadata tabel.
- Tambahkan penundaan antara tugas atau operasi tabel untuk memastikan bahwa kecepatan update berada dalam batas.
Untuk penyisipan atau modifikasi data, pertimbangkan untuk menggunakan operasi DML. Operasi DML tidak terpengaruh oleh batas kapasitas Kecepatan maksimum operasi update metadata tabel per tabel.
Operasi DML memiliki batas dan kuota lainnya. Untuk mengetahui informasi selengkapnya, lihat Menggunakan bahasa manipulasi data (DML).
-
Jika Anda sering memuat data dari beberapa file kecil yang disimpan di Cloud Storage yang menggunakan tugas per file, gabungkan beberapa tugas pemuatan ke dalam satu tugas. Anda dapat memuat dari beberapa Cloud Storage URI dengan daftar yang dipisahkan koma (misalnya,
gs://my_path/file_1,gs://my_path/file_2
), atau menggunakan karakter pengganti (misalnya,gs://my_path/*
).Untuk mengetahui informasi selengkapnya, lihat Pemuatan batch data.
- Jika Anda menggunakan tugas pemuatan, pemilihan, atau penyalinan untuk menambahkan baris data tunggal ke tabel, misalnya, Anda harus mempertimbangkan untuk mengelompokkan beberapa tugas menjadi satu tugas. BigQuery tidak berperforma baik jika digunakan sebagai database relasional. Sebagai praktik terbaik, hindari menjalankan tindakan penambahan baris tunggal yang sering.
- Untuk menambahkan data dengan kecepatan tinggi, pertimbangkan untuk menggunakan BigQuery Storage Write API. Solusi ini direkomendasikan untuk penyerapan data berperforma tinggi. BigQuery Storage Write API memiliki fitur yang andal, termasuk semantik pengiriman tepat satu kali. Untuk mempelajari batas dan kuota, lihat Storage Write API dan untuk melihat biaya penggunaan API ini, lihat Harga penyerapan data BigQuery.
-
Untuk memantau jumlah partisi yang diubah pada tabel, gunakan
tampilan
INFORMATION_SCHEMA
.
Error kuota penambahan kueri atau impor tabel
BigQuery akan menampilkan pesan error ini saat tabel Anda mencapai batas operasi tabel per hari untuk tabel standar. Operasi tabel mencakup total gabungan dari semua tugas pemuatan, tugas penyalinan, dan tugas kueri yang menambahkan atau menimpa tabel tujuan.
Untuk melihat nilai batas Operasi tabel per hari, lihat Tabel standar.
Pesan error
Your table exceeded quota for imports or query appends per table
Saat Anda mengalami error ini, diagnosis masalahnya, lalu ikuti langkah-langkah yang direkomendasikan untuk mengatasinya.
Diagnosis
Jika Anda belum mengidentifikasi sumber tempat sebagian besar operasi tabel berasal, lakukan hal berikut:
Catat project, set data, dan tabel yang digunakan oleh kueri, pemuatan, atau tugas penyalinan yang gagal.
Gunakan tabel
INFORMATION_SCHEMA.JOBS_BY_*
untuk mempelajari lebih lanjut tugas yang mengubah tabel.Contoh berikut menemukan jumlah tugas per jam yang dikelompokkan berdasarkan jenis tugas untuk periode 24 jam terakhir menggunakan
JOBS_BY_PROJECT
. Jika Anda mengharapkan beberapa project ditulis ke tabel, gantiJOBS_BY_PROJECT
denganJOBS_BY_ORGANIZATION
.SELECT TIMESTAMP_TRUNC(creation_time, HOUR), job_type, count(1) FROM `region-REGION_NAME`.INFORMATION_SCHEMA.JOBS_BY_PROJECT WHERE creation_time > TIMESTAMP_SUB(CURRENT_TIMESTAMP, INTERVAL 1 DAY) AND destination_table.project_id = "my-project-id" AND destination_table.dataset_id = "my_dataset" AND destination_table.table_id = "my_table" GROUP BY 1, 2 ORDER BY 1 DESC
Resolusi
Kuota ini tidak dapat ditingkatkan. Untuk mengatasi error kuota ini, lakukan tindakan berikut:
-
Jika Anda sering memuat data dari beberapa file kecil yang disimpan di Cloud Storage yang menggunakan tugas per file, gabungkan beberapa tugas pemuatan ke dalam satu tugas. Anda dapat memuat dari beberapa Cloud Storage URI dengan daftar yang dipisahkan koma (misalnya,
gs://my_path/file_1,gs://my_path/file_2
), atau menggunakan karakter pengganti (misalnya,gs://my_path/*
).Untuk mengetahui informasi selengkapnya, lihat Pemuatan batch data.
- Jika Anda menggunakan tugas pemuatan, pemilihan, atau penyalinan untuk menambahkan baris data tunggal ke tabel, misalnya, Anda harus mempertimbangkan untuk mengelompokkan beberapa tugas menjadi satu tugas. BigQuery tidak berperforma baik jika digunakan sebagai database relasional. Sebagai praktik terbaik, hindari menjalankan tindakan penambahan baris tunggal yang sering.
- Untuk menambahkan data dengan kecepatan tinggi, pertimbangkan untuk menggunakan BigQuery Storage Write API. Solusi ini direkomendasikan untuk penyerapan data berperforma tinggi. BigQuery Storage Write API memiliki fitur yang andal, termasuk semantik pengiriman tepat satu kali. Untuk mempelajari batas dan kuota, lihat Storage Write API dan untuk melihat biaya penggunaan API ini, lihat Harga penyerapan data BigQuery.
-
Untuk memantau jumlah partisi yang diubah pada tabel, gunakan
tampilan
INFORMATION_SCHEMA
.
Terlalu banyak pernyataan DML yang luar biasa terhadap tabel
Error ini berarti jumlah pernyataan DML yang bermutasi serentak
(UPDATE
, DELETE
, MERGE
) yang berjalan terhadap tabel yang sama telah terlampaui
batas kuota bahasa manipulasi data (DML).
Batas kuota ini berlaku per tabel,
dan hanya berlaku untuk pernyataan DML yang bermutasi, yang tidak termasuk INSERT
.
Resolusi
Kelompokkan tugas DML dengan mengikuti Praktik terbaik untuk pernyataan DML.
Error pemuatan kuota file CSV
Jika memuat file CSV besar menggunakan perintah bq load
dengan
flag --allow_quoted_newlines
,
Anda mungkin mengalami error ini.
Pesan error
Input CSV files are not splittable and at least one of the files is larger than
the maximum allowed size. Size is: ...
Resolusi
Untuk mengatasi error kuota ini, lakukan tindakan berikut:
- Tetapkan flag
--allow_quoted_newlines
kefalse
. - Bagi file CSV menjadi potongan-potongan kecil yang masing-masing berukuran kurang dari 4 GB.
Untuk mengetahui informasi selengkapnya tentang batas yang berlaku saat Anda memuat data ke BigQuery, lihat Memuat tugas.
Pengguna Anda melampaui kuota untuk permintaan project.lists
serentak
Error ini terjadi saat tugas Microsoft Power BI yang berkomunikasi dengan
BigQuery melalui driver Simba ODBC atau DataHub gagal karena melampaui batas API project.list
. Untuk mengatasi masalah ini, gunakan solusi sementara jangka pendek atau jangka panjang yang dijelaskan di bagian ini.
Pesan error
Your user exceeded quota for concurrent project.lists requests
Diagnosis
Error ini terjadi selama fase koneksi dan penemuan untuk Power BI saat laporan Power BI dimuat ulang dan driver Simba membuat koneksi ke proyek BigQuery tertentu.
Resolusi jangka pendek
Untuk mengatasi masalah ini dalam jangka pendek, gunakan solusi berikut, yang diurutkan dari yang paling efektif hingga yang paling tidak efektif. Terapkan perbaikan tiga atau empat, bergantung pada apakah Anda terhubung ke BigQuery menggunakan driver Simba atau menggunakan DataHub.
Untuk perbaikan jangka panjang, lihat Resolusi jangka panjang.
Menunda pembaruan laporan. Jika Anda tidak dapat mengubah DSN, atasi masalah kuota dengan mengurangi jumlah permintaan serentak. Daripada memuat ulang semua laporan secara bersamaan (misalnya, pada pukul 09.00), atur jadwalnya dengan selisih beberapa menit (misalnya, pada pukul 09.01, 09.03, dan 09.05). Praktik ini menyebarkan panggilan API dari waktu ke waktu, sehingga Anda cenderung tidak mencapai batas serentak.
Menerapkan percobaan ulang di Power BI. Strategi reaktif ini membantu laporan pulih dari kegagalan sementara. Power BI memiliki logika coba lagi bawaan untuk kegagalan refresh data. Meskipun praktik ini tidak mencegah error kuota, praktik ini membuat pipeline Anda lebih tangguh dengan memungkinkan laporan berhasil pada upaya berikutnya setelah lonjakan awal panggilan API mereda. Untuk menerapkan perbaikan ini, lakukan hal berikut:
- Di layanan Power BI, buka Setelan untuk set data Anda.
- Luaskan bagian Muat ulang terjadwal. Di bagian Coba lagi, konfigurasi Power BI untuk menjalankan ulang pemuatan ulang yang gagal secara otomatis.
Untuk driver Simba versi sebelumnya, tentukan project ID di koneksi ODBC. Tindakan ini mencegah pengemudi melakukan panggilan penemuan
projects.list
. Sebagai gantinya, pengemudi terhubung langsung ke project yang ditentukan, sehingga mencegah panggilan API yang tidak perlu dan menyelesaikan masalah kuota.Driver yang lebih baru akan langsung gagal jika project tidak ditentukan dengan pesan yang mirip dengan
Unable to establish connection with data source. Missing settings: {[Catalog]}
.Untuk melakukan perbaikan ini, lakukan hal berikut:
- Di komputer yang menjalankan Power BI Gateway atau Power BI Desktop, buka aplikasi ODBC Data Sources (64-bit).
- Di layar penyiapan utama untuk driver ODBC Simba untuk
BigQuery, isi kolom Catalog (Project) dengan
ID project Google Cloud tertentu Anda—misalnya,
my-gcp-project-id
.
Untuk DataHub versi sebelumnya, tentukan project ID dalam konfigurasi penyerapan DataHub. Lakukan perbaikan ini jika Anda menggunakan DataHub, bukan driver Simba. Mirip dengan Simba, DataHub versi yang lebih baru mengharuskan Anda menentukan project ID atau tidak akan terhubung ke BigQuery.
Untuk menghindari melampaui batas DataHub, ubah konfigurasi penyerapan DataHub Anda untuk memberikan daftar eksplisit project ID yang akan dipindai. Hal ini mencegah konfigurasi DataHub menemukan semua project yang dapat dilihat oleh akun layanan.
Dalam file resep sumber BigQuery (biasanya file YAML), gunakan konfigurasi
project_ids
untuk mencantumkan project yang ingin Anda masukkan. Kemudian, deploy ulang resep penyerapan DataHub dengan konfigurasi baru. Lihat contoh berikut dan contoh yang lebih panjang ini yang disediakan oleh DataHub.Berikut adalah contoh cuplikan konfigurasi DataHub:
source: type: "bigquery" config: # Instead of relying on discovery, explicitly list the projects. # This avoids the problematic projects.list() API call. project_ids: - "YOUR_PRODUCTION_PROJECT_ID" - "YOUR_ANALYTICS_PROJECT_ID" - "ANOTHER_BQ_PROJECT"
Resolusi jangka panjang
Perbaikan jangka panjang terbaik untuk pesan error ini adalah membuat Google Cloud akun layanan terpisah dan khusus untuk setiap fungsi. Misalnya, buat akun layanan untuk semua laporan Power BI dan akun layanan untuk penyerapan DataHub.
Praktik terbaik ini mengisolasi penggunaan API ke dalam bucket kuota terpisah dan mencegah tugas beban tinggi di DataHub menyebabkan kegagalan laporan bisnis penting di Power BI.
Gunakan rencana tindakan di bagian berikut untuk mengatasi error kuota jangka panjang di Power BI dan DataHub.
Fase 1: Persiapan
- Memberi tahu pemilik gateway Power BI dan konfigurasi DataHub bahwa Anda akan melakukan perubahan terkoordinasi untuk mengatasi kegagalan tugas yang sedang berlangsung.
- Di konsol Google Cloud , buat
dua akun layanan baru—misalnya,
sa-powerbi-gateway@...
dansa-datahub-ingestion@...
. - Buat kunci akun layanan untuk akun layanan Power BI dan DataHub.
- Berikan izin hak istimewa paling rendah ke setiap akun layanan baru dengan menetapkan peran Identity and Access Management berikut yang memungkinkannya melakukan tugas di Identity and Access Management (IAM) yang relevan. Hindari penetapan peran yang terlalu luas—misalnya, ProjectEditor.
Peran yang diperlukan
Akun layanan untuk Power BI menjalankan kueri dan membaca data dari tabel. Berikan peran berikut ke akun layanan di setiap project Google Cloud yang berisi data yang harus diakses Power BI. Untuk mempelajari peran ini lebih lanjut, lihat Peran BigQuery.
- BigQuery Data Viewer: memberikan akses hanya baca ke set data, tabel, dan tampilan.
- Pengguna Tugas BigQuery: memberikan izin untuk menjalankan tugas, termasuk kueri, yang penting agar Power BI dapat menjalankan permintaannya.
Akun layanan untuk penyerapan DataHub hanya perlu membaca metadata, seperti nama tabel, skema, dan deskripsi, bukan data dalam tabel. Berikan peran berikut di tingkat project untuk setiap project yang dipindai DataHub. Untuk mempelajari peran ini lebih lanjut, lihat Peran IAM untuk BigQuery.
BigQuery Metadata Viewer: peran ini dirancang khusus untuk membaca metadata. Peran ini memberikan izin untuk mencantumkan set data dan tabel serta melihat metadatanya tanpa memberikan akses ke data pokok.
Fase 2: Peluncuran terkoordinasi
Selama periode penggunaan rendah, administrator Power BI memperbarui konfigurasi DSN ODBC di mesin gateway dengan melakukan langkah-langkah berikut:
- Mengubah metode autentikasi untuk menggunakan kunci akun layanan
sa-powerbi-gateway@...
baru yang dibuat pada langkah sebelumnya. - Jika belum dilakukan sebagai perbaikan jangka pendek, masukkan Google Cloud project ID di kolom Catalog (Project) driver ODBC.
- Pemilik DataHub telah memperbarui file YAML konfigurasi sumber BigQuery.
- Menunjuk ke kunci akun layanan
sa-datahub-ingestion@...
baru yang dibuat pada langkah sebelumnya. - Jika belum dilakukan sebagai perbaikan jangka pendek, gunakan parameter
project_ids
untuk mencantumkan project yang akan dipindai secara eksplisit. - Men-deploy ulang resep penyerapan DataHub dengan konfigurasi baru.
Fase 3: Verifikasi dan pemantauan
Untuk memverifikasi dan memantau efek perbaikan, administrator Power BI dan DataHub melakukan langkah-langkah berikut:
- Memicu pembaruan secara manual untuk beberapa laporan Power BI utama dan menjalankan penyerapan baru di DataHub. Pastikan tugas ini berhasil diselesaikan tanpa menimbulkan error kuota.
- Di konsol Google Cloud , buka halaman IAM & Admin > Kuota.
- Filter untuk layanan BigQuery API.
- Temukan kuota bernama Permintaan
project.lists
serentak, lalu klik ikon grafik untuk melihat penggunaan dari waktu ke waktu.
Administrator akan melihat penurunan penggunaan panggilan API spesifik ini secara drastis dan permanen, yang mengonfirmasi bahwa perbaikan berhasil.