Ringkasan Bigtable Data Boost

Data Boost adalah layanan komputasi serverless yang dirancang untuk menjalankan tugas baca dengan throughput tinggi pada data Bigtable Anda tanpa memengaruhi performa cluster yang menangani traffic aplikasi Anda. Anda dapat mengirim tugas dan kueri baca berukuran besar menggunakan komputasi serverless, sementara aplikasi inti Anda terus menggunakan node cluster untuk komputasi. SKU komputasi serverless dan tarif penagihan terpisah dari SKU dan tarif untuk node yang disediakan. Anda tidak dapat mengirim permintaan tulis atau hapus dengan Data Boost.

Dokumen ini menjelaskan Data Boost serta kapan dan cara menggunakannya. Sebelum membaca halaman ini, Anda harus memahami Instance, cluster, dan node.

Persyaratan Edisi

Peningkatan Data tersedia jika Anda menggunakan edisi Enterprise atau Enterprise Plus. Edisi Enterprise Plus menyediakan kemampuan tambahan berikut:

  • Dukungan kueri SQL: membuat kueri data yang diakses dengan Data Boost
  • Akses HDD dan penyimpanan bertingkat: untuk analisis yang lebih komprehensif, perluas akses Data Boost ke cakupan data lengkap di cluster Bigtable Anda, tidak hanya data SSD

Untuk mengetahui informasi selengkapnya, lihat Ringkasan edisi.

Efektif untuk

Data Boost ideal untuk workload analisis data dan pemrosesan data. Mengisolasi traffic analisis dan pemrosesan dengan Peningkatan Data memastikan bahwa Anda tidak perlu menyesuaikan kapasitas cluster atau jumlah node untuk mengakomodasi workload analisis. Anda dapat menjalankan tugas analisis throughput tinggi di satu cluster dengan Data Boost, sementara traffic aplikasi yang sedang berjalan dirutekan melalui node cluster.

Berikut adalah kasus penggunaan ideal untuk Data Boost:

  • Tugas pipeline ETL atau ekspor terjadwal atau yang dipicu dari Bigtable ke Cloud Storage untuk pengayaan data, analisis, pengarsipan, pelatihan model ML offline, atau penyerapan oleh partner pihak ketiga pelanggan Anda
  • ETL menggunakan alat seperti Dataflow untuk proses pemindaian singkat atau pembacaan batch yang mendukung agregasi di tempat, transformasi berbasis aturan untuk MDM, atau tugas ML
  • Aplikasi Spark yang menggunakan konektor Bigtable Spark untuk membaca data Bigtable
  • Kueri ad-hoc dan tugas analisis terjadwal yang menggunakan tabel eksternal BigQuery untuk membaca data Bigtable.
  • Analisis yang berjalan lama pada data historis yang jarang diakses dan disimpan di HDD atau dalam penyimpanan bertingkat (khusus edisi Enterprise Plus).

Yang tidak efektif

Pembacaan titik - Data Boost bukan opsi terbaik untuk operasi pembacaan titik, yang merupakan permintaan baca yang dikirim untuk satu baris. Hal ini mencakup pembacaan titik yang di-batch. Karena struktur penagihan, banyak pembacaan titik baris tunggal jauh lebih mahal daripada satu pemindaian panjang.

Membaca data segera setelah ditulis - Saat membaca data dengan Data Boost, Anda mungkin tidak membaca semua data yang ditulis dalam 35 menit terakhir. Hal ini terutama berlaku jika instance Anda menggunakan replikasi dan Anda membaca data yang ditulis ke cluster di region yang berbeda dengan region tempat Anda membaca data. Untuk mengetahui informasi selengkapnya, lihat Token konsistensi.

Workload yang sensitif terhadap latensi - Data Boost dioptimalkan untuk throughput, sehingga latensi baca lebih lambat saat Anda menggunakan Data Boost daripada saat Anda membaca menggunakan cluster dan node. Oleh karena itu, Data Boost tidak cocok untuk workload penayangan aplikasi.

Untuk mengetahui informasi selengkapnya tentang workload, konfigurasi, dan fitur yang tidak kompatibel dengan Data Boost, lihat Batasan.

Profil aplikasi Data Boost

Untuk menggunakan Data Boost, Anda mengirim permintaan baca menggunakan profil aplikasi Data Boost, bukan profil aplikasi standar.

Profil aplikasi standar memungkinkan Anda menentukan kebijakan perutean dan tingkat prioritas untuk permintaan yang menggunakan profil aplikasi, serta apakah transaksi satu baris diizinkan. Traffic yang dikirim menggunakan profil aplikasi standar dirutekan ke cluster, dan node cluster tersebut merutekan traffic ke disk. Untuk mengetahui informasi selengkapnya, lihat Ringkasan profil aplikasi standar.

Di sisi lain, dengan profil aplikasi Peningkatan Data, Anda mengonfigurasi kebijakan perutean satu cluster ke salah satu cluster instance Anda, dan traffic menggunakan profil aplikasi tersebut menggunakan komputasi serverless, bukan node cluster.

Anda dapat membuat profil aplikasi Pengoptimalan Data baru, atau mengonversi profil aplikasi standar untuk menggunakan Pengoptimalan Data. Sebaiknya gunakan profil aplikasi terpisah untuk setiap workload atau aplikasi.

Token konsistensi

Data yang ditulis atau direplikasi ke cluster target Anda lebih dari 35 menit sebelum permintaan baca Anda dapat dibaca oleh Peningkatan Data.

Anda dapat memastikan bahwa data dari tugas penulisan atau jangka waktu tertentu dapat dibaca oleh Peningkatan Data, sebelum memulai beban kerja Peningkatan Data, dengan membuat dan menggunakan token konsistensi. Contoh alur kerjanya adalah sebagai berikut:

  1. Tulis beberapa data ke tabel.
  2. Buat token konsistensi.
  3. Kirim token dalam mode DataBoostReadLocalWrites untuk menentukan kapan penulisan dapat dibaca oleh Data Boost di cluster target Anda.

Secara opsional, Anda dapat memeriksa konsistensi replikasi sebelum memeriksa konsistensi Data Boost dengan terlebih dahulu mengirim token konsistensi dalam mode StandardReadRemoteWrites.

Untuk mengetahui informasi selengkapnya, lihat referensi API untuk CheckConsistencyRequest.

Kuota dan penagihan

Penggunaan Data Boost diukur dalam unit pemrosesan serverless (SPU). 1.000 SPU setara dengan satu node dalam performa. Saat berjalan di penyimpanan HDD atau bertingkat, SPU memperhitungkan resource komputasi serverless dan operasi disk yang mendasarinya. Tidak seperti node yang disediakan, Anda hanya ditagih untuk SPU saat menggunakan Peningkatan Data. Setiap permintaan ditagih minimal 60 detik SPU, dan Anda ditagih minimal 10 SPU per detik.

Untuk mengetahui informasi selengkapnya tentang harga Data Boost, lihat Harga Bigtable.

Anda dialokasikan kuota dan ditagih untuk SPU secara terpisah dari kuota dan biaya untuk node.

Metrik kelayakan

Data Boost dirancang untuk pemindaian throughput tinggi, dan beban kerja harus kompatibel agar dapat menggunakan Data Boost. Sebelum mengonversi profil aplikasi standar agar menggunakan Peningkatan Data atau membuat profil aplikasi Peningkatan Data untuk beban kerja yang ada, lihat metrik kelayakan Peningkatan Data untuk memastikan konfigurasi dan penggunaan Anda memenuhi kriteria yang diperlukan. Anda juga harus meninjau batasan.

Pemantauan

Untuk memantau traffic Peningkatan Data, Anda dapat memeriksa metrik untuk profil aplikasi Peningkatan Data di halaman insight sistem Bigtable di konsolGoogle Cloud . Untuk daftar metrik yang tersedia menurut profil aplikasi, lihat Diagram insight sistem untuk resource Bigtable.

Anda dapat memantau penggunaan unit pemrosesan serverless (SPU) dengan memeriksa metrik jumlah penggunaan SPU (data_boost/spu_usage_count) di tab Profil aplikasi di halaman insight sistem Bigtable.

Anda juga dapat terus memantau metrik kelayakan untuk profil aplikasi setelah mulai menggunakan Peningkatan Data.

Batasan

Konfigurasi resource dan properti workload berikut tidak didukung untuk Data Boost.

  • Menulis dan menghapus
  • Traffic yang sebagian besar merupakan pembacaan titik (pembacaan baris tunggal)
  • Lebih dari 1.000 pembacaan per detik per cluster
  • Membalikkan pemindaian
  • Aliran data perubahan
  • Prioritas permintaan
  • Pemilihan rute multi-cluster
  • Transaksi baris tunggal
  • Endpoint regional
  • Kueri pembuat kueri Bigtable Studio
  • Instance yang menggunakan enkripsi CMEK
  • Library klien yang tidak kompatibel. Anda harus menggunakan klien Bigtable untuk Java versi 2.31.0 atau yang lebih baru.
    • Untuk tugas Dataflow yang menggunakan BigtableIO untuk membaca data Bigtable, Anda harus menggunakan Apache Beam versi 2.54.0 atau yang lebih baru.
    • Untuk tugas Dataflow yang menggunakan CloudBigtableIO untuk membaca data Bigtable, Anda harus menggunakan bigtable-hbase-beam versi 2.14.1 atau yang lebih baru.

Langkah berikutnya