Untuk menulis dari Dataflow ke Apache Iceberg menggunakan Katalog REST BigLake, gunakan konektor I/O terkelola.
I/O Terkelola mendukung kemampuan berikut untuk Apache Iceberg:
| Katalog |
|
|---|---|
| Kemampuan membaca | Membaca batch |
| Kemampuan menulis |
|
Untuk tabel BigQuery untuk Apache Iceberg, gunakan konektor BigQueryIO dengan BigQuery Storage API. Tabel harus sudah ada; pembuatan tabel dinamis tidak didukung.
Prasyarat
Siapkan BigLake. Konfigurasi project Google Cloud Platform Anda dengan izin yang diperlukan dengan mengikuti artikel Menggunakan Metastore BigLake dengan katalog REST Iceberg. Pastikan Anda memahami batasan Katalog REST Iceberg BigLake yang dijelaskan di halaman tersebut.
Dependensi
Tambahkan dependensi berikut ke project Anda:
Java
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-managed</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-io-iceberg</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.iceberg</groupId>
<artifactId>iceberg-gcp</artifactId>
<version>${iceberg.version}</version>
</dependency>
Contoh
Contoh berikut menunjukkan pipeline streaming yang menulis data ke tabel Apache Iceberg menggunakan katalog REST, yang didukung oleh Metastore BigLake.
Java
Untuk melakukan autentikasi ke Dataflow, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.
Langkah berikutnya
- Pembacaan CDC dari Apache Iceberg dengan Katalog REST BigLake.
- Pelajari lebih lanjut I/O Terkelola.
- Pelajari lebih lanjut Katalog REST BigLake.