Komponen Iceberg opsional Managed Service untuk Apache Spark

Anda dapat menginstal komponen tambahan seperti Iceberg saat membuat cluster Managed Service for Apache Spark menggunakan fitur Komponen opsional. Halaman ini menjelaskan cara menginstal komponen Iceberg secara opsional di cluster Managed Service for Apache Spark.

Ringkasan

Apache Iceberg adalah format tabel terbuka untuk set data analitik besar. Iceberg menghadirkan keandalan dan kesederhanaan tabel SQL ke Big Data, sekaligus memungkinkan mesin seperti Spark, Trino, PrestoDB, Flink, dan Hive bekerja dengan aman pada tabel yang sama secara bersamaan.

Saat diinstal pada cluster Managed Service for Apache Spark, komponen Apache Iceberg akan menginstal library Iceberg dan mengonfigurasi Spark dan Hive agar berfungsi dengan Iceberg di cluster.

Fitur utama Iceberg

Fitur Iceberg meliputi:

  • Evolusi skema: Tambahkan, hapus, atau ganti nama kolom tanpa menulis ulang seluruh tabel.
  • Perjalanan waktu: Buat kueri snapshot tabel historis untuk tujuan audit atau rollback.
  • Partisi tersembunyi: Mengoptimalkan tata letak data untuk kueri yang lebih cepat tanpa mengekspos detail partisi kepada pengguna.
  • Transaksi ACID: Memastikan konsistensi data dan mencegah konflik.

Versi image Managed Service for Apache Spark yang kompatibel

Anda dapat menginstal komponen Iceberg di cluster Managed Service for Apache Spark yang dibuat dengan versi image 2.2.47 dan yang lebih baru. Versi Iceberg yang diinstal di cluster tercantum di halaman versi rilis 2.2.

Saat Anda membuat cluster Managed Service for Apache Spark dengan Iceberg, properti Spark dan Hive berikut dikonfigurasi untuk bekerja dengan Iceberg.

File konfigurasi Properti Nilai default
/etc/spark/conf/spark-defaults.conf spark.sql.extensions org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions
spark.driver.extraClassPath /usr/lib/iceberg/lib/iceberg-spark-runtime-spark-version_scala-version.jar
spark.executor.extraClassPath /usr/lib/iceberg/lib/iceberg-spark-runtime-spark-version_scala-version.jar
/etc/hive/conf/hive-site.xml hive.aux.jars.path file:///usr/lib/iceberg/lib/iceberg-hive-runtime.jar
iceberg.engine.hive.enabled true

Menginstal komponen opsional Iceberg

Instal komponen Iceberg saat Anda membuat cluster Managed Service for Apache Spark. Halaman daftar versi image cluster Managed Service for Apache Spark menampilkan versi komponen Iceberg yang disertakan dalam versi image cluster Managed Service for Apache Spark terbaru.

KonsolGoogle Cloud

Untuk membuat cluster Managed Service for Apache Spark yang menginstal komponen Iceberg, selesaikan langkah-langkah berikut di konsol Google Cloud :

  1. Buka halaman Managed Service for Apache Spark Create a cluster. Panel Set up cluster dipilih.
  2. Di bagian Components, di bagian Optional components, pilih komponen Iceberg.
  3. Konfirmasi atau tentukan setelan cluster lainnya, lalu klik Create.

Google Cloud CLI

Untuk membuat cluster Managed Service for Apache Spark yang menginstal komponen Iceberg, gunakan perintah gcloud dataproc clusters create dengan tanda --optional-components.

gcloud dataproc clusters create CLUSTER_NAME \
    --region=REGION \
    --optional-components=ICEBERG \
     other flags ...

Ganti kode berikut:

REST API

Untuk membuat cluster Managed Service for Apache Spark yang menginstal komponen opsional Iceberg, tentukan Iceberg SoftwareConfig.Component sebagai bagian dari permintaan clusters.create.

Menggunakan tabel Iceberg dengan Spark dan Hive

Setelah membuat cluster Managed Service for Apache Spark yang telah menginstal komponen opsional Iceberg di cluster, Anda dapat menggunakan Spark dan Hive untuk membaca dan menulis data tabel Iceberg.

Spark

Mengonfigurasi sesi Spark untuk Iceberg

Anda dapat menggunakan perintah gcloud CLI secara lokal, atau REPL (Read-Eval-Print Loops) spark-shell atau pyspark yang berjalan di node master cluster Dataproc untuk mengaktifkan ekstensi Spark Iceberg dan menyiapkan katalog Spark untuk menggunakan tabel Iceberg.

gcloud

Jalankan contoh gcloud CLI berikut di jendela terminal lokal atau di Cloud Shell untuk mengirimkan tugas Spark dan menetapkan properti Spark guna mengonfigurasi sesi Spark untuk Iceberg.

gcloud dataproc jobs submit spark  \
    --cluster=CLUSTER_NAME \
    --region=REGION \
    --properties="spark.sql.extensions=org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions" \
    --properties="spark.sql.catalog.CATALOG_NAME=org.apache.iceberg.spark.SparkCatalog" \
    --properties="spark.sql.catalog.CATALOG_NAME.type=hadoop" \
    --properties="spark.sql.catalog.CATALOG_NAME.warehouse=gs://BUCKET/FOLDER" \
     other flags ...

Ganti kode berikut:

  • CLUSTER_NAME: Nama cluster.
  • REGION: Region Compute Engine.
  • CATALOG_NAME: Nama katalog Iceberg.
  • BUCKET dan FOLDER: Lokasi katalog Iceberg di Cloud Storage.

spark-shell

Untuk mengonfigurasi sesi Spark untuk Iceberg menggunakan REPL spark-shell di cluster Managed Service for Apache Spark, selesaikan langkah-langkah berikut:

  1. Gunakan SSH untuk terhubung ke node master cluster Managed Service for Apache Spark.

  2. Jalankan perintah berikut di terminal sesi SSH untuk mengonfigurasi sesi Spark untuk Iceberg.

spark-shell \
    --conf "spark.sql.extensions=org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions" \
    --conf "spark.sql.catalog.CATALOG_NAME=org.apache.iceberg.spark.SparkCatalog" \
    --conf "spark.sql.catalog.CATALOG_NAME.type=hadoop" \
    --conf "spark.sql.catalog.CATALOG_NAME.warehouse=gs://BUCKET/FOLDER"

Ganti kode berikut:

  • CLUSTER_NAME: Nama cluster.
  • REGION: Region Compute Engine.
  • CATALOG_NAME: Nama katalog Iceberg.
  • BUCKET dan FOLDER: Lokasi katalog Iceberg di Cloud Storage.

shell pyspark

Untuk mengonfigurasi sesi Spark untuk Iceberg menggunakan REPL pyspark di cluster Managed Service for Apache Spark, selesaikan langkah-langkah berikut:

  1. Gunakan SSH untuk terhubung ke node master cluster Managed Service for Apache Spark.

  2. Jalankan perintah berikut di terminal sesi SSH untuk mengonfigurasi sesi Spark untuk Iceberg:

pyspark \
    --conf "spark.sql.extensions=org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions" \
    --conf "spark.sql.catalog.CATALOG_NAME=org.apache.iceberg.spark.SparkCatalog" \
    --conf "spark.sql.catalog.CATALOG_NAME.type=hadoop" \
    --conf "spark.sql.catalog.CATALOG_NAME.warehouse=gs://BUCKET/FOLDER"

Ganti kode berikut:

  • CLUSTER_NAME: Nama cluster.
  • REGION: Region Compute Engine.
  • CATALOG_NAME: Nama katalog Iceberg.
  • BUCKET dan FOLDER: Lokasi katalog Iceberg di Cloud Storage.

Menulis data ke Tabel Iceberg

Anda dapat menulis data ke tabel Iceberg menggunakan Spark. Cuplikan kode berikut membuat DataFrame dengan data sampel, membuat tabel Iceberg di Cloud Storage, lalu menulis data ke tabel Iceberg.

PySpark

# Create a DataFrame with sample data.
data = spark.createDataFrame([(1, "Alice"), (2, "Bob")], ["id", "name"])

# Create an Iceberg table in Cloud Storage.
spark.sql("""CREATE TABLE IF NOT EXISTS CATALOG_NAME.NAMESPACE.TABLE_NAME (
    id integer,
    name string)
USING iceberg
LOCATION 'gs://BUCKET/FOLDER/NAMESPACE/TABLE_NAME'""")

# Write the DataFrame to the Iceberg table in Cloud Storage.
data.writeTo("CATALOG_NAME.NAMESPACE.TABLE_NAME").append()

Scala

// Create a DataFrame with sample data.
val data = Seq((1, "Alice"), (2, "Bob")).toDF("id", "name")

// Create an Iceberg table in Cloud Storage.
spark.sql("""CREATE TABLE IF NOT EXISTS CATALOG_NAME.NAMESPACE.TABLE_NAME (
    id integer,
    name string)
USING iceberg
LOCATION 'gs://BUCKET/FOLDER/NAMESPACE/TABLE_NAME'""")

// Write the DataFrame to the Iceberg table in Cloud Storage.
data.writeTo("CATALOG_NAME.NAMESPACE.TABLE_NAME").append()

Membaca data dari Tabel Iceberg

Anda dapat membaca data dari tabel Iceberg menggunakan Spark. Cuplikan kode berikut membaca tabel, lalu menampilkan isinya.

PySpark

# Read Iceberg table data into a DataFrame.
df = spark.read.format("iceberg").load("CATALOG_NAME.NAMESPACE.TABLE_NAME")
# Display the data.
df.show()

Scala

// Read Iceberg table data into a DataFrame.
val df = spark.read.format("iceberg").load("CATALOG_NAME.NAMESPACE.TABLE_NAME")

// Display the data.
df.show()

Spark SQL

SELECT * FROM CATALOG_NAME.NAMESPACE.TABLE_NAME

Hive

Membuat Tabel Iceberg di Hive

Cluster Managed Service for Apache Spark telah mengonfigurasi Hive sebelumnya agar dapat berfungsi dengan Iceberg.

Untuk menjalankan cuplikan kode di bagian ini, selesaikan langkah-langkah berikut;

  1. Gunakan SSH untuk terhubung ke node master cluster Managed Service for Apache Spark Anda.

  2. Buka beeline di jendela terminal SSH.

    beeline -u jdbc:hive2://
    

Anda dapat membuat tabel Iceberg yang tidak dipartisi atau dipartisi di Hive.

Tabel yang tidak dipartisi

Buat tabel Iceberg yang tidak dipartisi di Hive.

CREATE TABLE my_table (
  id INT,
  name STRING,
  created_at TIMESTAMP
) STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler';

Tabel berpartisi

Buat tabel Iceberg berpartisi di Hive dengan menentukan kolom partisi dalam klausa PARTITIONED BY.

CREATE TABLE my_partitioned_table (
  id INT,
  name STRING
) PARTITIONED BY (date_sk INT)
STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler';

Menyisipkan data ke dalam Tabel Iceberg di Hive

Anda dapat menyisipkan data ke tabel Iceberg menggunakan pernyataan INSERT Hive standar.

SET hive.execution.engine=mr;

INSERT INTO my_table
SELECT 1, 'Alice', current_timestamp();

Batasan

  • Mesin eksekusi MR (MapReduce) saja yang didukung untuk operasi DML (bahasa manipulasi data).
  • Eksekusi MR tidak digunakan lagi di Hive 3.1.3.

Membaca data dari Tabel Iceberg di Hive

Untuk membaca data dari tabel Iceberg, gunakan pernyataan SELECT.

SELECT * FROM my_table;

Menghapus tabel Iceberg di Hive.

Untuk menghapus tabel Iceberg di Hive, gunakan pernyataan DROP TABLE.

DROP TABLE my_table;

Langkah berikutnya