Lakehouse-Laufzeitkatalog für Managed Service for Apache Spark mit Iceberg 1.10 konfigurieren

In diesem Dokument wird beschrieben, wie Sie den benutzerdefinierten Apache Iceberg-Katalog für BigQuery im Lakehouse-Laufzeitkatalog konfigurieren.

Sie können dies entweder mit einem Managed Service for Apache Spark-Cluster oder mit Managed Service for Apache Spark einrichten. Dadurch wird ein einzelner, gemeinsamer Katalog für das Google Cloud Lakehouse erstellt, der nahtlos mit Open-Source-Engines wie Apache Spark und Apache Flink funktioniert.

Hinweis

  1. Aktivieren Sie die Abrechnung für Ihr Google Cloud Projekt. So prüfen Sie, ob die Abrechnung für ein Projekt aktiviert ist.
  2. Aktivieren Sie die BigQuery API und die Managed Service for Apache Spark API.

    APIs aktivieren

  3. Lakehouse-Laufzeitkatalog

Erforderliche Rollen

Bitten Sie Ihren Administrator, Ihnen die folgenden IAM-Rollen zuzuweisen, um die Berechtigungen zu erhalten, die Sie zum Konfigurieren des Lakehouse-Laufzeitkatalogs benötigen:

  • Erstellen Sie einen Managed Service for Apache Spark-Cluster: Dataproc-Worker (roles/dataproc.worker) für das Compute Engine-Standarddienstkonto im Projekt
  • Erstellen Sie Lakehouse-Laufzeitkatalogtabellen:
    • Dataproc-Worker (roles/dataproc.worker) für das VM-Dienstkonto des Managed Service for Apache Spark im Projekt
    • BigQuery-Datenbearbeiter (roles/bigquery.dataEditor) für das Dienstkonto der VM für den verwalteten Dienst für Apache Spark im Projekt
    • Storage-Objekt-Nutzer (roles/storage.objectUser) für das Dienstkonto der Managed Service for Apache Spark-VM im Projekt
  • Lakehouse-Laufzeitkatalogtabellen abfragen:

Weitere Informationen zum Zuweisen von Rollen finden Sie unter Zugriff auf Projekte, Ordner und Organisationen verwalten.

Sie können die erforderlichen Berechtigungen auch über benutzerdefinierte Rollen oder andere vordefinierte Rollen erhalten.

Metastore mit Managed Service for Apache Spark konfigurieren

Sie können den Lakehouse-Laufzeitkatalog mit Managed Service for Apache Spark konfigurieren. Verwenden Sie dazu entweder Spark oder Flink:

Spark

  1. Konfigurieren Sie einen neuen Cluster. Führen Sie den folgenden gcloud dataproc clusters create-Befehl aus, um einen neuen Managed Service for Apache Spark-Cluster zu erstellen, der die Einstellungen enthält, die Sie zum Verwenden des Lakehouse-Laufzeitkatalogs benötigen:

    gcloud dataproc clusters create CLUSTER_NAME \
        --project=PROJECT_ID \
        --region=LOCATION \
        --single-node

    Ersetzen Sie Folgendes:

    • CLUSTER_NAME: Ein Name für Ihren Managed Service for Apache Spark-Cluster.
    • PROJECT_ID: die ID des Google Cloud Projekts, in dem Sie den Cluster erstellen.
    • LOCATION: die Compute Engine-Region, in der Sie den Cluster erstellen.
  2. Senden Sie einen Spark-Job mit einer der folgenden Methoden:

    Google Cloud CLI

    gcloud dataproc jobs submit spark-sql \
        --project=PROJECT_ID \
        --cluster=CLUSTER_NAME \
        --region=REGION \
        --jars=https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-spark-runtime-3.5_2.12/1.10.0/iceberg-spark-runtime-3.5_2.12-1.10.0.jar,https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-bigquery/1.10.0/iceberg-bigquery-1.10.0.jar,https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-gcp-bundle/1.10.0/iceberg-gcp-bundle-1.10.0.jar,https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-gcp/1.10.0/iceberg-gcp-1.10.0.jar \
        --properties=spark.sql.catalog.CATALOG_NAME=org.apache.iceberg.spark.SparkCatalog,\
        spark.sql.catalog.CATALOG_NAME.type=bigquery,\
        spark.sql.catalog.CATALOG_NAME.gcp.bigquery.project-id=PROJECT_ID,\
        spark.sql.catalog.CATALOG_NAME.gcp.bigquery.location=LOCATION,\
        spark.sql.catalog.CATALOG_NAME.warehouse=WAREHOUSE_DIRECTORY \
        --execute="SPARK_SQL_COMMAND"

    Ersetzen Sie Folgendes:

    • PROJECT_ID: die ID des Google Cloud Projekts, das den Managed Service for Apache Spark-Cluster enthält.
    • CLUSTER_NAME: Der Name des Managed Service for Apache Spark-Clusters, den Sie zum Ausführen des Spark SQL-Jobs verwenden.
    • REGION: die Compute Engine-Region, in der sich Ihr Cluster befindet.
    • LOCATION: der Standort der BigQuery-Ressourcen.
    • CATALOG_NAME: Der Name des Spark-Katalogs, der für Ihren SQL-Job verwendet werden soll.
    • WAREHOUSE_DIRECTORY: Der Cloud Storage-Ordner, der Ihr Data Warehouse enthält. Dieser Wert beginnt mit gs://.
    • SPARK_SQL_COMMAND: Die Spark SQL-Abfrage, die Sie ausführen möchten. Diese Abfrage enthält die Befehle zum Erstellen Ihrer Ressourcen. So erstellen Sie beispielsweise einen Namespace und eine Tabelle.

    spark-sql-Befehlszeile

    1. Rufen Sie in der Google Cloud Console die Seite VM-Instanzen auf.

      Zu Seite „VM-Instanzen“

    2. Wenn Sie eine Verbindung zu einer VM-Instanz von Managed Service for Apache Spark herstellen möchten, klicken Sie in der Zeile mit dem Namen der Haupt-VM-Instanz des Managed Service for Apache Spark-Clusters auf SSH. Der Name der Haupt-VM-Instanz ist der Clustername gefolgt vom Suffix -m. Die Ausgabe sieht etwa so aus:

      Connected, host fingerprint: ssh-rsa ...
      Linux cluster-1-m 3.16.0-0.bpo.4-amd64 ...
      ...
      example-cluster@cluster-1-m:~$
      
    3. Führen Sie im Terminal den folgenden Befehl zur Initialisierung des Lakehouse-Laufzeitkatalogs aus:

      spark-sql \
          --jars https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-spark-runtime-3.5_2.12/1.10.0/iceberg-spark-runtime-3.5_2.12-1.10.0.jar,https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-bigquery/1.10.0/iceberg-bigquery-1.10.0.jar,https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-gcp-bundle/1.10.0/iceberg-gcp-bundle-1.10.0.jar,https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-gcp/1.10.0/iceberg-gcp-1.10.0.jar \
          --conf spark.sql.catalog.CATALOG_NAME=org.apache.iceberg.spark.SparkCatalog \
          --conf spark.sql.catalog.CATALOG_NAME.type=bigquery \
          --conf spark.sql.catalog.CATALOG_NAME.gcp.bigquery.project-id=PROJECT_ID \
          --conf spark.sql.catalog.CATALOG_NAME.gcp.bigquery.location=LOCATION \
          --conf spark.sql.catalog.CATALOG_NAME.warehouse=WAREHOUSE_DIRECTORY

      Ersetzen Sie Folgendes:

      • CATALOG_NAME: der Name des Spark-Katalogs, den Sie mit Ihrem SQL-Job verwenden.
      • PROJECT_ID: Die Google Cloud Projekt-ID des Lakehouse-Laufzeitkatalogs, mit dem Ihr Spark-Katalog verknüpft ist.
      • LOCATION: der Google Cloud Standort des Lakehouse-Laufzeitkatalogs.
      • WAREHOUSE_DIRECTORY: Der Cloud Storage-Ordner, der Ihr Data Warehouse enthält. Dieser Wert beginnt mit gs://.

      Nachdem Sie erfolgreich eine Verbindung zum Cluster hergestellt haben, wird im Spark-Terminal der Prompt spark-sql angezeigt, über den Sie Spark-Jobs senden können.

      spark-sql (default)>
      
  1. Erstellen Sie einen Managed Service for Apache Spark-Cluster mit aktivierter optionaler Flink-Komponente und achten Sie darauf, dass Sie Managed Service for Apache Spark 2.2 oder höher verwenden.
  2. Rufen Sie in der Google Cloud Console die Seite VM-Instanzen auf:

    Zur Seite „VM-Instanzen“

  3. Klicken Sie in der Liste der virtuellen Maschinen auf SSH, um eine Verbindung zur Haupt-VM-Instanz des Managed Service for Apache Spark-Clusters herzustellen. Diese wird als Clustername gefolgt vom Suffix -m aufgeführt.

  4. Konfigurieren Sie das benutzerdefinierte Apache Iceberg-Katalog-Plug-in für den Lakehouse-Laufzeitkatalog:

    FLINK_VERSION=1.20
    ICEBERG_VERSION=1.10.0
    
    cd /usr/lib/flink
    
    sudo wget -c https://repo.maven.apache.org/maven2/org/apache/iceberg/iceberg-flink-runtime-${FLINK_VERSION}/${ICEBERG_VERSION}/iceberg-flink-runtime-${FLINK_VERSION}-${ICEBERG_VERSION}.jar -P lib
    
    sudo wget -c https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-bigquery/${ICEBERG_VERSION}/iceberg-bigquery-${ICEBERG_VERSION}.jar -P lib
    
    sudo wget -c https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-gcp-bundle/${ICEBERG_VERSION}/iceberg-gcp-bundle-${ICEBERG_VERSION}.jar -P lib
    
    sudo wget -c https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-gcp/${ICEBERG_VERSION}/iceberg-gcp-${ICEBERG_VERSION}.jar -P lib
  5. Starten Sie die Flink-Sitzung in YARN:

    HADOOP_CLASSPATH=`hadoop classpath`
    
    sudo bin/yarn-session.sh -nm flink-dataproc -d
    
    sudo bin/sql-client.sh embedded \
    -s yarn-session
  6. Katalog in Flink erstellen:

    CREATE CATALOG CATALOG_NAME WITH (
    'type'='iceberg',
    'warehouse'='WAREHOUSE_DIRECTORY',
    'catalog-impl'='org.apache.iceberg.gcp.bigquery.BigQueryMetastoreCatalog',
    'gcp.bigquery.project-id'='PROJECT_ID',
    'gcp.bigquery.location'='LOCATION'
    );

    Ersetzen Sie Folgendes:

    • CATALOG_NAME: Die Flink-Katalogkennung, die mit einem Lakehouse-Laufzeitkatalog verknüpft ist.
    • WAREHOUSE_DIRECTORY: Der Basispfad für das Warehouse-Verzeichnis (der Cloud Storage-Ordner, in dem Flink Dateien erstellt). Dieser Wert beginnt mit gs://.
    • PROJECT_ID: Die Projekt-ID des Lakehouse-Laufzeitkatalogs, mit dem der Flink-Katalog verknüpft ist.
    • LOCATION: Der Standort der BigQuery-Ressourcen.

Ihre Flink-Sitzung ist jetzt mit dem Lakehouse-Laufzeitkatalog verbunden und Sie können Flink SQL-Befehle ausführen.

Nachdem Sie jetzt eine Verbindung zum Lakehouse-Laufzeitkatalog hergestellt haben, können Sie Ressourcen basierend auf den im Lakehouse-Laufzeitkatalog gespeicherten Metadaten erstellen und ansehen.

Führen Sie beispielsweise die folgenden Befehle in Ihrer interaktiven Flink SQL-Sitzung aus, um eine Apache Iceberg-Datenbank und -Tabelle zu erstellen.

  1. Benutzerdefinierten Apache Iceberg-Katalog verwenden:

    USE CATALOG CATALOG_NAME;

    Ersetzen Sie CATALOG_NAME durch Ihre Flink-Katalog-ID.

  2. Erstellen Sie eine Datenbank. Dadurch wird ein Dataset in BigQuery erstellt:

    CREATE DATABASE IF NOT EXISTS DATABASE_NAME;

    Ersetzen Sie DATABASE_NAME durch den Namen Ihrer neuen Datenbank.

  3. Verwenden Sie die Datenbank, die Sie erstellt haben:

    USE DATABASE_NAME;
  4. Apache Iceberg-Tabelle erstellen Im Folgenden wird eine Beispielverkaufstabelle erstellt:

    CREATE TABLE IF NOT EXISTS ICEBERG_TABLE_NAME (
      order_number BIGINT,
      price        DECIMAL(32,2),
      buyer        ROW<first_name STRING, last_name STRING>,
      order_time   TIMESTAMP(3)
    );

    Ersetzen Sie ICEBERG_TABLE_NAME durch einen Namen für die neue Tabelle.

  5. Tabellenmetadaten ansehen:

    DESCRIBE EXTENDED ICEBERG_TABLE_NAME;
  6. Tabellen in der Datenbank auflisten:

    SHOW TABLES;

Daten in die Tabelle aufnehmen

Nachdem Sie im vorherigen Abschnitt eine Apache Iceberg-Tabelle erstellt haben, können Sie Flink DataGen als Datenquelle verwenden, um Echtzeitdaten in Ihre Tabelle aufzunehmen. Die folgenden Schritte sind ein Beispiel für diesen Workflow:

  1. So erstellen Sie eine temporäre Tabelle mit DataGen:

    CREATE TEMPORARY TABLE DATABASE_NAME.TEMP_TABLE_NAME
    WITH (
      'connector' = 'datagen',
      'rows-per-second' = '10',
      'fields.order_number.kind' = 'sequence',
      'fields.order_number.start' = '1',
      'fields.order_number.end' = '1000000',
      'fields.price.min' = '0',
      'fields.price.max' = '10000',
      'fields.buyer.first_name.length' = '10',
      'fields.buyer.last_name.length' = '10'
    )
    LIKE DATABASE_NAME.ICEBERG_TABLE_NAME (EXCLUDING ALL);

    Ersetzen Sie Folgendes:

    • DATABASE_NAME: der Name der Datenbank, in der die temporäre Tabelle gespeichert werden soll.
    • TEMP_TABLE_NAME: Ein Name für die temporäre Tabelle.
    • ICEBERG_TABLE_NAME: der Name der Apache Iceberg-Tabelle, die Sie im vorherigen Abschnitt erstellt haben.
  2. Legen Sie die Parallelität auf 1 fest:

    SET 'parallelism.default' = '1';
  3. Legen Sie das Prüfpunktintervall fest:

    SET 'execution.checkpointing.interval' = '10second';
  4. Prüfpunkt festlegen:

    SET 'state.checkpoints.dir' = 'hdfs:///flink/checkpoints';
  5. Starten Sie den Echtzeit-Streamingjob:

    INSERT INTO ICEBERG_TABLE_NAME SELECT * FROM TEMP_TABLE_NAME;

    Die Ausgabe sieht etwa so aus:

    [INFO] Submitting SQL update statement to the cluster...
    [INFO] SQL update statement has been successfully submitted to the cluster:
    Job ID: 0de23327237ad8a811d37748acd9c10b
    
  6. So prüfen Sie den Status des Streamingjobs:

    1. Rufen Sie in der Google Cloud Console die Seite Cluster auf.

      Zu den Clustern

    2. Wählen Sie Ihren Cluster aus.

    3. Klicken Sie auf den Tab Weboberflächen.

    4. Klicken Sie auf den Link YARN ResourceManager.

    5. Suchen Sie in der YARN ResourceManager-Oberfläche nach Ihrer Flink-Sitzung und klicken Sie unter Tracking UI auf den Link ApplicationMaster.

    6. Prüfen Sie in der Spalte Status, ob der Jobstatus Wird ausgeführt lautet.

  7. Streamingdaten im Flink SQL-Client abfragen:

    SELECT * FROM ICEBERG_TABLE_NAME
    /*+ OPTIONS('streaming'='true', 'monitor-interval'='3s')*/
    ORDER BY order_time desc
    LIMIT 20;
  8. Streamingdaten in BigQuery abfragen:

    SELECT * FROM `DATABASE_NAME.ICEBERG_TABLE_NAME`
    ORDER BY order_time desc
    LIMIT 20;
  9. Beenden Sie den Streamingjob im Flink SQL-Client:

    STOP JOB 'JOB_ID';

    Ersetzen Sie JOB_ID durch die Job-ID, die in der Ausgabe angezeigt wurde, als Sie den Streamingjob erstellt haben.

Metastore mit Managed Service for Apache Spark konfigurieren

Sie können den Lakehouse-Laufzeitkatalog mit Managed Service for Apache Spark konfigurieren. Dazu können Sie entweder Spark SQL oder PySpark verwenden.

Spark SQL

  1. Erstellen Sie eine SQL-Datei mit den Spark SQL-Befehlen, die Sie im Lakehouse-Laufzeitkatalog ausführen möchten. Mit diesem Befehl werden beispielsweise ein Namespace und eine Tabelle erstellt:

    SET `spark.sql.catalog.CATALOG_NAME`=`org.apache.iceberg.spark.SparkCatalog`;
    SET `spark.sql.catalog.CATALOG_NAME.type`=`bigquery`;
    SET `spark.sql.catalog.CATALOG_NAME.gcp.bigquery.project-id`=`PROJECT_ID`;
    SET `spark.sql.catalog.CATALOG_NAME.gcp.bigquery.location`=`LOCATION`;
    SET `spark.sql.catalog.CATALOG_NAME.warehouse`=`WAREHOUSE_DIRECTORY`;
    
    CREATE NAMESPACE `CATALOG_NAME`.NAMESPACE_NAME;
    CREATE TABLE `CATALOG_NAME`.NAMESPACE_NAME.TABLE_NAME (id int, data string) USING ICEBERG LOCATION 'WAREHOUSE_DIRECTORY';

    Ersetzen Sie Folgendes:

    • CATALOG_NAME: Der Katalogname, der auf Ihre Spark-Tabelle verweist.
    • NAMESPACE_NAME: Der Namespace-Name, der auf Ihre Spark-Tabelle verweist.
    • TABLE_NAME: ein Tabellenname für Ihre Spark-Tabelle.
    • WAREHOUSE_DIRECTORY: Der URI des Cloud Storage-Ordners, in dem Ihr Data Warehouse gespeichert ist.
  2. Senden Sie einen Spark SQL-Batchjob, indem Sie den folgenden gcloud dataproc batches submit spark-sql-Befehl ausführen:

    gcloud dataproc batches submit spark-sql SQL_SCRIPT_PATH \
        --project=PROJECT_ID \
        --region=REGION \
        --subnet=projects/PROJECT_ID/regions/REGION/subnetworks/SUBNET_NAME \
        --deps-bucket=BUCKET_PATH \
        --jars=https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-spark-runtime-3.5_2.12/1.10.0/iceberg-spark-runtime-3.5_2.12-1.10.0.jar,https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-bigquery/1.10.0/iceberg-bigquery-1.10.0.jar,https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-gcp-bundle/1.10.0/iceberg-gcp-bundle-1.10.0.jar,https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-gcp/1.10.0/iceberg-gcp-1.10.0.jar

    Ersetzen Sie Folgendes:

    • SQL_SCRIPT_PATH: der Pfad zur SQL-Datei, die vom Batchjob verwendet wird.
    • PROJECT_ID: Die ID des Google Cloud Projekts, in dem der Batchjob ausgeführt werden soll.
    • REGION: die Region, in der Ihre Arbeitslast ausgeführt wird.
    • SUBNET_NAME (optional): der Name eines VPC-Subnetzes in REGION, das die Anforderungen an das Sitzungssubnetz erfüllt.
    • BUCKET_PATH: Der Speicherort des Cloud Storage-Bucket zum Hochladen von Arbeitslastabhängigkeiten. Die Datei WAREHOUSE_DIRECTORY befindet sich in diesem Bucket. Das gs://-URI-Präfix des Buckets ist nicht erforderlich. Sie können den Bucket-Pfad oder den Bucket-Namen angeben, z. B. mybucketname1.
    • LOCATION: Der Standort, an dem der Batchjob ausgeführt werden soll.

    Weitere Informationen zum Einreichen von Spark-Batchjobs finden Sie unter Spark-Batcharbeitslast ausführen.

PySpark

  1. Erstellen Sie eine Python-Datei mit den PySpark-Befehlen, die Sie im Lakehouse-Laufzeitkatalog ausführen möchten.

    Mit dem folgenden Befehl wird beispielsweise eine Spark-Umgebung eingerichtet, um mit Apache Iceberg-Tabellen zu interagieren, die im Lakehouse-Laufzeitkatalog gespeichert sind. Mit dem Befehl wird dann ein neuer Namespace und eine Apache Iceberg-Tabelle in diesem Namespace erstellt.

    from pyspark.sql import SparkSession
    
    spark = SparkSession.builder \
    .appName("Lakehouse runtime catalog Iceberg") \
    .config("spark.sql.catalog.CATALOG_NAME", "org.apache.iceberg.spark.SparkCatalog") \
    .config("spark.sql.catalog.CATALOG_NAME.type", "bigquery") \
    .config("spark.sql.catalog.CATALOG_NAME.gcp.bigquery.project-id", "PROJECT_ID") \
    .config("spark.sql.catalog.CATALOG_NAME.gcp.bigquery.location", "LOCATION") \
    .config("spark.sql.catalog.CATALOG_NAME.warehouse", "WAREHOUSE_DIRECTORY") \
    .getOrCreate()
    
    spark.sql("USE `CATALOG_NAME`;")
    spark.sql("CREATE NAMESPACE IF NOT EXISTS NAMESPACE_NAME;")
    spark.sql("USE NAMESPACE_NAME;")
    spark.sql("CREATE TABLE TABLE_NAME (id int, data string) USING ICEBERG LOCATION 'WAREHOUSE_DIRECTORY';")

    Ersetzen Sie Folgendes:

    • PROJECT_ID: Die ID des Google Cloud Projekts, in dem der Batchjob ausgeführt werden soll.
    • LOCATION: Der Standort, an dem sich die BigQuery-Ressourcen befinden.
    • CATALOG_NAME: Der Katalogname, der auf Ihre Spark-Tabelle verweist.
    • TABLE_NAME: ein Tabellenname für Ihre Spark-Tabelle.
    • WAREHOUSE_DIRECTORY: Der URI des Cloud Storage-Ordners, in dem Ihr Data Warehouse gespeichert ist.
    • NAMESPACE_NAME: Der Namespace-Name, der auf Ihre Spark-Tabelle verweist.
  2. Senden Sie den Batchjob mit dem folgenden gcloud dataproc batches submit pyspark-Befehl:

    gcloud dataproc batches submit pyspark PYTHON_SCRIPT_PATH \
        --version=2.2 \
        --project=PROJECT_ID \
        --region=REGION \
        --subnet=projects/PROJECT_ID/regions/REGION/subnetworks/SUBNET_NAME \
        --deps-bucket=BUCKET_PATH \
        --jars=https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-spark-runtime-3.5_2.12/1.10.0/iceberg-spark-runtime-3.5_2.12-1.10.0.jar,https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-bigquery/1.10.0/iceberg-bigquery-1.10.0.jar,https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-gcp-bundle/1.10.0/iceberg-gcp-bundle-1.10.0.jar,https://storage-download.googleapis.com/maven-central/maven2/org/apache/iceberg/iceberg-gcp/1.10.0/iceberg-gcp-1.10.0.jar

    Ersetzen Sie Folgendes:

    • PYTHON_SCRIPT_PATH: Der Pfad zum Python-Skript, das vom Batchjob verwendet wird.
    • PROJECT_ID: Die ID des Google Cloud Projekts, in dem der Batchjob ausgeführt werden soll.
    • REGION: die Region, in der Ihre Arbeitslast ausgeführt wird.
    • BUCKET_PATH: Der Speicherort des Cloud Storage-Bucket zum Hochladen von Arbeitslastabhängigkeiten. Das gs://-URI-Präfix des Buckets ist nicht erforderlich. Sie können den Bucket-Pfad oder den Bucket-Namen angeben, z. B. mybucketname1.

    Weitere Informationen zum Senden von PySpark-Batchjobs finden Sie in der gcloud-Referenz für PySpark.

Nächste Schritte