Leistungsverbesserungen für Spark im Managed Service for Apache Spark

In diesem Dokument wird beschrieben, wie Sie die Spark-Leistungsverbesserungen für Managed Service for Apache Spark aktivieren, damit Ihre Managed Service for Apache Spark-Spark-Jobs in kürzerer Zeit mehr Daten zu geringeren Kosten verarbeiten können.

Die Spark-Leistungsverbesserungen für Managed Service for Apache Spark umfassen:

  • Verbesserungen des Spark-Optimierers:
    • Für bessere Spark-Pläne geschriebene Optimiererregeln
    • Verbesserte Leistung des Managed Service for Apache Spark-BigQuery-Connectors bei Verwendung in Spark-Jobs
  • Verbesserungen der Spark-Ausführung:
    • Verbesserungen der Spark-Ausführungs-Engine

Weitere Leistungsverbesserungen für Managed Service for Apache Spark:Informationen zum Managed Service for Apache Spark Cluster-Caching, mit dem die Zeit für den Zugriff auf Daten in Cloud Storage verkürzt werden kann.

Sie können Spark-Leistungsverbesserungen für einen Cluster oder einen Spark-Job aktivieren:

Preise

Für Spark-Leistungsverbesserungen fallen keine zusätzlichen Gebühren an. Es gelten die Standard Preise für Managed Service for Apache Spark.

Hinweise

Spark-Leistungsverbesserungen passen Spark-Attribute an, einschließlich der folgenden Attribute:

  • spark.sql.shuffle.partitions: Bei Spark-Leistungsverbesserungen wird dieses Attribut für Cluster mit der Image-Version 2.2 auf 1000 festgelegt. Diese Einstellung kann kleine Jobs verlangsamen.
  • spark.dataproc.sql.catalog.file.index.stats.enabled: Diese Einstellung kann zu OOM-Bedingungen (Out-Of-Memory) für den Treiber führen, wenn die Anzahl der Hive-Partitionen hoch ist. Wenn Sie dieses Attribut deaktivieren, kann die OOM-Bedingung behoben werden.

Verbesserungen beim Erstellen von Clustern aktivieren

Sie können die Google Cloud console, die Google Cloud CLI und die Managed Service for Apache Spark API verwenden, um die Spark-Leistungsverbesserungen für Managed Service for Apache Spark zu aktivieren, wenn Sie einen Managed Service for Apache Spark-Cluster mit Image-Versionen ab 2.0.69, 2.1.17, 2.2.0 und höher erstellen.

Console

  1. Öffnen Sie in der Google Cloud console die Seite Managed Service for Apache Spark Cluster erstellen.
  2. Klicken Sie im Formular Managed Service for Apache Spark-Cluster erstellen in der Zeile Cluster auf Erstellen.
  3. Klicken Sie auf der Seite Managed Service for Apache Spark-Cluster erstellen auf das Feld Cluster anpassen und scrollen Sie zum Abschnitt Clusterattribute.
    1. So aktivieren Sie Verbesserungen der Spark-Optimierung:
      1. Klicken Sie auf + ATTRIBUTE HINZUFÜGEN.
      2. Wählen Sie in der Liste Präfix die Option spark aus und fügen Sie im Feld Schlüssel den Wert „spark.dataproc.enhanced.optimizer.enabled“ und im Feld Wert den Wert „true“ hinzu.
    2. So aktivieren Sie Verbesserungen der Spark-Ausführung:
      1. Klicken Sie auf + ATTRIBUTE HINZUFÜGEN.
      2. Wählen Sie in der Liste Präfix die Option spark aus und fügen Sie im Feld Schlüssel den Wert „spark.dataproc.enhanced.execution.enabled“ und im Feld Wert den Wert „true“ hinzu.
  4. Füllen Sie die anderen Felder zur Clustererstellung aus oder bestätigen Sie sie und klicken Sie dann auf Erstellen.

gcloud

  1. Führen Sie den folgenden Befehl gcloud dataproc clusters create lokal in einem Terminalfenster oder in Cloud Shellaus.

    gcloud dataproc clusters create CLUSTER_NAME \
        --project=PROJECT_ID \
        --region=REGION \
        --image-version=IMAGE \
        --properties=PROPERTIES
    

    Hinweise:

    • CLUSTER_NAME: Der Clustername, der innerhalb eines Projekts eindeutig sein muss. Der Name muss mit einem Kleinbuchstaben beginnen und darf maximal 51 Kleinbuchstaben, Zahlen und Bindestriche enthalten. Er darf nicht mit einem Bindestrich enden. Der Name eines gelöschten Clusters kann wiederverwendet werden.
    • PROJECT_ID: Das Projekt, das mit dem Cluster verknüpft werden soll.
    • REGION: Die Compute Engine-Region , in der sich der Cluster befindet, z. B. us-central1.
      • Sie können das optionale Flag --zone=ZONE hinzufügen, um eine Zone in der angegebenen Region anzugeben, z. B. us-central1-a. Wenn Sie keine Zone angeben, wählt die Funktion zur automatischen Zonenauswahl von Managed Service for Apache Spark autozone placement eine Zone in der angegebenen Region aus.
    • IMAGE: Die Leistungsverbesserungen für den Spark-Optimierer und die Ausführung von Managed Service for Apache Spark sind in den Managed Service for Apache Spark-Image-Versionen 2.0.69+ und 2.1.17+ sowie in späteren Versionen verfügbar. Wenn Sie dieses Flag weglassen, wählt Managed Service for Apache Spark die neueste Unterversion des Standard-Managed Service for Apache Spark Images für den Cluster aus (siehe Standard-Image-Version für Managed Service for Apache Spark).
    • PROPERTIES:

      • Geben Sie Folgendes an, um Verbesserungen der Spark-Optimierung zu aktivieren:
      spark:spark.dataproc.enhanced.optimizer.enabled=true
      
      • Geben Sie Folgendes an, um Verbesserungen der Spark-Ausführung zu aktivieren:
      spark:spark.dataproc.enhanced.execution.enabled=true
      
      • Geben Sie Folgendes an, um Verbesserungen der Spark-Optimierung und -Ausführung zu aktivieren:
      spark:spark.dataproc.enhanced.optimizer.enabled=true,spark:spark.dataproc.enhanced.execution.enabled=true
      

API

  1. Geben Sie die folgenden SoftwareConfig.properties als Teil einer clusters.create-Anfrage an:

    • Geben Sie Folgendes an, um Verbesserungen der Spark-Optimierung zu aktivieren:
    "spark:spark.dataproc.enhanced.optimizer.enabled": "true"
    
    • Geben Sie Folgendes an, um Verbesserungen der Spark-Ausführung zu aktivieren:
    "spark:spark.dataproc.enhanced.execution.enabled": "true"
    
    • Geben Sie Folgendes an, um Verbesserungen der Spark-Optimierung und -Ausführung zu aktivieren:
    "spark:spark.dataproc.enhanced.optimizer.enabled": "true","spark:spark.dataproc.enhanced.execution.enabled": "true"
    

Verbesserungen beim Senden von Jobs aktivieren oder deaktivieren

Sie können die Google Cloud console, die Google Cloud CLI und die Managed Service for Apache Spark API verwenden, um Spark-Leistungsverbesserungen für einen Spark-Job zu aktivieren oder zu deaktivieren, der an Managed Service for Apache Spark gesendet wird.

Console

  1. Öffnen Sie in der Google Cloud console die Seite „Jobs“ für Managed Service for Apache Spark .
  2. Klicken Sie auf der Seite Jobs auf Job senden und scrollen Sie zum Abschnitt Attribute des Jobs.
    1. So aktivieren Sie Verbesserungen der Spark-Optimierung:
      1. Klicken Sie auf + ATTRIBUTE HINZUFÜGEN. Fügen Sie im Feld Schlüssel den Wert „spark.dataproc.enhanced.optimizer.enabled“ und im Feld Wert den Wert „true“ hinzu.
    2. So aktivieren Sie Verbesserungen der Spark-Ausführung:
      1. Klicken Sie auf + ATTRIBUTE HINZUFÜGEN.
      2. Fügen Sie im Feld Schlüssel den Wert „spark.dataproc.enhanced.execution.enabled“ und im Feld Wert den Wert „true“ hinzu.
  3. Füllen Sie die anderen Felder zum Senden von Jobs aus oder bestätigen Sie sie und klicken Sie dann auf Senden.

gcloud

  1. Führen Sie den folgenden Befehl gcloud dataproc jobs submit lokal in einem Terminalfenster oder in Cloud Shellaus.

    gcloud dataproc jobs submit SPARK_JOB_TYPE \
        --cluster=CLUSTER_NAME \
        --region=REGION \
        --properties=PROPERTIES
    

    Hinweise:

    • SPARK_JOB_TYPE: Geben Sie spark, pyspark, spark-sql oder spark-r an .
    • CLUSTER_NAME: Der Name des Jobs, in dem der Job ausgeführt wird.
    • REGION: Die Region, in der sich der Cluster befindet.
    • PROPERTIES:

      • Geben Sie Folgendes an, um Verbesserungen der Spark-Optimierung zu aktivieren:
      spark.dataproc.enhanced.optimizer.enabled=true
      
      • Geben Sie Folgendes an, um Verbesserungen der Spark-Ausführung zu aktivieren:
      spark.dataproc.enhanced.execution.enabled=true
      
      • Geben Sie Folgendes an, um Verbesserungen der Spark-Optimierung und -Ausführung zu aktivieren:
      spark.dataproc.enhanced.optimizer.enabled=true,spark.dataproc.enhanced.execution.enabled=true
      

API

  1. Geben Sie die folgenden properties für einen SparkJob, PySparkJob, SparkSqlJob oder SparkRJob als Teil einer jobs.submit Anfrage an:

    • Geben Sie Folgendes an, um Verbesserungen der Spark-Optimierung zu aktivieren:
    "spark.dataproc.enhanced.optimizer.enabled=true"
    
    • Geben Sie Folgendes an, um Verbesserungen der Spark-Ausführung zu aktivieren:
    "spark.dataproc.enhanced.execution.enabled=true"
    
    • Geben Sie Folgendes an, um Verbesserungen der Spark-Optimierung und -Ausführung zu aktivieren:
    "spark.dataproc.enhanced.execution.enabled=true,spark.dataproc.enhanced.optimizer.enabled=true"