Jobausgabe und ‑logs

Wenn Sie einen Managed Service for Apache Spark-Job senden, erfasst Managed Service for Apache Spark automatisch die Jobausgabe und stellt sie Ihnen zur Verfügung. Sie können die Jobausgabe also schnell überprüfen, ohne eine Verbindung zum Cluster beibehalten zu müssen, wenn Jobs ausgeführt oder komplizierte Log-Dateien analysiert werden.

Spark-Logs

Es gibt zwei Arten von Spark-Logs: Spark-Treiberlogs und Spark-Executor-Logs. Spark-Treiberlogs enthalten die Jobausgabe. Spark-Executor-Logs enthalten die ausführbare Datei oder die Launcher-Ausgabe des Jobs, z. B. die Meldung spark-submit „Submitted application xxx“. Sie können hilfreich sein, um Fehler bei Jobs zu beheben.

Der Jobtreiber von Managed Service for Apache Spark, der sich vom Spark-Treiber unterscheidet, ist ein Launcher für viele Jobtypen. Beim Starten von Spark-Jobs wird er als Wrapper für die zugrunde liegende ausführbare Datei spark-submit ausgeführt, die den Spark-Treiber startet. Der Spark-Treiber führt den Job im Managed Service for Apache Spark-Cluster im Spark client oder cluster Modus aus:

  • client -Modus: Der Spark-Treiber führt den Job im spark-submit-Prozess aus und Spark-Logs werden an den Jobtreiber von Managed Service for Apache Spark gesendet.

  • cluster-Modus: Der Spark-Treiber führt den Job in einem YARN-Container aus. Spark-Treiberlogs sind für den Jobtreiber von Managed Service for Apache Spark nicht verfügbar.

Übersicht über Managed Service for Apache Spark- und Spark-Jobattribute

Attribut Wert Default Beschreibung
dataproc:dataproc.logging.stackdriver.job.driver.enable "true" oder "false" falsch Muss beim Erstellen des Clusters festgelegt werden. Wenn true, befindet sich die Jobtreiberausgabe in Logging, und ist der Jobressource zugeordnet. Wenn false, befindet sich die Jobtreiber ausgabe nicht in Logging.
Hinweis: Die folgenden Einstellungen für Clusterattribute sind ebenfalls erforderlich, um Jobtreiberlogs in Logging zu aktivieren. Sie werden beim Erstellen eines Clusters standardmäßig festgelegt: dataproc:dataproc.logging.stackdriver.enable=true und dataproc:jobs.file-backed-output.enable=true
dataproc:dataproc.logging.stackdriver.job.yarn.container.enable "true" oder "false" falsch Muss beim Erstellen des Clusters festgelegt werden. Wenn true, sind die YARN-Containerlogs des Jobs der Jobressource zugeordnet. Wenn false, sind die YARN-Containerlogs des Jobs der Clusterressource zugeordnet.
spark:spark.submit.deployMode Client oder Cluster Client Steuert den Spark-Modus client oder cluster.

Spark-Jobs, die mit der jobs-API von Managed Service for Apache Spark gesendet wurden

In den Tabellen in diesem Abschnitt wird die Auswirkung verschiedener Attributseinstellungen auf das Ziel der Jobtreiberausgabe von Managed Service for Apache Spark aufgeführt, wenn Jobs über die jobs API von Managed Service for Apache Spark gesendet werden. Dazu gehört das Senden von Jobs über die Google Cloud Console, die gcloud CLI und die Cloud-Clientbibliotheken.

Die aufgeführten Managed Service for Apache Spark- und Spark-Attribute können beim Erstellen eines Clusters mit dem --properties Flag festgelegt werden und gelten für alle Spark-Jobs, die im Cluster ausgeführt werden. Spark-Attribute können auch mit dem --properties Flag (ohne das "spark:" Präfix) festgelegt werden, wenn ein Job an die Managed Service for Apache Spark jobs API gesendet wird. Sie gelten dann nur für den Job.

Jobtreiberausgabe von Managed Service for Apache Spark

In den folgenden Tabellen wird die Auswirkung verschiedener Attributseinstellungen auf das Ziel der Jobtreiberausgabe von Managed Service for Apache Spark aufgeführt.

dataproc:
dataproc.logging.stackdriver.job.driver.enable
Ausgabe
falsch (Standardeinstellung)
  • An den Client gestreamt
  • In Cloud Storage unter der von Managed Service for Apache Spark generierten driverOutputResourceUri
  • Nicht in Logging
wahr
  • An den Client gestreamt
  • In Cloud Storage unter der von Managed Service for Apache Spark generierten driverOutputResourceUri
  • In Logging: dataproc.job.driver unter der Jobressource.

Spark-Treiberlogs

In den folgenden Tabellen wird die Auswirkung verschiedener Attributseinstellungen auf das Ziel von Spark-Treiberlogs aufgeführt.

spark:
spark.submit.deployMode
dataproc:
dataproc.logging.stackdriver.job.driver.enable
dataproc:
dataproc.logging.stackdriver.job.yarn.container.enable
Treiberausgabe
Client falsch (Standardeinstellung) "true" oder "false"
  • An den Client gestreamt
  • In Cloud Storage unter der von Managed Service for Apache Spark generierten driverOutputResourceUri
  • Nicht in Logging
Client wahr "true" oder "false"
  • An den Client gestreamt
  • In Cloud Storage unter der von Managed Service for Apache Spark generierten driverOutputResourceUri
  • In Logging: dataproc.job.driver unter der Jobressource
Cluster falsch (Standardeinstellung) falsch
  • Nicht an den Client gestreamt
  • Nicht in Cloud Storage
  • In Logging: yarn-userlogs unter der Clusterressource
Cluster wahr wahr
  • Nicht an den Client gestreamt
  • Nicht in Cloud Storage
  • In Logging: dataproc.job.yarn.container unter der Jobressource

Spark-Executor-Logs

In den folgenden Tabellen wird die Auswirkung verschiedener Attributseinstellungen auf das Ziel von Spark-Executor-Logs aufgeführt.

dataproc:
dataproc.logging.stackdriver.job.yarn.container.enable
Executor-Log
falsch (Standardeinstellung) In Logging: yarn-userlogs unter der Clusterressource
wahr In Logging: dataproc.job.yarn.container unter der Jobressource

Spark-Jobs, die nicht mit der jobs-API von Managed Service for Apache Spark gesendet wurden

In diesem Abschnitt wird die Auswirkung verschiedener Attributseinstellungen auf das Ziel von Spark-Joblogs aufgeführt, wenn Jobs nicht mit der jobs-API von Managed Service for Apache Spark gesendet werden, z. B. wenn ein Job direkt auf einem Clusterknoten mit spark-submit gesendet wird oder wenn ein Jupyter- oder Zeppelin-Notebook verwendet wird. Diese Jobs haben keine Managed Service for Apache Spark-Job-IDs oder -Treiber.

Spark-Treiberlogs

In den folgenden Tabellen wird die Auswirkung verschiedener Attributseinstellungen auf das Ziel von Spark-Treiberlogs für Jobs aufgeführt, die nicht über die jobs-API von Managed Service for Apache Spark gesendet wurden.

spark:
spark.submit.deployMode
Treiberausgabe
Client
  • An den Client gestreamt
  • Nicht in Cloud Storage
  • Nicht in Logging
Cluster
  • Nicht an den Client gestreamt
  • Nicht in Cloud Storage
  • In Logging: yarn-userlogs unter der Clusterressource

Spark-Executor-Logs

Wenn Spark-Jobs nicht über die jobs-API von Managed Service for Apache Spark gesendet werden, befinden sich die Executor-Logs in Logging unter yarn-userlogs unter der Clusterressource.

Jobausgabe ansehen

Sie können auf die Jobausgabe von Managed Service for Apache Spark in der Google Cloud Console, der gcloud CLI, Cloud Storage oder Logging zugreifen.

Console

Zum Aufrufen der Jobausgabe rufen Sie den Managed Service for Apache Spark Jobs -Abschnitt für Ihr Projekt auf und klicken auf die Job-ID.

Bei der Ausführung des Jobs wird die Jobausgabe regelmäßig mit neuen Inhalten aktualisiert.

gcloud-Befehl

Wenn Sie einen Job mit dem gcloud dataproc jobs submit Befehl senden, wird die Jobausgabe in der Konsole angezeigt. Sie können die Ausgabe später, auf einem anderen Computer oder in einem neuen Fenster wieder aufrufen, indem Sie die ID Ihres Jobs an den gcloud dataproc jobs wait Befehl übergeben. Die Job-ID ist eine GUID, wie z. B. 5c1754a5-34f7-4553-b667-8a1199cb9cab. Hier ein Beispiel:

gcloud dataproc jobs wait 5c1754a5-34f7-4553-b667-8a1199cb9cab \
    --project my-project-id --region my-cluster-region
Waiting for job output...
... INFO gcs.GoogleHadoopFileSystemBase: GHFS version: 1.4.2-hadoop2
... 16:47:45 INFO client.RMProxy: Connecting to ResourceManager at my-test-cluster-m/
...

Cloud Storage

Die Jobausgabe wird in Cloud Storage in entweder im Staging-Bucket oder in dem Bucket gespeichert, den Sie beim Erstellen des Clusters angegeben haben. Ein Link zur Jobausgabe in Cloud Storage wird im Feld Job.driverOutputResourceUri bereitgestellt. Dieses erhalten Sie über:

  • Eine jobs.get API-Anfrage.
  • Den Befehl gcloud dataproc jobs describe job-id command.
    $ gcloud dataproc jobs describe spark-pi
    ...
    driverOutputResourceUri: gs://dataproc-nnn/jobs/spark-pi/driveroutput
    ...
    

Logging

Informationen zum Ansehen der Jobausgabe von Managed Service for Apache Spark in Logging finden Sie unter Managed Service for Apache Spark-Logs.