Spark-Messwerte

Dieses Dokument enthält Informationen zu Spark-Messwerten. Standardmäßig aktiviert Serverless for Apache Spark die Erfassung verfügbarer Spark-Messwerte, es sei denn, Sie verwenden Eigenschaften zur Erfassung von Spark-Messwerten um die Erfassung eines oder mehrerer Spark-Messwerte zu deaktivieren oder zu überschreiben.

Weitere Eigenschaften, die Sie beim Senden einer Serverless for Apache Spark-Spark-Batcharbeitslast festlegen können, finden Sie unter Spark-Eigenschaften.

Eigenschaften zur Erfassung von Spark-Messwerten

Mit den in diesem Abschnitt aufgeführten Eigenschaften können Sie die Erfassung eines oder mehrerer verfügbarer Spark-Messwerte deaktivieren oder überschreiben.

Attribut Beschreibung
spark.dataproc.driver.metrics Hiermit können Sie Spark-Treibermesswerte deaktivieren oder überschreiben.
spark.dataproc.executor.metrics Hiermit können Sie Spark-Executormesswerte deaktivieren oder überschreiben.
spark.dataproc.system.metrics Hiermit können Sie Spark-Systemmesswerte deaktivieren.

Beispiele für die gcloud CLI:

  • Erfassung von Spark-Treibermesswerten deaktivieren:

    gcloud dataproc batches submit spark \
        --properties spark.dataproc.driver.metrics="" \
        --region=region \
        other args ...
    
  • Standarderfassung von Spark-Treibermesswerten überschreiben, um nur BlockManager:disk.diskSpaceUsed_MB und DAGScheduler:stage.failedStages Messwerte zu erfassen:

    gcloud dataproc batches submit spark \
        --properties=^~^spark.dataproc.driver.metrics="BlockManager:disk.diskSpaceUsed_MB,DAGScheduler:stage.failedStages" \
        --region=region \
        other args ...
    

Verfügbare Spark-Messwerte

Serverless for Apache Spark erfasst die in diesem Abschnitt aufgeführten Spark-Messwerte , es sei denn, Sie verwenden Eigenschaften zur Erfassung von Spark-Messwerten , um die Erfassung zu deaktivieren oder zu überschreiben.

custom.googleapis.com/METRIC_EXPLORER_NAME.

Spark-Treibermesswerte

Messwert Name im Metrics Explorer
BlockManager:disk.diskSpaceUsed_MB spark/driver/BlockManager/disk/diskSpaceUsed_MB
BlockManager:memory.maxMem_MB spark/driver/BlockManager/memory/maxMem_MB
BlockManager:memory.memUsed_MB spark/driver/BlockManager/memory/memUsed_MB
DAGScheduler:job.activeJobs spark/driver/DAGScheduler/job/activeJobs
DAGScheduler:job.allJobs spark/driver/DAGScheduler/job/allJobs
DAGScheduler:messageProcessingTime spark/driver/DAGScheduler/messageProcessingTime
DAGScheduler:stage.failedStages spark/driver/DAGScheduler/stage/failedStages
DAGScheduler:stage.runningStages spark/driver/DAGScheduler/stage/runningStages
DAGScheduler:stage.waitingStages spark/driver/DAGScheduler/stage/waitingStages

Spark-Executormesswerte

Messwert Name im Metrics Explorer
ExecutorAllocationManager:executors.numberExecutorsDecommissionUnfinished spark/driver/ExecutorAllocationManager/executors/numberExecutorsDecommissionUnfinished
ExecutorAllocationManager:executors.numberExecutorsExitedUnexpectedly spark/driver/ExecutorAllocationManager/executors/numberExecutorsExitedUnexpectedly
ExecutorAllocationManager:executors.numberExecutorsGracefullyDecommissioned spark/driver/ExecutorAllocationManager/executors/numberExecutorsGracefullyDecommissioned
ExecutorAllocationManager:executors.numberExecutorsKilledByDriver spark/driver/ExecutorAllocationManager/executors/numberExecutorsKilledByDriver
LiveListenerBus:queue.executorManagement.listenerProcessingTime spark/driver/LiveListenerBus/queue/executorManagement/listenerProcessingTime
executor:bytesRead spark/executor/bytesRead
executor:bytesWritten spark/executor/bytesWritten
executor:cpuTime spark/executor/cpuTime
executor:diskBytesSpilled spark/executor/diskBytesSpilled
executor:jvmGCTime spark/executor/jvmGCTime
executor:memoryBytesSpilled spark/executor/memoryBytesSpilled
executor:recordsRead spark/executor/recordsRead
executor:recordsWritten spark/executor/recordsWritten
executor:runTime spark/executor/runTime
executor:shuffleFetchWaitTime spark/executor/shuffleFetchWaitTime
executor:shuffleRecordsRead spark/executor/shuffleRecordsRead
executor:shuffleRecordsWritten spark/executor/shuffleRecordsWritten
executor:shuffleRemoteBytesReadToDisk spark/executor/shuffleRemoteBytesReadToDisk
executor:shuffleWriteTime spark/executor/shuffleWriteTime
executor:succeededTasks spark/executor/succeededTasks
ExecutorMetrics:MajorGCTime spark/executor/ExecutorMetrics/MajorGCTime
ExecutorMetrics:MinorGCTime spark/executor/ExecutorMetrics/MinorGCTime

Systemmesswerte

Messwert Name im Metrics Explorer
agent:uptime agent/uptime
cpu:utilization cpu/utilization
disk:bytes_used disk/bytes_used
disk:percent_used disk/percent_used
memory:bytes_used memory/bytes_used
memory:percent_used memory/percent_used
network:tcp_connections network/tcp_connections

Spark-Messwerte ansehen

Wenn Sie Batchmesswerte ansehen möchten, klicken Sie in der Google Cloud Console auf der Dataproc BatchesSeite auf eine Batch-ID, um die Seite Details des Batches zu öffnen. Dort wird auf dem Tab Monitoring tab ein Messwertdiagramm für die Batcharbeitslast angezeigt.

Abbildung 1 Diagramm der Spark-Messwerte für eine Batcharbeitslast

Weitere Informationen zum Ansehen erfasster Messwerte finden Sie unter Dataproc Cloud Monitoring ansehen.