Dieses Dokument enthält Informationen zu Spark-Messwerten. Standardmäßig aktiviert Managed Service for Apache Spark die Erfassung verfügbarer Spark-Messwerte, es sei denn, Sie verwenden Eigenschaften zur Erfassung von Spark-Messwerten um die Erfassung eines oder mehrerer Spark-Messwerte zu deaktivieren oder zu überschreiben.
Weitere Eigenschaften, die Sie beim Senden einer Spark-Batcharbeitslast für Managed Service for Apache Spark festlegen können, finden Sie unter Spark-Eigenschaften.
Eigenschaften zur Erfassung von Spark-Messwerten
Mit den in diesem Abschnitt aufgeführten Eigenschaften können Sie die Erfassung eines oder mehrerer verfügbarer Spark-Messwerte deaktivieren oder überschreiben.
| Attribut | Beschreibung |
|---|---|
spark.dataproc.driver.metrics |
Hiermit können Sie Spark-Treibermesswerte deaktivieren oder überschreiben. |
spark.dataproc.executor.metrics |
Hiermit können Sie Spark-Executormesswerte deaktivieren oder überschreiben. |
spark.dataproc.system.metrics |
Hiermit können Sie Spark-Systemmesswerte deaktivieren. |
gcloud CLI-Beispiele:
Erfassung von Spark-Treibermesswerten deaktivieren:
gcloud dataproc batches submit spark \ --properties spark.dataproc.driver.metrics="" \ --region=region \ other args ...
Standarderfassung von Spark-Treibermesswerten überschreiben, um nur die Messwerte
BlockManager:disk.diskSpaceUsed_MBundDAGScheduler:stage.failedStageszu erfassen:gcloud dataproc batches submit spark \ --properties=^~^spark.dataproc.driver.metrics="BlockManager:disk.diskSpaceUsed_MB,DAGScheduler:stage.failedStages" \ --region=region \ other args ...
Verfügbare Spark-Messwerte
Managed Service for Apache Spark erfasst die in diesem Abschnitt aufgeführten Spark-Messwerte , es sei denn, Sie verwenden Eigenschaften zur Erfassung von Spark-Messwerten , um die Erfassung zu deaktivieren oder zu überschreiben.
custom.googleapis.com/METRIC_EXPLORER_NAME.
Spark-Treibermesswerte
| Messwert | Name im Metrics Explorer |
|---|---|
| BlockManager:disk.diskSpaceUsed_MB | spark/driver/BlockManager/disk/diskSpaceUsed_MB |
| BlockManager:memory.maxMem_MB | spark/driver/BlockManager/memory/maxMem_MB |
| BlockManager:memory.memUsed_MB | spark/driver/BlockManager/memory/memUsed_MB |
| DAGScheduler:job.activeJobs | spark/driver/DAGScheduler/job/activeJobs |
| DAGScheduler:job.allJobs | spark/driver/DAGScheduler/job/allJobs |
| DAGScheduler:messageProcessingTime | spark/driver/DAGScheduler/messageProcessingTime |
| DAGScheduler:stage.failedStages | spark/driver/DAGScheduler/stage/failedStages |
| DAGScheduler:stage.runningStages | spark/driver/DAGScheduler/stage/runningStages |
| DAGScheduler:stage.waitingStages | spark/driver/DAGScheduler/stage/waitingStages |
Spark-Executormesswerte
| Messwert | Name im Metrics Explorer |
|---|---|
| ExecutorAllocationManager:executors.numberExecutorsDecommissionUnfinished | spark/driver/ExecutorAllocationManager/executors/numberExecutorsDecommissionUnfinished |
| ExecutorAllocationManager:executors.numberExecutorsExitedUnexpectedly | spark/driver/ExecutorAllocationManager/executors/numberExecutorsExitedUnexpectedly |
| ExecutorAllocationManager:executors.numberExecutorsGracefullyDecommissioned | spark/driver/ExecutorAllocationManager/executors/numberExecutorsGracefullyDecommissioned |
| ExecutorAllocationManager:executors.numberExecutorsKilledByDriver | spark/driver/ExecutorAllocationManager/executors/numberExecutorsKilledByDriver |
| LiveListenerBus:queue.executorManagement.listenerProcessingTime | spark/driver/LiveListenerBus/queue/executorManagement/listenerProcessingTime |
| executor:bytesRead | spark/executor/bytesRead |
| executor:bytesWritten | spark/executor/bytesWritten |
| executor:cpuTime | spark/executor/cpuTime |
| executor:diskBytesSpilled | spark/executor/diskBytesSpilled |
| executor:jvmGCTime | spark/executor/jvmGCTime |
| executor:memoryBytesSpilled | spark/executor/memoryBytesSpilled |
| executor:recordsRead | spark/executor/recordsRead |
| executor:recordsWritten | spark/executor/recordsWritten |
| executor:runTime | spark/executor/runTime |
| executor:shuffleFetchWaitTime | spark/executor/shuffleFetchWaitTime |
| executor:shuffleRecordsRead | spark/executor/shuffleRecordsRead |
| executor:shuffleRecordsWritten | spark/executor/shuffleRecordsWritten |
| executor:shuffleRemoteBytesReadToDisk | spark/executor/shuffleRemoteBytesReadToDisk |
| executor:shuffleWriteTime | spark/executor/shuffleWriteTime |
| executor:succeededTasks | spark/executor/succeededTasks |
| ExecutorMetrics:MajorGCTime | spark/executor/ExecutorMetrics/MajorGCTime |
| ExecutorMetrics:MinorGCTime | spark/executor/ExecutorMetrics/MinorGCTime |
Systemmesswerte
| Messwert | Name im Metrics Explorer |
|---|---|
| agent:uptime | agent/uptime |
| cpu:utilization | cpu/utilization |
| disk:bytes_used | disk/bytes_used |
| disk:percent_used | disk/percent_used |
| memory:bytes_used | memory/bytes_used |
| memory:percent_used | memory/percent_used |
| network:tcp_connections | network/tcp_connections |
Spark-Messwerte ansehen
Wenn Sie Batchmesswerte ansehen möchten, klicken Sie auf der Seite Managed Service for Apache Spark Batches in der Google Cloud Console auf eine Batch-ID, um die Seite Details des Batches zu öffnen. Dort wird auf dem Tab Monitoring tab ein Messwertdiagramm für die Batcharbeitslast angezeigt.
Weitere Informationen zum Ansehen erfasster Messwerte finden Sie unter Managed Service for Apache Spark Cloud Monitoring.