Cloud Profiler terus mengumpulkan dan melaporkan informasi penggunaan CPU dan alokasi memori aplikasi.
Persyaratan:
Profiler hanya mendukung jenis tugas Dataproc Hadoop dan Spark (Spark, PySpark, SparkSql, dan SparkR).
Tugas harus berjalan lebih dari 3 menit agar Profiler dapat mengumpulkan dan mengupload data ke project Anda.
Dataproc recognizes cloud.profiler.enable and the other
cloud.profiler.* properties (see
Profiler options), and then appends
the relevant profiler JVM options to the following configurations:
- Spark:
spark.driver.extraJavaOptionsdanspark.executor.extraJavaOptions - MapReduce:
mapreduce.task.profiledan propertimapreduce.task.profile.*lainnya
Mengaktifkan pembuatan profil
Selesaikan langkah-langkah berikut untuk mengaktifkan dan menggunakan Profiler pada tugas Dataproc Spark dan Hadoop.
Buat cluster Dataproc dengan cakupan akun layanan yang ditetapkan ke
monitoringagar cluster dapat berkomunikasi dengan layanan profiler.Jika Anda menggunakan akun layanan VM kustom, berikan peran Agen Cloud Profiler ke akun layanan VM kustom. Peran ini berisi izin layanan profiler yang diperlukan.
gcloud
gcloud dataproc clusters create cluster-name \ --scopes=cloud-platform \ --region=region \ other args ...
Mengirimkan tugas Dataproc dengan opsi Profiler
- Kirimkan tugas Dataproc Spark atau Hadoop
dengan satu atau beberapa opsi Profiler berikut:
Opsi Deskripsi Nilai Wajib/Opsional Default Catatan cloud.profiler.enableMengaktifkan pembuatan profil tugas trueataufalseWajib falsecloud.profiler.nameNama yang digunakan untuk membuat profil di Layanan Profiler profile-name Opsional UUID tugas Dataproc cloud.profiler.service.versionString yang diberikan pengguna untuk mengidentifikasi dan membedakan hasil profiler. Profiler Service Version Opsional UUID tugas Dataproc mapreduce.task.profile.mapsRentang numerik tugas peta untuk pembuatan profil (contoh: untuk maksimal 100, tentukan "0-100") number range Opsional 0-10000 Hanya berlaku untuk tugas mapreduce Hadoop mapreduce.task.profile.reducesRentang numerik tugas pereduksi untuk pembuatan profil (contoh: untuk maksimal 100, tentukan "0-100") number range Opsional 0-10000 Hanya berlaku untuk tugas mapreduce Hadoop
Contoh PySpark
Google Cloud CLI
Contoh pengiriman tugas PySpark dengan pembuatan profil:
gcloud dataproc jobs submit pyspark python-job-file \ --cluster=cluster-name \ --region=region \ --properties=cloud.profiler.enable=true,cloud.profiler.name=profiler_name,cloud.profiler.service.version=version \ -- job args
Dua profil akan dibuat:
profiler_name-driveruntuk membuat profil tugas driver Sparkprofiler_name-executoruntuk membuat profil tugas eksekutor Spark
Misalnya, jika profiler_name adalah "spark_word_count_job",
spark_word_count_job-driver dan spark_word_count_job-executor
profil akan dibuat.
Contoh Hadoop
gcloud CLI
Contoh pengiriman tugas Hadoop (teragen mapreduce) dengan pembuatan profil:
gcloud dataproc jobs submit hadoop \ --cluster=cluster-name \ --region=region \ --jar=jar-file \ --properties=cloud.profiler.enable=true,cloud.profiler.name=profiler_name,cloud.profiler.service.version=version \ -- teragen 100000 gs://bucket-name
Melihat profil
Lihat profil dari Profiler di konsol Google Cloud .
Langkah berikutnya
- Lihat dokumentasi Monitoring
- Lihat dokumentasi Logging
- Pelajari Google Cloud Observability