Membuat cluster menggunakan Google Cloud konsol
Halaman ini menunjukkan cara menggunakan Google Cloud konsol untuk membuat cluster Managed Service for Apache Spark, menjalankan tugas Apache Spark dasar di cluster, lalu mengubah jumlah worker dalam cluster.
Untuk mengikuti panduan langkah demi langkah untuk tugas ini langsung di Google Cloud konsol, klik Pandu saya:
Sebelum memulai
- Login keakun Anda. Google Cloud Jika Anda baru menggunakan Google Cloud, buat akun untuk mengevaluasi performa produk kami dalam skenario dunia nyata. Pelanggan baru juga mendapatkan kredit gratis senilai $300 untuk menjalankan, menguji, dan men-deploy workload.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Verify that you have the permissions required to complete this guide.
-
Verify that billing is enabled for your Google Cloud project.
Enable the Dataproc API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles.-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Verify that you have the permissions required to complete this guide.
-
Verify that billing is enabled for your Google Cloud project.
Enable the Dataproc API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles.
Peran yang diperlukan
Peran IAM tertentu diperlukan untuk menjalankan contoh di halaman ini. Bergantung pada kebijakan organisasi, peran ini mungkin sudah diberikan. Untuk memeriksa pemberian peran, lihat Apakah Anda perlu memberikan peran?.
Untuk mengetahui informasi selengkapnya tentang cara memberikan peran, lihat Mengelola akses ke project, folder, dan organisasi.
Peran pengguna
Untuk mendapatkan izin yang Anda perlukan untuk membuat cluster Managed Service for Apache Spark, minta administrator untuk memberi Anda peran IAM berikut:
-
Editor Dataproc (
roles/dataproc.editor) di project -
Pengguna Akun Layanan (
roles/iam.serviceAccountUser) di akun layanan default Compute Engine
Peran akun layanan
Untuk memastikan bahwa akun layanan default Compute Engine memiliki izin yang diperlukan untuk membuat cluster Managed Service for Apache Spark, minta administrator Anda untuk memberikan peran IAM Dataproc Worker (roles/dataproc.worker) ke akun layanan default Compute Engine di project.
Membuat cluster
Di Google Cloud konsol, buka halaman Clusters Managed Service for Apache Spark.
Klik Create cluster.
Di dialog Create Dataproc cluster, klik Create di baris Cluster on Compute Engine.
Di kolom Cluster name, masukkan
example-cluster.Dalam daftar Region dan Zone, pilih region dan zona.
Pilih region (misalnya,
us-east1ataueurope-west1) untuk mengisolasi resource, seperti instance virtual machine (VM) dan lokasi penyimpanan Cloud Storage dan metadata yang digunakan oleh Managed Service for Apache Spark, di region tersebut. Untuk mengetahui informasi selengkapnya, lihat Region dan zona yang tersedia dan Region cluster.Untuk semua opsi lainnya, gunakan setelan default.
Untuk membuat cluster, klik Create.
Cluster baru Anda akan muncul dalam daftar di halaman Clusters. Statusnya adalah Provisioning hingga cluster siap digunakan, lalu statusnya berubah menjadi Running. Penyediaan cluster mungkin memerlukan waktu beberapa menit.
Mengirim tugas Spark
Kirim tugas Spark yang memperkirakan nilai Pi:
- Di menu navigasi Managed Service for Apache Spark, klik Jobs.
Di halaman Jobs, klik Submit job, lalu lakukan hal berikut:
- Di kolom Job ID, gunakan setelan default, atau berikan ID yang unik untuk Google Cloud project Anda.
- Di drop-down Cluster, pilih
example-cluster. - Untuk Job type, pilih Spark.
- Di kolom Main class or jar, masukkan
org.apache.spark.examples.SparkPi. - Di kolom Jar files, masukkan
file:///usr/lib/spark/examples/jars/spark-examples.jar. Di kolom Arguments, masukkan
1000untuk menetapkan jumlah tugas.Klik Submit.
Tugas Anda akan ditampilkan di halaman Job details. Status tugas adalah Running atau Starting, lalu berubah menjadi Succeeded setelah dikirimkan.
Untuk menghindari scroll di output, klik Line wrap: off. Outputnya mirip dengan berikut:
Pi is roughly 3.1416759514167594
Untuk melihat detail tugas, klik tab Configuration.
Mengupdate cluster
Update cluster Anda dengan mengubah jumlah instance pekerja:
- Di menu navigasi Managed Service for Apache Spark, klik Clusters.
- Dalam daftar cluster, klik
example-cluster. Di halaman Cluster details, klik tab Configuration.
Setelan cluster Anda akan ditampilkan.
Klik Edit.
Di kolom Worker nodes, masukkan
5.Klik Save.
Cluster Anda berhasil diperbarui. Untuk mengurangi jumlah node pekerja ke nilai aslinya, ikuti prosedur yang sama.
Pembersihan
Agar akunAnda tidak dikenai biaya untuk resource yang digunakan pada halaman ini, ikuti langkah-langkah berikut. Google Cloud
- Untuk menghapus cluster, di halaman Cluster details
untuk
example-cluster, klik Delete. - Untuk mengonfirmasi bahwa Anda ingin menghapus cluster, klik Delete.
Langkah berikutnya
- Coba panduan memulai ini menggunakan alat lain:
- Pelajari cara membuat aturan firewall yang kuat saat Anda membuat project.
- Pelajari cara menulis dan menjalankan tugas Spark Scala.