Membuat cluster Dataproc menggunakan Google Cloud konsol
Halaman ini menunjukkan cara menggunakan konsol Google Cloud untuk membuat cluster Dataproc, menjalankan tugas Apache Spark dasar di cluster, lalu mengubah jumlah worker dalam cluster.
Untuk mengikuti panduan langkah demi langkah untuk tugas ini langsung di Google Cloud konsol, klik Pandu saya:
Sebelum memulai
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Pastikan Anda memiliki izin yang diperlukan untuk menyelesaikan panduan ini.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Dataproc API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles. -
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Pastikan Anda memiliki izin yang diperlukan untuk menyelesaikan panduan ini.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Dataproc API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles. -
Dataproc Editor (
roles/dataproc.editor) di project -
Pengguna Akun Layanan (
roles/iam.serviceAccountUser) di akun layanan default Compute Engine Di konsol Google Cloud , buka halaman Clusters Dataproc.
Klik Buat kluster.
Dalam dialog Create Dataproc cluster, klik Create di baris Cluster on Compute Engine.
Di kolom Cluster name, masukkan
example-cluster.Di daftar Region dan Zone, pilih region dan zona.
Pilih region (misalnya,
us-east1ataueurope-west1) untuk mengisolasi resource, seperti instance virtual machine (VM) dan Cloud Storage serta lokasi penyimpanan metadata yang digunakan oleh Dataproc, di region tersebut. Untuk informasi selengkapnya, lihat Region dan zona yang tersedia dan Endpoint regional.Untuk semua opsi lainnya, gunakan setelan default.
Untuk membuat cluster, klik Buat.
Cluster baru Anda akan muncul dalam daftar di halaman Clusters. Statusnya adalah Provisioning hingga cluster siap digunakan, lalu statusnya berubah menjadi Running. Penyediaan cluster mungkin memerlukan waktu beberapa menit.
- Di menu navigasi Dataproc, klik Jobs.
Di halaman Jobs, klik Submit job, lalu lakukan hal berikut:
- Di kolom Job ID, gunakan setelan default, atau berikan ID yang unik untuk project Google Cloud Anda.
- Di drop-down Cluster, pilih
example-cluster. - Untuk Job type, pilih Spark.
- Di kolom Main class or jar, masukkan
org.apache.spark.examples.SparkPi. - Di kolom File JAR, masukkan
file:///usr/lib/spark/examples/jars/spark-examples.jar. Di kolom Argumen, masukkan
1000untuk menetapkan jumlah tugas.Klik Kirim.
Tugas Anda akan ditampilkan di halaman Job details. Status tugas adalah Running atau Starting, lalu berubah menjadi Succeeded setelah tugas dikirimkan.
Untuk menghindari scrolling di output, klik Pengepasan baris: nonaktif. Outputnya mirip dengan berikut ini:
Pi is roughly 3.1416759514167594
Untuk melihat detail tugas, klik tab Konfigurasi.
- Di menu navigasi Dataproc, klik Clusters.
- Dalam daftar cluster, klik
example-cluster. Di halaman Cluster details, klik tab Configuration.
Setelan cluster Anda akan ditampilkan.
Klik Edit.
Di kolom Worker nodes, masukkan
5.Klik Simpan.
- Untuk menghapus cluster, di halaman Cluster details untuk
example-cluster, klik Delete. - Untuk mengonfirmasi bahwa Anda ingin menghapus cluster, klik Hapus.
- Coba panduan memulai ini dengan menggunakan alat lain:
- Pelajari cara membuat aturan firewall yang andal saat Anda membuat project.
- Pelajari cara menulis dan menjalankan tugas Spark Scala.
Peran yang diperlukan
Peran IAM tertentu diperlukan untuk menjalankan contoh di halaman ini. Bergantung pada kebijakan organisasi, peran ini mungkin sudah diberikan. Untuk memeriksa pemberian peran, lihat Apakah Anda perlu memberikan peran?.
Untuk mengetahui informasi selengkapnya tentang cara memberikan peran, lihat Mengelola akses ke project, folder, dan organisasi.
Peran pengguna
Untuk mendapatkan izin yang Anda perlukan untuk membuat cluster Dataproc, minta administrator untuk memberi Anda peran IAM berikut:
Peran akun layanan
Untuk memastikan bahwa akun layanan default Compute Engine memiliki izin yang diperlukan untuk membuat cluster Dataproc, minta administrator Anda untuk memberikan peran IAM Dataproc Worker (roles/dataproc.worker) kepada akun layanan default Compute Engine di project.
Membuat cluster
Mengirimkan tugas Spark
Kirimkan tugas Spark yang memperkirakan nilai Pi:
Mengupdate cluster
Perbarui cluster Anda dengan mengubah jumlah instance worker:
Cluster Anda berhasil diperbarui. Untuk mengurangi jumlah worker node ke nilai aslinya, ikuti prosedur yang sama.
Pembersihan
Agar akun Google Cloud Anda tidak dikenai biaya untuk resource yang digunakan pada halaman ini, ikuti langkah-langkah berikut.