Membuat cluster Dataproc menggunakan Google Cloud konsol
Halaman ini menunjukkan cara menggunakan konsol Google Cloud untuk membuat cluster Dataproc, menjalankan tugas Apache Spark dasar di cluster, lalu mengubah jumlah worker dalam cluster.
Untuk mengikuti panduan langkah demi langkah untuk tugas ini langsung di Google Cloud konsol, klik Pandu saya:
Sebelum memulai
- Login ke akun Google Cloud Anda. Jika Anda baru menggunakan Google Cloud, buat akun untuk mengevaluasi performa produk kami dalam skenario dunia nyata. Pelanggan baru juga mendapatkan kredit gratis senilai $300 untuk menjalankan, menguji, dan men-deploy workload.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Verify that you have the permissions required to complete this guide.
-
Verify that billing is enabled for your Google Cloud project.
Enable the Dataproc API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles.-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Verify that you have the permissions required to complete this guide.
-
Verify that billing is enabled for your Google Cloud project.
Enable the Dataproc API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles.
Peran yang diperlukan
Peran IAM tertentu diperlukan untuk menjalankan contoh di halaman ini. Bergantung pada kebijakan organisasi, peran ini mungkin sudah diberikan. Untuk memeriksa pemberian peran, lihat Apakah Anda perlu memberikan peran?.
Untuk mengetahui informasi selengkapnya tentang pemberian peran, lihat Mengelola akses ke project, folder, dan organisasi.
Peran pengguna
Untuk mendapatkan izin yang Anda perlukan untuk membuat cluster Dataproc, minta administrator untuk memberi Anda peran IAM berikut:
-
Dataproc Editor (
roles/dataproc.editor) di project -
Pengguna Akun Layanan (
roles/iam.serviceAccountUser) di akun layanan default Compute Engine
Peran akun layanan
Untuk memastikan bahwa akun layanan default Compute Engine memiliki izin yang diperlukan untuk membuat cluster Dataproc, minta administrator Anda untuk memberikan peran IAM Dataproc Worker (roles/dataproc.worker) kepada akun layanan default Compute Engine di project.
Membuat cluster
Di konsol Google Cloud , buka halaman Clusters Dataproc.
Klik Buat kluster.
Dalam dialog Create Dataproc cluster, klik Create di baris Cluster on Compute Engine.
Di kolom Cluster name, masukkan
example-cluster.Di daftar Region dan Zone, pilih region dan zona.
Pilih region (misalnya,
us-east1ataueurope-west1) untuk mengisolasi resource, seperti instance virtual machine (VM) dan Cloud Storage serta lokasi penyimpanan metadata yang digunakan oleh Dataproc, di region tersebut. Untuk informasi selengkapnya, lihat Region dan zona yang tersedia dan Region cluster.Untuk semua opsi lainnya, gunakan setelan default.
Untuk membuat cluster, klik Buat.
Cluster baru Anda akan muncul dalam daftar di halaman Clusters. Statusnya adalah Provisioning hingga cluster siap digunakan, lalu statusnya berubah menjadi Running. Penyediaan cluster mungkin memerlukan waktu beberapa menit.
Mengirimkan tugas Spark
Kirimkan tugas Spark yang memperkirakan nilai Pi:
- Di menu navigasi Dataproc, klik Jobs.
Di halaman Jobs, klik Submit job, lalu lakukan hal berikut:
- Di kolom Job ID, gunakan setelan default, atau berikan ID yang unik untuk project Google Cloud Anda.
- Di drop-down Cluster, pilih
example-cluster. - Untuk Job type, pilih Spark.
- Di kolom Main class or jar, masukkan
org.apache.spark.examples.SparkPi. - Di kolom File JAR, masukkan
file:///usr/lib/spark/examples/jars/spark-examples.jar. Di kolom Argumen, masukkan
1000untuk menetapkan jumlah tugas.Klik Kirim.
Tugas Anda akan ditampilkan di halaman Job details. Status tugas adalah Running atau Starting, lalu berubah menjadi Succeeded setelah tugas dikirimkan.
Untuk menghindari scrolling di output, klik Pengepasan baris: nonaktif. Outputnya mirip dengan berikut ini:
Pi is roughly 3.1416759514167594
Untuk melihat detail tugas, klik tab Konfigurasi.
Mengupdate cluster
Perbarui cluster Anda dengan mengubah jumlah instance worker:
- Di menu navigasi Dataproc, klik Clusters.
- Dalam daftar cluster, klik
example-cluster. Di halaman Cluster details, klik tab Configuration.
Setelan cluster Anda akan ditampilkan.
Klik Edit.
Di kolom Worker nodes, masukkan
5.Klik Simpan.
Cluster Anda berhasil diperbarui. Untuk mengurangi jumlah worker node ke nilai aslinya, ikuti prosedur yang sama.
Pembersihan
Agar akun Google Cloud Anda tidak dikenai biaya untuk resource yang digunakan pada halaman ini, ikuti langkah-langkah berikut.
- Untuk menghapus cluster, di halaman Cluster details untuk
example-cluster, klik Delete. - Untuk mengonfirmasi bahwa Anda ingin menghapus cluster, klik Hapus.
Langkah berikutnya
- Coba panduan memulai ini dengan menggunakan alat lain:
- Pelajari cara membuat aturan firewall yang tangguh saat Anda membuat project.
- Pelajari cara menulis dan menjalankan tugas Spark Scala.