Membuat pipeline data
Panduan memulai ini menunjukkan cara melakukan hal berikut:
- Membuat instance Cloud Data Fusion.
- Men-deploy pipeline contoh yang disediakan dengan instance Cloud Data Fusion Anda. Pipeline ini melakukan hal berikut:
- Membaca file JSON yang berisi data buku terlaris NYT dari Cloud Storage.
- Menjalankan transformasi pada file untuk mengurai dan membersihkan data.
- Memuat buku berperingkat teratas yang ditambahkan pada minggu lalu dan harganya kurang dari $25 ke BigQuery.
Sebelum memulai
Selesaikan langkah-langkah berikut sebelum membuat pipeline data.
Menyiapkan project
- Login ke akun Anda. Google Cloud Jika Anda baru menggunakan Google Cloud, buat akun untuk mengevaluasi performa produk kami dalam skenario dunia nyata. Pelanggan baru juga mendapatkan kredit gratis senilai $300 untuk menjalankan, menguji, dan men-deploy workload.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
Enable the Cloud Data Fusion API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles.-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
Enable the Cloud Data Fusion API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles.
Peran yang diperlukan
Untuk mendapatkan izin yang diperlukan untuk membuat instance Cloud Data Fusion dan mengelola pipeline,
minta administrator Anda untuk memberi Anda
peran IAM Admin Cloud Data Fusion (roles/datafusion.admin)
di project.
Untuk mengetahui informasi selengkapnya tentang cara memberikan peran, lihat Mengelola akses ke project, folder, dan organisasi.
Anda mungkin juga bisa mendapatkan izin yang diperlukan melalui peran khusus atau peran bawaan lainnya.
Untuk memastikan bahwa akun layanan default Compute Engine memiliki izin yang diperlukan untuk menjalankan tugas Dataproc, minta administrator Anda untuk memberikan peran IAM berikut ke akun layanan default Compute Engine di project Anda:
-
Pekerja Dataproc (
roles/dataproc.worker) -
Runner Cloud Data Fusion (
roles/datafusion.runner)
Untuk mengetahui informasi selengkapnya tentang cara memberikan peran, lihat Mengelola akses ke project, folder, dan organisasi.
Administrator Anda mungkin juga dapat memberikan izin yang diperlukan kepada akun layanan default Compute Engine melalui peran khusus atau peran bawaan lainnya.
Membuat instance Cloud Data Fusion
- Klik Create an instance.
- Masukkan Instance name.
- Masukkan Description untuk instance Anda.
- Masukkan Region tempat instance akan dibuat.
- Pilih Version Cloud Data Fusion yang akan digunakan.
- Pilih Edition Cloud Data Fusion.
- Untuk Cloud Data Fusion versi 6.2.3 dan yang lebih baru, di kolom Authorization, pilih Dataproc service account yang akan digunakan untuk menjalankan pipeline Cloud Data Fusion Anda di Dataproc. Nilai default, akun Compute Engine, adalah telah dipilih sebelumnya.
- Klik Create. Proses pembuatan instance memerlukan waktu hingga 30 menit. Saat Cloud Data Fusion membuat instance Anda, roda progres akan ditampilkan di samping nama instance di halaman Instances. Setelah selesai, roda progres akan berubah menjadi tanda centang hijau dan menunjukkan bahwa Anda dapat mulai menggunakan instance.
Membuka antarmuka web Cloud Data Fusion
Saat menggunakan Cloud Data Fusion, Anda menggunakan Google Cloud konsol dan antarmuka web Cloud Data Fusion terpisah.
Di Google Cloud konsol, Anda dapat melakukan hal berikut:
- Membuat project Google Cloud konsol
- Membuat dan menghapus instance Cloud Data Fusion
- Melihat detail instance Cloud Data Fusion
Di antarmuka web Cloud Data Fusion, Anda dapat menggunakan berbagai halaman, seperti Studio atau Wrangler, untuk menggunakan fungsi Cloud Data Fusion.
Untuk membuka antarmuka Cloud Data Fusion, ikuti langkah-langkah berikut:
- Di Google Cloud konsol, buka halaman Instances.
- Di kolom Actions instance, klik link View Instance.
- Di antarmuka web Cloud Data Fusion, gunakan panel navigasi kiri untuk membuka halaman yang Anda butuhkan.
Men-deploy pipeline contoh
Pipeline contoh tersedia melalui Hub Cloud Data Fusion, yang memungkinkan Anda berbagi pipeline, plugin, dan solusi Cloud Data Fusion yang dapat digunakan kembali.
- Di antarmuka web Cloud Data Fusion, klik Hub.
- Di panel kiri, klik Pipelines.
- Klik pipeline Cloud Data Fusion Quickstart.
- Klik Create.
- Di panel konfigurasi Cloud Data Fusion Quickstart, klik Finish.
Klik Customize Pipeline.
Representasi visual pipeline Anda akan muncul di halaman Studio , yang merupakan antarmuka grafis untuk mengembangkan pipeline integrasi data. Plugin pipeline yang tersedia tercantum di sebelah kiri, dan pipeline Anda ditampilkan di area kanvas utama. Anda dapat menjelajahi pipeline dengan mengarahkan kursor ke setiap node pipeline dan mengklik Properties. Menu properti untuk setiap node memungkinkan Anda melihat objek dan operasi yang terkait dengan node tersebut.
Di menu kanan atas, klik Deploy. Langkah ini akan mengirimkan pipeline ke Cloud Data Fusion. Anda akan menjalankan pipeline di bagian berikutnya dari panduan memulai ini.

Melihat pipeline
Pipeline yang di-deploy akan muncul dalam tampilan detail pipeline, tempat Anda dapat melakukan hal berikut:
- Melihat struktur dan konfigurasi pipeline.
- Menjalankan pipeline secara manual atau menyiapkan jadwal atau pemicu.
- Melihat ringkasan histori operasi pipeline, termasuk waktu eksekusi, log, dan metrik.

Menjalankan pipeline
Dalam tampilan detail pipeline, klik Run untuk menjalankan pipeline Anda.

Saat menjalankan pipeline, Cloud Data Fusion akan melakukan hal berikut:
- Menyediakan cluster Dataproc efemeral
- Menjalankan pipeline di cluster menggunakan Apache Spark
- Menghapus cluster
Melihat hasil
Setelah beberapa menit, pipeline akan selesai. Status pipeline berubah menjadi Succeeded dan jumlah rekaman yang diproses oleh setiap node akan ditampilkan.

- Buka antarmuka web BigQuery.
Untuk melihat contoh hasilnya, buka set data
DataFusionQuickstartdi project Anda, klik tabeltop_rated_inexpensive, lalu jalankan kueri sederhana. Contoh:SELECT * FROM PROJECT_ID.GCPQuickStart.top_rated_inexpensive LIMIT 10Ganti PROJECT_ID dengan project ID Anda.

Pembersihan
Agar akunAnda tidak dikenai biaya untuk resource yang digunakan pada halaman ini, ikuti langkah-langkah berikut. Google Cloud
- Hapus set data BigQuery yang ditulis oleh pipeline Anda dalam panduan memulai ini.
Opsional: Hapus project.
- Di Google Cloud konsol, buka halaman Manage resources.
- Pada daftar project, pilih project yang Anda ingin Anda hapus, lalu klik Delete.
- Pada dialog, ketik project ID, lalu klik Shut down untuk menghapus project.