Langsung ke konten utama
Google Cloud Documentation
Dokumentasi Area teknologi
  • AI dan ML
  • Pengembangan aplikasi
  • Hosting aplikasi
  • Compute
  • Analisis data dan pipeline
  • Database
  • Terdistribusi, hybrid, dan multicloud
  • AI Generatif
  • Solusi industri
  • Jaringan profesional
  • Kemampuan observasi dan pemantauan
  • Keamanan
  • Storage
Alat lintas produk
  • Pengelolaan akses dan resource
  • Pengelolaan biaya dan penggunaan
  • Google Cloud SDK, bahasa, framework, dan alat
  • Infrastruktur sebagai kode
  • Migrasi
/
Konsol
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Masuk
  • Dataproc
Mulai gratis
Panduan Referensi Contoh Referensi
Google Cloud Documentation
  • Dokumentasi
    • Panduan
    • Referensi
    • Contoh
    • Referensi
  • Area teknologi
    • Lainnya
  • Alat lintas produk
    • Lainnya
  • Konsol
  • Discover
  • Ringkasan produk
  • Konsep Utama
  • Komponen
    • Ringkasan
    • Delta Lake
    • Docker
    • Flink
    • HBase
    • WebHCat Hive
    • Hudi
    • Iceberg
    • Jupyter
    • Pig
    • Presto
    • Ranger
      • Menginstal Ranger
      • Menggunakan Ranger dengan Kerberos
      • Menggunakan Ranger dengan caching dan downscoping
      • Mencadangkan dan memulihkan skema Ranger
    • Solr
    • Trino
    • Zeppelin
    • Zookeeper
  • Layanan
  • Opsi Compute
    • Jenis mesin
    • GPU
    • Platform CPU minimal
    • Pekerja sekunder
    • Solid State Drive lokal
    • Boot disk
  • Pembuatan Versi
    • Ringkasan
    • Versi rilis 3.0.x
    • Versi rilis 2.3.x
    • Versi rilis 2.2.x
    • Versi rilis 2.1.x
    • Versi rilis 2.0.x
    • Daftar versi image cluster
  • Pertanyaan umum (FAQ)
  • Mulai
  • Menjalankan Spark di Dataproc
    • Menggunakan konsol
    • Menggunakan command line
    • Menggunakan REST API Explorer
      • Membuat cluster
      • Menjalankan tugas Spark
      • Memperbarui cluster
      • Hapus cluster
    • Menggunakan library klien
    • Menjalankan Spark menggunakan Kubernetes
  • Buat
  • Menyiapkan project
  • Menggunakan template Dataproc
  • Membuat cluster Dataproc
    • Membuat cluster
    • Membuat cluster dengan ketersediaan tinggi
    • Membuat cluster grup node
    • Membuat cluster parsial
    • Membuat cluster node tunggal
    • Membuat sole-tenant cluster
    • Membuat ulang cluster
    • Membuat image kustom
  • Membuat cluster Kubernetes
    • Ringkasan
    • Versi rilis
    • Membuat ulang cluster
    • Membuat node pool
    • Membuat image kustom
  • Membuat tabel Apache Iceberg dengan metadata di metastore BigQuery
  • Mengembangkan aplikasi
  • Apache Hadoop
  • Apache HBase
  • Apache Hive dan Kafka
  • Apache Spark
    • Mengonfigurasi
      • Mengelola dependensi Spark
      • Menyesuaikan lingkungan Spark
      • Mengaktifkan penulisan serentak
      • Meningkatkan performa Spark
      • Menyesuaikan Spark
    • Hubungkan
      • Menggunakan konektor Spark BigQuery
      • Menggunakan konektor Cloud Storage
      • Menggunakan konektor Spark Spanner
    • Menjalankan
      • Menggunakan HBase
      • Menggunakan simulasi Monte Carlo
      • Menggunakan Spark ML
      • Menggunakan Spark Scala
  • Menggunakan Notebook
    • Ringkasan
    • Menjalankan notebook Jupyter di cluster Dataproc
    • Menjalankan analisis genomik di notebook
    • Menggunakan ekstensi JupyterLab untuk mengembangkan workload Spark serverless
  • Python
    • Mengonfigurasi lingkungan
    • Menggunakan Library Klien Cloud
  • Trino
  • Deploy
  • Menjalankan tugas
    • Fungsi sebuah tugas
    • Kirim tugas
    • Memulai ulang tugas
    • Melihat histori tugas
  • Menggunakan template alur kerja
    • Ringkasan
    • Parameterisasi
    • Menggunakan file YAML
    • Menggunakan pemilih cluster
    • Menggunakan alur kerja inline
  • Mengorkestrasi alur kerja
    • Solusi penjadwalan alur kerja
    • Menggunakan template alur kerja Dataproc
    • Menggunakan Cloud Composer
    • Menggunakan Cloud Functions
    • Menggunakan Cloud Scheduler
  • Meningkatkan performa
    • Mengoptimalkan performa Spark
    • Metrik Dataproc
    • Membuat pemberitahuan metrik
    • Penggunaan resource profil
  • Kelola
  • Mengelola cluster
    • Memulai dan menghentikan cluster
      • Memulai dan menghentikan cluster secara manual
      • Menjadwalkan penghentian cluster
    • Memperbarui dan menghapus cluster
    • Rotasi cluster
    • Konfigurasi cluster
      • Menetapkan properti cluster
      • Pilih region
      • Memilih zona secara otomatis
      • Menentukan tindakan inisialisasi
      • Memprioritaskan jenis VM
      • Menjadwalkan penghapusan cluster
    • Menskalakan cluster
      • Menskalakan cluster
      • Melakukan penskalaan otomatis cluster
    • Kelola data
      • Penyimpanan data Hadoop
      • Pilih jenis penyimpanan
      • Menyimpan data cluster dalam cache
      • Mengurangi beban data shuffle
    • Mengelola jaringan
      • Mengonfigurasi jaringan
      • Jaringan cluster Dataproc dengan Private Service Connect
  • Mengelola cluster Kubernetes
    • Menskalakan cluster
    • Hapus cluster
  • Mengakses cluster
    • Menggunakan SSH
    • Terhubung ke antarmuka web
    • Menggunakan Gateway Komponen
    • Menetapkan akses Tenaga Kerja
  • Mengelola metadata dan label
    • Mengaktifkan silsilah data Spark
    • Mengaktifkan silsilah data Hive
    • Menetapkan metadata
    • Menetapkan label untuk pemfilteran
    • Menggunakan tag aman
  • Terhubung ke Dataproc
    • Memigrasikan Hadoop
    • Terhubung dengan BigQuery
      • Konektor BigQuery
      • Konektor Hive-BigQuery
      • Contoh kode
    • Terhubung dengan Bigtable
    • Terhubung dengan Cloud Storage
    • Terhubung dengan Pub/Sub Lite
  • Praktik terbaik produksi
  • Keamanan dan kepatuhan
  • Praktik keamanan terbaik
  • Mengautentikasi pengguna
    • Melakukan Autentikasi ke Dataproc
    • Mengautentikasi cluster pribadi
  • Menetapkan peran dan izin
    • Peran dan izin Dataproc
    • Entity utama Dataproc
    • IAM terperinci
    • Menetapkan peran untuk Kubernetes
  • Membuat akun layanan
  • Mengamankan cluster
    • Mengamankan multi-tenancy menggunakan Kerberos
    • Mengamankan multi-tenancy menggunakan akun layanan
    • Mengenkripsi memori
    • Mengelola kunci enkripsi data
    • Mengaktifkan layanan otorisasi Ranger
    • Menggunakan penyedia kredensial Secret Manager
    • Membuat dan mengamankan cluster metastore Hive
  • Membuat batasan kustom
  • Assured Workloads
  • Kepatuhan terhadap FedRAMP
  • Memeriksa penagihan
  • Memecahkan masalah
  • Ringkasan
  • Analisis log
    • Log Dataproc
    • Log output tugas
    • Log audit
  • Memecahkan masalah cluster
    • Melihat data diagnostik cluster
    • Memecahkan masalah pembuatan cluster
    • Mendiagnosis cluster Kubernetes
    • Mengaktifkan logging Kubernetes
  • Memecahkan masalah tugas
    • Memecahkan masalah tugas
    • Memecahkan masalah error memori
    • Memecahkan masalah penundaan tugas
    • Melihat histori tugas
    • Memecahkan masalah template Alur Kerja
  • AI dan ML
  • Pengembangan aplikasi
  • Hosting aplikasi
  • Compute
  • Analisis data dan pipeline
  • Database
  • Terdistribusi, hybrid, dan multicloud
  • AI Generatif
  • Solusi industri
  • Jaringan profesional
  • Kemampuan observasi dan pemantauan
  • Keamanan
  • Storage
  • Pengelolaan akses dan resource
  • Pengelolaan biaya dan penggunaan
  • Google Cloud SDK, bahasa, framework, dan alat
  • Infrastruktur sebagai kode
  • Migrasi
Halaman ini diterjemahkan oleh Cloud Translation API.
  • Home
  • Documentation
  • Data analytics
  • Dataproc
  • Panduan

Memigrasikan Hadoop
Tetap teratur dengan koleksi Simpan dan kategorikan konten berdasarkan preferensi Anda.

Untuk memigrasikan alur kerja dan data Apache Hadoop ke Google Cloud dan Dataproc, lihat dokumen berikut:

  • Memigrasikan Infrastruktur Hadoop Lokal ke Google Cloud
  • Memigrasikan Data HDFS dari Lokal ke Google Cloud

Kecuali dinyatakan lain, konten di halaman ini dilisensikan berdasarkan Lisensi Creative Commons Attribution 4.0, sedangkan contoh kode dilisensikan berdasarkan Lisensi Apache 2.0. Untuk mengetahui informasi selengkapnya, lihat Kebijakan Situs Google Developers. Java adalah merek dagang terdaftar dari Oracle dan/atau afiliasinya.

Terakhir diperbarui pada 2025-10-19 UTC.

  • Produk dan harga

    • Lihat semua produk
    • Harga Google Cloud
    • Google Cloud Marketplace
    • Hubungi bagian penjualan
  • Dukungan

    • Komunitas Google Cloud
    • Dukungan
    • Catatan Rilis
    • Status sistem
  • Referensi

    • GitHub
    • Mulai Menggunakan Google Cloud
    • Contoh kode
    • Pusat Arsitektur Cloud
    • Pelatihan dan Sertifikasi
  • Interaksi

    • Blog
    • Acara
    • X (Twitter)
    • Google Cloud di YouTube
    • Google Cloud Tech di YouTube
  • Tentang Google
  • Privasi
  • Persyaratan situs
  • Persyaratan Google Cloud
  • Manage cookies
  • Dekade ketiga aksi iklim Google: bergabunglah bersama kami
  • Daftar ke newsletter Google Cloud Berlangganan
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어