Untuk menjalankan container Docker di node cluster Managed Service untuk Apache Spark, aktifkan komponen opsional Docker selama pembuatan cluster. Dokumen ini menjelaskan cara menginstal dan mengonfigurasi komponen Docker di Managed Service untuk Apache Spark.
Untuk mempelajari lebih lanjut komponen opsional lain yang tersedia di Managed Service untuk Apache Spark, lihat Komponen opsional yang tersedia.
Cara kerja komponen Docker
Saat Anda mengaktifkan komponen Docker Managed Service untuk Apache Spark, komponen ini akan menginstal a
daemon Docker
di setiap node cluster. Komponen ini juga menyiapkan pengguna dan grup Linux, yang keduanya bernama "docker", di setiap node untuk menjalankan daemon Docker. Selain itu, komponen ini
membuat layanan "docker" systemd
untuk menjalankan layanan dockerd. Anda harus menggunakan layanan systemd ini untuk mengelola siklus proses layanan Docker.
Menginstal komponen
Instal komponen saat Anda membuat cluster Managed Service untuk Apache Spark. Komponen Docker dapat diinstal di cluster yang dibuat dengan Managed Service untuk Apache Spark versi image 1.5 atau yang lebih baru.
Lihat Versi Managed Service untuk Apache Spark yang didukung untuk mengetahui versi komponen yang disertakan dalam setiap rilis image Managed Service untuk Apache Spark.
Perintah gcloud
Untuk membuat cluster Managed Service untuk Apache Spark yang menyertakan komponen Docker,
gunakan
gcloud dataproc clusters create cluster-name
perintah dengan tanda --optional-components.
gcloud dataproc clusters create cluster-name \ --optional-components=DOCKER \ --region=region \ --image-version=1.5 \ ... other flags
REST API
Komponen Docker dapat ditentukan melalui Managed Service untuk Apache Spark API menggunakan SoftwareConfig.Component sebagai bagian dari permintaan clusters.create.
Konsol
- Aktifkan komponen.
- Di Google Cloud konsol, buka halaman Managed Service untuk Apache Spark Create a cluster. Panel Set up cluster dipilih.
- Di bagian Components:
- Di bagian Optional components, pilih Docker dan komponen opsional lainnya untuk diinstal di cluster Anda.
Mengaktifkan Docker di YARN
Lihat Menyesuaikan lingkungan runtime tugas Spark dengan Docker di YARN untuk menggunakan image Docker yang disesuaikan dengan YARN.
Logging Docker
Secara default, komponen Docker Managed Service untuk Apache Spark menulis log ke
Cloud Logging dengan menetapkan gcplogs driver—lihat
Melihat log Anda.
Container Registry
Komponen Docker Managed Service untuk Apache Spark mengonfigurasi Docker untuk menggunakan Container Registry selain registry Docker default. Docker akan menggunakan helper kredensial Docker untuk melakukan autentikasi dengan Container Registry.
Menggunakan komponen Docker di cluster Kerberos
Anda dapat menginstal komponen opsional Docker di cluster yang dibuat dengan keamanan Kerberos diaktifkan.