Dokumen ini menjelaskan praktik terbaik dan pertimbangan untuk mengupgrade Google Distributed Cloud. Anda akan mempelajari cara mempersiapkan upgrade cluster, dan praktik terbaik yang harus diikuti sebelum upgrade. Praktik terbaik ini membantu mengurangi risiko yang terkait dengan upgrade cluster.
Jika Anda memiliki beberapa lingkungan seperti test, development, dan production, sebaiknya mulai dengan lingkungan yang paling tidak penting, seperti test, dan verifikasi fungsi upgrade. Setelah Anda memverifikasi bahwa upgrade berhasil, lanjutkan ke lingkungan berikutnya. Ulangi proses ini hingga Anda mengupgrade lingkungan produksi. Dengan pendekatan ini, Anda dapat berpindah dari satu titik penting ke titik penting berikutnya, dan memverifikasi bahwa upgrade dan beban kerja Anda berjalan dengan benar.
Checklist upgrade
Untuk membuat proses upgrade selancar mungkin, tinjau dan selesaikan pemeriksaan berikut sebelum Anda mulai mengupgrade cluster:
Merencanakan upgrade
Update dapat mengganggu. Sebelum memulai upgrade, rencanakan dengan cermat untuk memastikan lingkungan dan aplikasi Anda sudah siap. Anda mungkin juga perlu menjadwalkan upgrade setelah jam kerja normal saat traffic paling lengang.
Perkirakan komitmen waktu dan rencanakan masa pemeliharaan
Secara default, semua node pool diupgrade secara paralel. Namun, dalam setiap node pool, node diupgrade secara berurutan karena setiap node harus dikosongkan dan dibuat ulang. Jadi, total waktu untuk upgrade bergantung pada jumlah node di node pool terbesar. Untuk menghitung perkiraan kasar waktu upgrade, kalikan 15 menit dengan jumlah node di node pool terbesar. Misalnya, jika Anda memiliki 10 node di pool terbesar, total waktu upgrade adalah sekitar 15 * 10 = 150 menit atau 2,5 jam.
Berikut beberapa cara untuk mengurangi waktu upgrade dan mempermudah perencanaan serta penjadwalan upgrade:
Di versi 1.28 dan yang lebih baru, Anda dapat mempercepat upgrade dengan menyetel nilai
maxSurge
untuk setiap node pool. Saat Anda mengupgrade node denganmaxSurge
, beberapa node diupgrade dalam waktu yang sama dengan yang diperlukan untuk mengupgrade satu node.Jika cluster Anda menggunakan versi 1.16 atau yang lebih tinggi, Anda dapat melewati versi minor saat mengupgrade node pool. Melakukan upgrade lewati versi akan mengurangi waktu yang diperlukan untuk mengupgrade node pool dua versi secara berurutan menjadi setengahnya. Selain itu, upgrade melewati versi memungkinkan Anda meningkatkan waktu antara upgrade yang diperlukan untuk tetap menggunakan versi yang didukung. Mengurangi jumlah upgrade akan mengurangi gangguan workload dan waktu verifikasi. Untuk mengetahui informasi selengkapnya, lihat Melewati versi saat mengupgrade node pool.
Anda dapat mengupgrade bidang kontrol cluster pengguna secara terpisah dari node pool. Dengan fleksibilitas ini, Anda dapat merencanakan beberapa masa pemeliharaan yang lebih singkat, bukan satu masa pemeliharaan yang panjang, untuk mengupgrade seluruh cluster. Untuk mengetahui detailnya, lihat Mengupgrade node pool.
Mencadangkan cluster pengguna dan admin
Sebelum memulai upgrade, cadangkan cluster pengguna dan admin Anda.
Pencadangan cluster pengguna adalah snapshot penyimpanan etcd cluster pengguna. Penyimpanan etcd berisi semua objek Kubernetes dan objek kustom yang diperlukan untuk mengelola status cluster. Snapshot berisi data yang diperlukan untuk membuat ulang komponen dan workload cluster. Untuk mengetahui informasi selengkapnya, lihat cara mencadangkan cluster pengguna.
Dengan Google Distributed Cloud versi 1.8 dan yang lebih baru, Anda dapat menyiapkan pencadangan otomatis dengan
clusterBackup.datastore
dalam file konfigurasi cluster admin. Untuk mengaktifkan fitur ini di cluster yang ada, edit file konfigurasi cluster admin dan tambahkan kolom clusterBackup.datastore
, lalu jalankan gkectl update admin
.
Setelah clusterBackup.datastore
diaktifkan, cluster admin Anda akan otomatis
dicadangkan di etcd
pada penyimpanan data vSphere yang dikonfigurasi. Proses pencadangan ini
diulang setiap kali ada perubahan pada cluster admin. Saat Anda memulai upgrade cluster, tugas pencadangan akan berjalan sebelum mengupgrade cluster.
Untuk memulihkan cluster admin dari cadangannya jika Anda mengalami masalah, lihat
Mencadangkan dan memulihkan cluster admin dengan gkectl
.
Meninjau penggunaan PodDisruptionBudgets
Di Kubernetes, PodDisruptionBudgets
(PDB) dapat membantu mencegah gangguan atau waktu nonaktif aplikasi yang tidak diinginkan. PDB menginstruksikan penjadwal untuk selalu menjalankan sejumlah Pod, sementara Pod lainnya mungkin gagal. Perilaku ini adalah
cara yang berguna untuk menyediakan ketersediaan aplikasi.
Untuk memeriksa PDB yang dikonfigurasi di cluster Anda, gunakan perintah
kubectl get pdb
:kubectl get pdb -A --kubeconfig KUBECONFIG
Ganti
KUBECONFIG
dengan nama file kubeconfig Anda.Contoh output berikut menunjukkan PDB bernama
istio-ingress
,istiod
, dankube-dns
:NAMESPACE NAME MIN AVAILABLE MAX UNAVAILABLE ALLOWED DISRUPTIONS AGE gke-system istio-ingress 1 N/A 1 16d gke-system istiod 1 N/A 1 16d kube-system kube-dns 1 N/A 1 16d
Dalam tabel sebelumnya, setiap PDB menentukan bahwa setidaknya satu Pod harus selalu tersedia. Ketersediaan ini menjadi sangat penting selama upgrade saat node dikuras.
Periksa PDB yang tidak dapat dipenuhi. Misalnya, Anda dapat menetapkan ketersediaan minimum 1, saat Deployment hanya menampilkan 1 replika. Dalam contoh ini, operasi pengurasan terganggu karena PDB tidak dapat dipenuhi oleh pengontrol resource.
Untuk memastikan bahwa PDB tidak mengganggu prosedur upgrade, periksa semua PDB pada cluster tertentu sebelum Anda memulai upgrade. Anda mungkin perlu berkoordinasi dengan tim pengembangan dan pemilik aplikasi untuk mengubah atau menonaktifkan PDB sementara selama upgrade cluster.
Google Distributed Cloud menjalankan pemeriksaan pra-penerbangan selama proses upgrade untuk memperingatkan tentang PDB. Namun, Anda juga harus memverifikasi PDB secara manual untuk memastikan pengalaman upgrade yang lancar. Untuk mempelajari PDB lebih lanjut, lihat Menentukan Anggaran Gangguan untuk Aplikasi Anda.
Meninjau alamat IP yang tersedia
Pertimbangan alamat IP berikut berlaku untuk upgrade cluster pengguna dan cluster admin non-HA (yaitu, cluster admin yang tidak memiliki ketersediaan tinggi):
Proses upgrade cluster membuat node baru dan mengosongkan resource sebelum menghapus node lama. Sebaiknya Anda selalu memiliki N+1 alamat IP untuk cluster, dengan N adalah jumlah node dalam cluster. Rekomendasi ini hanya berlaku untuk cluster admin non-HA (yang hanya memiliki satu node bidang kontrol) dan cluster pengguna.
Saat menggunakan alamat IP statis, alamat IP yang diperlukan harus tercantum dalam file blok IP.
- Saat mengupgrade cluster admin non-HA, tambahkan alamat IP tambahan dalam
file blok IP yang digunakan oleh cluster admin. Jalur ke file ini harus
ditentukan di kolom
network.ipMode.ipBlockFilePath
pada file konfigurasi cluster admin. - Saat mengupgrade cluster pengguna, tambahkan alamat IP tambahan dalam file blok IP yang digunakan oleh cluster pengguna. Jalur ke file ini harus
ditentukan di kolom
network.ipMode.ipBlockFilePath
pada file konfigurasi cluster pengguna.
- Saat mengupgrade cluster admin non-HA, tambahkan alamat IP tambahan dalam
file blok IP yang digunakan oleh cluster admin. Jalur ke file ini harus
ditentukan di kolom
Jika Anda menggunakan DHCP, pastikan VM baru dapat memperoleh lease IP tambahan di subnet yang berlaku selama upgrade.
Jika Anda perlu menambahkan alamat IP, perbarui file blok IP, lalu jalankan perintah
gkectl update
. Untuk mengetahui informasi selengkapnya, lihat Merencanakan alamat IP Anda.Jika Anda menggunakan alamat IP statis dan ingin mempercepat proses upgrade cluster pengguna, cantumkan alamat IP yang cukup dalam file blok IP Anda sehingga setiap kumpulan node dapat memiliki alamat IP tambahan yang tersedia. Pendekatan ini memungkinkan proses mempercepat prosedur penambahan dan penghapusan VM karena dilakukan berdasarkan per node pool.
Meskipun pendekatan ini merupakan opsi yang baik untuk mempercepat upgrade cluster pengguna, pertimbangkan ketersediaan resource dan performa lingkungan vSphere Anda sebelum melanjutkan.
Jika hanya ada satu IP cadangan untuk seluruh cluster pengguna, batasan ini memperlambat proses upgrade menjadi hanya satu VM dalam satu waktu, meskipun beberapa kumpulan node digunakan.
Cluster admin HA tidak memerlukan alamat IP N+1 untuk upgrade. Tiga node bidang kontrol di cluster admin HA dibuat ulang satu per satu, sehingga tidak memerlukan alamat IP tambahan.
Memeriksa pemanfaatan cluster
Pastikan Pod dapat dievakuasi saat node dikuras dan ada cukup resource di cluster yang diupgrade untuk mengelola upgrade. Untuk memeriksa penggunaan resource cluster saat ini, Anda dapat menggunakan dasbor kustom di Google Cloud Observability, atau langsung di cluster menggunakan perintah seperti kubectl top nodes
.
Perintah yang Anda jalankan terhadap cluster akan menampilkan snapshot penggunaan resource cluster saat ini. Dasbor dapat memberikan tampilan yang lebih mendetail tentang resource yang digunakan dari waktu ke waktu. Data penggunaan resource ini dapat membantu menunjukkan kapan upgrade akan menyebabkan gangguan paling kecil, seperti selama akhir pekan atau malam hari, bergantung pada beban kerja yang berjalan dan kasus penggunaan.
Waktu untuk upgrade cluster admin mungkin tidak terlalu penting dibandingkan dengan cluster pengguna, karena upgrade cluster admin biasanya tidak menyebabkan periode istirahat aplikasi. Namun, Anda tetap harus memeriksa ketersediaan resource gratis di vSphere sebelum memulai upgrade cluster admin. Selain itu, mengupgrade cluster admin dapat menimbulkan risiko tertentu, sehingga upgrade sebaiknya dilakukan selama periode penggunaan yang kurang aktif saat akses pengelolaan ke cluster tidak terlalu penting.
Untuk mengetahui informasi selengkapnya, lihat layanan apa yang terpengaruh selama upgrade cluster.
Memeriksa pemanfaatan vSphere
Pastikan ada cukup resource pada infrastruktur vSphere yang mendasarinya. Untuk memeriksa penggunaan resource ini, pilih cluster di vCenter dan tinjau tab Summary.
Tab ringkasan menampilkan konsumsi memori, CPU, dan penyimpanan secara keseluruhan dari seluruh cluster. Karena upgrade Google Distributed Cloud memerlukan resource tambahan, Anda juga harus memeriksa apakah cluster dapat menangani permintaan resource tambahan ini.
Sebagai aturan umum, cluster vSphere Anda harus dapat mendukung resource tambahan berikut:
- +1 VM per upgrade cluster admin
- +1 VM per node pool per upgrade cluster pengguna
Misalnya, asumsikan bahwa cluster pengguna memiliki 3 kumpulan node yang setiap kumpulan nodenya memiliki node yang menggunakan 8 vCPU dan RAM 32 GB atau lebih. Karena upgrade terjadi secara paralel untuk 3 node pool secara default, prosedur upgrade menggunakan resource tambahan berikut untuk 3 node lonjakan tambahan:
- 24 vCPU
- RAM 96 GB
- Ruang disk VM + vSwap 96 GB
Proses upgrade membuat VM menggunakan operasi clone vSphere. Meng-clone beberapa VM dari template dapat menimbulkan tekanan pada sistem penyimpanan yang mendasarinya dalam bentuk peningkatan operasi I/O. Upgrade dapat sangat melambat jika subsistem penyimpanan yang mendasarinya tidak mampu memberikan performa yang memadai selama upgrade.
Meskipun vSphere didesain untuk penggunaan resource secara bersamaan dan memiliki mekanisme untuk menyediakan resource, bahkan saat over-committed, sebaiknya jangan over-commit memori VM. Penggunaan memori yang berlebihan dapat menyebabkan dampak performa yang serius dan memengaruhi seluruh cluster karena vSphere menyediakan "RAM yang hilang" dari penukaran halaman ke datastore. Perilaku ini dapat menyebabkan masalah selama upgrade cluster, dan menyebabkan dampak performa pada VM lain yang berjalan di cluster vSphere.
Jika resource yang tersedia sudah langka, matikan VM yang tidak diperlukan untuk membantu memenuhi persyaratan tambahan ini dan mencegah potensi penurunan performa.
Memeriksa kondisi dan konfigurasi cluster
Jalankan alat berikut di semua cluster sebelum upgrade:
Perintah
gkectl diagnose
:gkectl diagnose
memastikan semua cluster responsif. Perintah ini menjalankan pemeriksaan lanjutan, seperti mengidentifikasi node yang tidak dikonfigurasi dengan benar, atau yang memiliki Pod dalam status macet. Jika perintahgkectl diagnose
menampilkan peringatanCluster unhealthy
, perbaiki masalahnya sebelum Anda mencoba melakukan upgrade. Untuk mengetahui informasi selengkapnya, lihat Mendiagnosis masalah cluster.Alat pra-upgrade: selain memeriksa konfigurasi dan kondisi cluster, alat pra-upgrade juga memeriksa potensi masalah umum yang dapat terjadi selama upgrade cluster.
Selain itu, saat mengupgrade cluster pengguna ke 1.29 dan yang lebih tinggi, sebaiknya Anda menjalankan perintah gkectl upgrade cluster
dengan flag --dry-run
. Flag --dry-run
menjalankan
pemeriksaan awal
tetapi tidak memulai proses upgrade. Meskipun versi Google Distributed Cloud sebelumnya menjalankan pemeriksaan awal, pemeriksaan tersebut tidak dapat dijalankan secara terpisah dari upgrade. Dengan menambahkan tanda --dry-run
, Anda dapat menemukan dan memperbaiki masalah apa pun yang ditemukan oleh pemeriksaan pra-penerbangan pada cluster pengguna sebelum upgrade.
Menggunakan Deployment untuk meminimalkan gangguan aplikasi
Karena node perlu dikosongkan selama update, upgrade cluster dapat menyebabkan gangguan aplikasi. Mengosongkan node berarti semua Pod yang berjalan harus dimatikan dan dimulai ulang di node yang tersisa dalam cluster.
Jika memungkinkan, aplikasi Anda harus menggunakan Deployment. Dengan pendekatan ini, aplikasi dirancang untuk menangani gangguan. Dampak apa pun harus minimal pada Deployment yang memiliki beberapa replika. Anda masih dapat mengupgrade cluster jika aplikasi tidak menggunakan Deployment.
Ada juga aturan untuk Deployment guna memastikan sejumlah replika selalu berjalan. Aturan ini dikenal sebagai PodDisruptionBudgets
(PDB). PDB memungkinkan Anda membatasi gangguan pada workload saat Pod-nya
harus dijadwalkan ulang karena beberapa alasan, seperti upgrade atau pemeliharaan pada
node cluster, dan penting untuk diperiksa sebelum upgrade.
Menggunakan pasangan load balancer dengan ketersediaan tinggi
Jika Anda menggunakan Seesaw sebagai load balancer di cluster, load balancer akan diupgrade secara otomatis saat Anda mengupgrade cluster. Upgrade ini dapat menyebabkan gangguan layanan. Untuk mengurangi dampak upgrade dan kegagalan load balancer pada akhirnya, Anda dapat menggunakan pasangan ketersediaan tinggi (pasangan HA). Dalam konfigurasi ini, sistem membuat dan mengonfigurasi dua VM load balancer sehingga failover ke peer lain dapat terjadi.
Untuk meningkatkan ketersediaan layanan (yaitu, ke server Kubernetes API), sebaiknya Anda selalu menggunakan pasangan HA di depan cluster admin. Untuk mempelajari Seesaw dan konfigurasi HA-nya lebih lanjut, lihat dokumentasi versi 1.16 Load balancing gabungan dengan Seesaw.
Untuk mencegah gangguan layanan selama upgrade dengan pasangan HA, cluster memulai failover sebelum membuat VM load balancer baru. Jika cluster pengguna hanya menggunakan satu instance load balancer, gangguan layanan akan terjadi hingga upgrade untuk load balancer selesai.
Sebaiknya Anda memiliki pasangan load balancer HA jika cluster pengguna itu sendiri juga dikonfigurasi agar memiliki ketersediaan tinggi. Seri praktik terbaik ini mengasumsikan bahwa cluster pengguna HA menggunakan pasangan load balancer HA.
Jika Anda menggunakan MetalLB sebagai load balancer yang dipaketkan, tidak diperlukan penyiapan pra-upgrade. Load balancer diupgrade selama proses upgrade cluster.
Menentukan cara mengupgrade setiap cluster pengguna
Pada versi 1.14 dan yang lebih baru, Anda dapat memilih untuk mengupgrade cluster pengguna secara keseluruhan (artinya, Anda dapat mengupgrade bidang kontrol dan semua node pool dalam cluster), atau Anda dapat mengupgrade bidang kontrol cluster pengguna dan membiarkan node pool pada versi saat ini. Untuk mengetahui informasi tentang alasan Anda mungkin ingin mengupgrade bidang kontrol secara terpisah, lihat Upgrade cluster pengguna.
Dalam lingkungan multi-cluster, pantau cluster pengguna mana yang telah diupgrade dan catat nomor versinya. Jika Anda memutuskan untuk mengupgrade bidang kontrol dan node pool secara terpisah, catat versi bidang kontrol dan setiap node pool di setiap cluster.
Memeriksa versi cluster pengguna dan admin
gkectl
Untuk memeriksa versi cluster pengguna:
gkectl list clusters --kubeconfig ADMIN_CLUSTER_KUBECONFIG
Ganti
ADMIN_CLUSTER_KUBECONFIG
dengan jalur file kubeconfig untuk cluster admin Anda.Untuk memeriksa versi cluster admin:
gkectl list admin --kubeconfig ADMIN_CLUSTER_KUBECONFIG
gcloud CLI
Untuk cluster yang terdaftar di GKE On-Prem API, Anda dapat menggunakan gcloud CLI untuk mendapatkan versi cluster pengguna, node pool di cluster pengguna, dan cluster admin.
Pastikan Anda memiliki gcloud CLI versi terbaru. Update komponen gcloud CLI, jika diperlukan:
gcloud components update
Jalankan perintah berikut untuk memeriksa versi:
Untuk memeriksa versi cluster pengguna:
gcloud container vmware clusters list \ --project=PROJECT_ID \ --location=-
Ganti
PROJECT_ID
dengan project ID project host fleet Anda.Jika Anda menetapkan
--location=-
, artinya mencantumkan semua cluster di semua wilayah. Jika Anda perlu mempersempit cakupan daftar, tetapkan--location
ke region yang Anda tentukan saat mendaftarkan cluster.Output perintah mencakup versi cluster.
Untuk memeriksa versi cluster admin:
gcloud container vmware admin-clusters list \ --project=PROJECT_ID \ --location=-
Periksa versi node cluster:
Anda dapat menggunakan kubectl
untuk mendapatkan versi node cluster, tetapi kubectl
akan menampilkan versi Kubernetes. Untuk mendapatkan versi Google Distributed Cloud yang sesuai dengan versi Kubernetes, lihat Pembuatan Versi.
kubectl get nodes --kubeconfig USER_CLUSTER_KUBECONFIG
Ganti USER_CLUSTER_KUBECONFIG
dengan jalur file kubeconfig untuk cluster pengguna Anda.
Memeriksa apakah sertifikat CA perlu diubah
Selama upgrade, sertifikat leaf dirotasi, tetapi sertifikat CA tidak. Anda harus merotasi sertifikat CA secara manual setidaknya sekali setiap lima tahun. Untuk mengetahui informasi selengkapnya, lihat Merotasi otoritas sertifikat cluster pengguna dan Merotasi sertifikat CA cluster admin.
Perbedaan antara jenis cluster
Ada dua jenis cluster yang berbeda:
- Cluster pengguna
- Cluster admin
Bergantung pada cara Anda membuat cluster pengguna, cluster tersebut dapat berisi worker node dan node bidang kontrol (Controlplane V2) atau hanya worker node (kubeception). Dengan kubeception, bidang kontrol untuk cluster pengguna berjalan di satu atau beberapa node dalam cluster admin. Dalam kedua kasus tersebut, di versi 1.14 dan yang lebih baru, Anda dapat mengupgrade bidang kontrol cluster pengguna secara terpisah dari node pool yang menjalankan workload Anda.
Efek berbeda dari upgrade cluster pengguna versus upgrade cluster admin
Prosedur upgrade Google Distributed Cloud melibatkan proses pengurasan node yang menghapus semua Pod dari node. Proses ini membuat VM baru untuk setiap node pekerja yang dikuras dan menambahkannya ke cluster. Node pekerja yang dikuras kemudian dihapus dari inventaris VMware. Selama proses ini, workload apa pun yang berjalan di node ini akan dihentikan dan dimulai ulang di node lain yang tersedia di cluster.
Bergantung pada arsitektur beban kerja yang dipilih, prosedur ini mungkin berdampak pada ketersediaan aplikasi. Untuk menghindari terlalu banyak tekanan pada kemampuan resource cluster, Google Distributed Cloud mengupgrade satu node dalam satu waktu.
Gangguan cluster pengguna
Tabel berikut menjelaskan dampak upgrade cluster pengguna di tempat:
Fungsi | Cluster admin | Cluster pengguna non-HA | Cluster pengguna HA |
---|---|---|---|
Akses Kubernetes API | Tidak terpengaruh | Tidak terpengaruh | Tidak terpengaruh |
Workload pengguna | Tidak terpengaruh | Tidak terpengaruh | Tidak terpengaruh |
PodDisruptionBudgets* | Tidak terpengaruh | Tidak terpengaruh | Tidak terpengaruh |
Node bidang kontrol | Tidak terpengaruh | Terpengaruh | Tidak terpengaruh |
Autoscaler pod (VMware) | Tidak terpengaruh | Tidak terpengaruh | Tidak terpengaruh |
Perbaikan otomatis | Tidak terpengaruh | Tidak terpengaruh | Tidak terpengaruh |
Penskalaan otomatis node (VMware) | Tidak terpengaruh | Tidak terpengaruh | Tidak terpengaruh |
Penskalaan otomatis Pod horizontal | Terpengaruh | Terpengaruh | Tidak terpengaruh |
- * : PDB dapat menyebabkan upgrade gagal atau berhenti.
- Terpengaruh: gangguan layanan selama upgrade akan terasa hingga upgrade selesai.
- Tidak terpengaruh: gangguan layanan mungkin terjadi dalam waktu yang sangat singkat, tetapi hampir tidak terasa.
Node bidang kontrol cluster pengguna, baik yang berjalan di cluster admin (kubeception) atau cluster pengguna itu sendiri (Controlplane V2), tidak menjalankan beban kerja pengguna. Selama upgrade, node bidang kontrol ini akan dihabiskan dan kemudian diupdate sebagaimana mestinya.
Di lingkungan dengan bidang kontrol ketersediaan tinggi (HA), mengupgrade bidang kontrol cluster pengguna tidak akan mengganggu workload pengguna. Di lingkungan HA, mengupgrade cluster admin tidak mengganggu beban kerja pengguna. Untuk cluster pengguna yang menggunakan Controlplane V2, mengupgrade hanya bidang kontrol tidak akan mengganggu workload pengguna.
Selama upgrade di lingkungan bidang kontrol non-HA, bidang kontrol tidak dapat mengontrol tindakan penskalaan, pemulihan, atau deployment Pod. Selama gangguan singkat bidang kontrol selama upgrade, workload pengguna dapat terpengaruh jika berada dalam status penskalaan, deployment, atau pemulihan. Artinya, peluncuran akan gagal selama upgrade di lingkungan non-HA.
Untuk meningkatkan ketersediaan dan mengurangi gangguan pada cluster pengguna produksi selama upgrade, sebaiknya gunakan tiga node bidang kontrol (mode ketersediaan tinggi).
Gangguan cluster admin
Tabel berikut menjelaskan dampak upgrade cluster admin di tempat:
Fungsi | Cluster admin | Cluster pengguna non-HA | Cluster pengguna HA |
---|---|---|---|
Akses Kubernetes API | Terpengaruh | Terpengaruh | Tidak terpengaruh |
Workload pengguna | Tidak terpengaruh | Tidak terpengaruh | Tidak terpengaruh |
Node bidang kontrol | Terpengaruh | Terpengaruh | Tidak terpengaruh |
Penskala Otomatis Pod | Terpengaruh | Terpengaruh | Tidak terpengaruh |
Bengkel Mobil | Terpengaruh | Terpengaruh | Tidak terpengaruh |
Penskalaan otomatis node | Terpengaruh | Terpengaruh | Tidak terpengaruh |
Penskalaan otomatis Pod horizontal | Terpengaruh | Terpengaruh | Tidak terpengaruh |
- Terpengaruh: gangguan layanan selama upgrade akan terasa hingga upgrade selesai.
- Tidak terpengaruh: gangguan layanan mungkin terjadi dalam waktu yang sangat singkat, tetapi hampir tidak terlihat.