Panduan ini menunjukkan cara mengoptimalkan penyediaan Unit Pemrosesan Tensor (TPU) dengan menggunakan pemesanan untuk masa mendatang dalam mode kalender. Pemesan untuk masa mendatang dalam mode kalender adalah penasihat dan pemberi rekomendasi kalender bawaan yang dapat membantu Anda menemukan kapasitas TPU dan membuat rencana ke depannya. Anda dapat meminta kapasitas untuk waktu mulai dan durasi yang ditentukan, antara 1 dan 90 hari, dan pemberi rekomendasi akan memberikan saran tanggal.
Panduan ini ditujukan untuk engineer Machine Learning (ML), Admin dan operator platform, serta spesialis Data dan AI yang tertarik untuk menggunakan kemampuan orkestrasi container Kubernetes dalam menjalankan beban kerja batch. Untuk mengetahui informasi selengkapnya tentang peran umum dan contoh tugas yang kami rujuk dalam Google Cloud konten, lihat Peran dan tugas pengguna GKE umum.
Untuk mengetahui informasi selengkapnya, lihat Tentang pemesanan untuk masa mendatang dalam mode kalender.
Kasus penggunaan
Reservasi mendatang dalam mode kalender paling cocok untuk beban kerja dengan permintaan terjadwal, jangka pendek, dan permintaan dengan permintaan tinggi, seperti pelatihan, atau model inferensi batch yang memerlukan ketersediaan tinggi pada waktu mulai yang diminta.
Jika workload Anda memerlukan resource yang disediakan secara dinamis sesuai kebutuhan, hingga 7 hari tanpa reservasi jangka panjang atau pengelolaan kuota yang rumit, pertimbangkan untuk menggunakan opsi konsumsi mulai fleksibel. Untuk mengetahui informasi selengkapnya, lihat Tentang penyediaan GPU dan TPU dengan flex-start.
Sebelum memulai
Sebelum memulai, pastikan Anda telah melakukan tugas berikut:
- Aktifkan Google Kubernetes Engine API. Aktifkan Google Kubernetes Engine API
- Jika ingin menggunakan Google Cloud CLI untuk tugas ini,
instal lalu
lakukan inisialisasi
gcloud CLI. Jika sebelumnya Anda telah menginstal gcloud CLI, dapatkan versi terbaru dengan menjalankan perintah
gcloud components update. gcloud CLI versi sebelumnya mungkin tidak mendukung menjalankan perintah dalam dokumen ini.
- Pastikan Anda memiliki salah satu dari hal berikut:
- cluster Standard yang sudah ada dan menjalankan versi 1.28.3-gke.1098000 atau yang lebih baru.
- cluster Autopilot yang ada dan menjalankan versi 1.30.3-gke.1451000 atau yang lebih baru.
Meminta pemesanan untuk masa mendatang dalam mode kalender untuk TPU
Proses untuk meminta TPU dengan pemesanan untuk masa mendatang dalam mode kalender melibatkan langkah-langkah berikut:
- Pastikan Anda memiliki kuota yang cukup untuk resource apa pun yang bukan bagian dari reservasi saat VM dibuat, seperti disk atau alamat IP. Permintaan pemesanan untuk masa mendatang dalam mode kalender tidak memerlukan kuota Compute Engine.
- Selesaikan langkah-langkah di membuat permintaan dalam mode kalender. Langkah-langkah ini mencakup hal-hal berikut:
- Melihat ketersediaan TPU di masa mendatang.
- Buat dan kirimkan permintaan pemesanan untuk masa mendatang dalam mode kalender untuk TPU.
- Tunggu hingga Google Cloud menyetujui permintaan Anda.
- Buat node pool TPU yang menggunakan reservasi Anda.
Membuat node pool
Bagian ini hanya berlaku untuk cluster Standar, karena mode Autopilot otomatis membuat node berdasarkan beban kerja.
Anda dapat menggunakan reservasi saat membuat node pool slice TPU host tunggal atau multi-host.
Membuat node pool slice TPU host tunggal
Anda dapat membuat node pool slice TPU host tunggal menggunakan Google Cloud CLI.
gcloud container node-pools create NODE_POOL_NAME \
--location=CONTROL_PLANE_LOCATION \
--cluster=CLUSTER_NAME \
--node-locations=NODE_ZONES \
--machine-type=MACHINE_TYPE \
--reservation-affinity=specific \ This is required
--reservation=RESERVATION
Ganti kode berikut:
NODE_POOL_NAME: nama node pool baru.CONTROL_PLANE_LOCATION: nama zona berdasarkan versi TPU yang ingin Anda gunakan. Untuk mengidentifikasi lokasi yang tersedia, lihat Ketersediaan TPU di GKE.CLUSTER_NAME: nama cluster.NODE_ZONES: daftar yang dipisahkan koma untuk satu atau beberapa zona tempat GKE membuat node pool.MACHINE_TYPE: jenis mesin yang akan digunakan untuk node. Untuk mengetahui informasi selengkapnya tentang jenis mesin yang kompatibel dengan TPU, gunakan tabel di Memilih versi TPU.RESERVATION: nama reservasi kalender yang akan dipakai.
Untuk daftar lengkap semua flag yang dapat Anda tentukan, lihat referensi gcloud container clusters create.
Setelah membuat node pool dengan reservasi kalender, Anda dapat men-deploy workload seperti node pool TPU lainnya. Penggunaan pemesanan untuk masa mendatang dalam mode kalender berfungsi dengan cara yang sama seperti untuk jenis pemesanan lainnya. Untuk mengetahui informasi selengkapnya, lihat Menggunakan resource zona yang dicadangkan.
Membuat node pool slice TPU multi-host
Langkah-langkah untuk membuat node pool slice TPU multi-host berbeda-beda, bergantung pada apakah Anda menggunakan Ironwood (TPU7x) atau versi TPU yang lebih lama.Ironwood (TPU7x)
Anda dapat membuat node pool slice TPU multi-host di versi Ironwood (TPU7x) menggunakan Google Cloud CLI atau Terraform:
gcloud
Untuk membuat node pool slice TPU multi-host dengan Ironwood (TPU7x), Anda harus membuat kebijakan workload terlebih dahulu.
Buat kebijakan beban kerja:
gcloud compute resource-policies create workload-policy WORKLOAD_POLICY_NAME \ --type=HIGH_THROUGHPUT \ --accelerator-topology=TPU_TOPOLOGY \ --project=PROJECT_ID \ --region=REGIONGanti kode berikut:
WORKLOAD_POLICY_NAME: nama untuk kebijakan workload Anda.TPU_TOPOLOGY: topologi TPU Ironwood (TPU7x). Contoh,2x2x2. Untuk melihat semua topologi Ironwood (TPU7x) yang didukung, lihat bagian topologi.PROJECT_ID: Google Cloud Project ID Anda.REGION: region untuk kebijakan workload. Kebijakan workload adalah resource regional dan dapat digunakan kembali di seluruh node pool yang memiliki topologi yang sama.
Buat node pool dengan kebijakan workload:
gcloud container node-pools create NODE_POOL_NAME \ --cluster=CLUSTER_NAME \ --location=us-central1 \ --node-locations=us-central1-c \ --machine-type=tpu7x-standard-4t \ --reservation-affinity=specific \ --reservation=FUTURE_RESERVATION_NAME \ --placement-policy=WORKLOAD_POLICYGanti kode berikut:
NODE_POOL_NAME: nama node pool baru.WORKLOAD_POLICY: nama kebijakan workload yang Anda buat.FUTURE_RESERVATION_NAME: nama pemesanan Anda untuk masa mendatang.
Perintah ini membuat node pool bernama NODE_POOL_NAME dengan karakteristik berikut:
--machine-type=tpu7x-standard-4tmenentukan jenis mesin Ironwood (TPU7x).
Terraform
- Pastikan Anda menggunakan versi 4.84.0 atau yang lebih baru dari penyedia
google. Buat kebijakan beban kerja:
resource "google_compute_resource_policy" { name = "WORKLOAD_POLICY_NAME" region = CLUSTER_LOCATION workload_policy { type = "HIGH_THROUGHPUT" accelerator_topology = "TPU_TOPOLOGY" } }Ganti kode berikut:
WORKLOAD_POLICY_NAME: nama untuk kebijakan workload Anda.CLUSTER_LOCATION: Lokasi komputasi untuk cluster. Sebaiknya Anda memiliki cluster regional untuk keandalan panel kontrol Kubernetes yang lebih tinggi. Anda juga dapat menggunakan cluster zonal. Untuk mengetahui informasi selengkapnya, lihat Memilih topologi dan versi TPU.TPU_TOPOLOGY: topologi TPU Ironwood (TPU7x). Contoh,2x2x2. Untuk melihat semua topologi Ironwood (TPU7x) yang didukung, lihat Merencanakan TPU.
Untuk mengetahui informasi selengkapnya tentang referensi
google_compute_resource_policy, lihat Penyedia Terraform.Dalam konfigurasi Terraform, tambahkan blok berikut:
resource "google_container_node_pool" "NODE_POOL_RESOURCE_NAME" { provider = google project = PROJECT_ID cluster = CLUSTER_NAME name = POOL_NAME location = CLUSTER_LOCATION node_locations = [NODE_ZONES] initial_node_count = NUM_NODES autoscaling { max_node_count = MAX_NODES location_policy = "ANY" } node_config { machine_type = MACHINE_TYPE reservation_affinity { consume_reservation_type = "SPECIFIC_RESERVATION" key = "compute.googleapis.com/reservation-name" values = [RESERVATION_LABEL_VALUES] } flex_start = false } placement_policy { policy_name = WORKLOAD_POLICY_NAME } }Ganti kode berikut:
NODE_POOL_RESOURCE_NAME: nama resource node pool di template Terraform.PROJECT_ID: Project ID Anda.CLUSTER_NAME: nama cluster yang ada tempat node pool akan ditambahkan.POOL_NAME: nama node pool yang akan dibuat.NODE_ZONES: daftar yang dipisahkan koma untuk satu atau beberapa zona tempat GKE membuat node pool.NUM_NODES: jumlah node dalam node pool. Nilainya harus nol atau hasil kali jumlah TPU chip yang dibagi empat, karena dalam slice TPU multi-host, setiap node slice TPU memiliki empat chip. Misalnya, jikaTPU_TOPOLOGYadalah4x8, maka ada 32 chip, yang berartiNUM_NODESharus 8. Untuk mempelajari topologi TPU lebih lanjut, gunakan tabel di Memilih versi TPU.TPU_TOPOLOGY: ini menunjukkan topologi fisik yang dipilih untuk slice TPU. Format topologi bergantung pada versi TPU yang Anda gunakan. Untuk mempelajari lebih lanjut topologi TPU, gunakan tabel di Memilih topologi.
Secara opsional, Anda juga dapat menggunakan variabel berikut:
RESERVATION_NAME: jika Anda menggunakan pemesanan TPU, berikan daftar label resource pemesanan yang akan digunakan saat membuat node pool. Untuk mempelajari cara mengisiRESERVATION_LABEL_VALUESdi kolomreservation_affinitylebih lanjut, silakan melihat Penyedia Terraform.autoscaling: membuat node pool dengan penskalaan otomatis yang diaktifkan. Saat GKE menskalakan node pool slice TPU multi-host, GKE secara atomik akan meningkatkan skala node pool dari nol hingga ukuran maksimum.MAX_NODES: ukuran maksimum node pool. Nilai harus sama dengan hasil perkalian nilai yang ditentukan dalamTPU_TOPOLOGY({A}x{B}x{C}) dibagi dengan jumlah chip di setiap VM. Misalnya, jikaTPU_TOPOLOGYadalah2x2x2, produknya adalah 8. Karena setiap VM ditpu7x-standard-4tmemiliki 4 chip, jumlah node adalah 2.
spot: node pool yang akan menggunakan Spot VM untuk node slice TPU. Setelan ini tidak dapat diubah setelah node pool dibuat. Untuk mengetahui informasi selengkapnya, silakan melihat Spot VM.flex_start: node pool yang akan menggunakan opsi konsumsi flex-start. Setelan ini tidak dapat disetel ketruejikaspotdiaktifkan.
Versi TPU lainnya
Anda dapat membuat node pool slice TPU multi-host di versi v3, v4, v5p, v5e, dan Trillium (v6e) menggunakan Google Cloud CLI, Terraform, atau konsol Google Cloud .
gcloud
gcloud container node-pools create NODE_POOL_NAME \
--cluster=CLUSTER_NAME \
--location=CONTROL_PLANE_LOCATION \
--node-locations=NODE_ZONES \
--machine-type=MACHINE_TYPE \
--tpu-topology=TPU_TOPOLOGY \
--reservation-affinity=specific \
--reservation=FUTURE_RESERVATION_NAME
Ganti kode berikut:
NODE_POOL_NAME: nama node pool baru.CLUSTER_NAME: nama cluster.CONTROL_PLANE_LOCATION: nama zona berdasarkan versi TPU yang ingin Anda gunakan. Untuk mengidentifikasi lokasi yang tersedia, lihat Ketersediaan TPU di GKE.NODE_ZONES: daftar yang dipisahkan koma untuk satu atau beberapa zona tempat GKE membuat node pool.MACHINE_TYPE: jenis mesin yang akan digunakan untuk node. Untuk mengetahui informasi selengkapnya tentang jenis mesin yang kompatibel dengan TPU, gunakan tabel di Memilih versi TPU.TPU_TOPOLOGY: topologi TPU. Contoh,2x2x2. Untuk melihat semua topologi TPU yang didukung, lihat bagian topologi.FUTURE_RESERVATION_NAME: nama pemesanan Anda untuk masa mendatang.
Terraform
- Pastikan Anda menggunakan versi 4.84.0 atau yang lebih baru dari penyedia
google. Tambahkan blok berikut ke konfigurasi Terraform Anda:
resource "google_container_node_pool" "NODE_POOL_RESOURCE_NAME" { provider = google project = PROJECT_ID cluster = CLUSTER_NAME name = POOL_NAME location = CLUSTER_LOCATION node_locations = [NODE_ZONES] initial_node_count = NUM_NODES autoscaling { max_node_count = MAX_NODES location_policy = "ANY" } node_config { machine_type = MACHINE_TYPE reservation_affinity { consume_reservation_type = "SPECIFIC_RESERVATION" key = "compute.googleapis.com/reservation-name" values = [RESERVATION_LABEL_VALUES] } flex_start = false } placement_policy { type = "COMPACT" tpu_topology = TPU_TOPOLOGY } }Ganti kode berikut:
NODE_POOL_RESOURCE_NAME: nama resource node pool di template Terraform.PROJECT_ID: Project ID Anda.CLUSTER_NAME: nama cluster yang ada tempat node pool akan ditambahkan.POOL_NAME: nama node pool yang akan dibuat.CLUSTER_LOCATION: lokasi komputasi untuk cluster. Sebaiknya Anda memiliki cluster regional untuk keandalan panel kontrol Kubernetes yang lebih tinggi. Anda juga dapat menggunakan cluster zonal. Untuk mempelajari lebih lanjut, silakan membaca Memilih topologi dan versi TPU.NODE_ZONES: daftar yang dipisahkan koma untuk satu atau beberapa zona tempat GKE membuat node pool.NUM_NODES: jumlah node dalam node pool. Nilainya harus nol atau hasil kali jumlah TPU chip yang dibagi empat, karena dalam slice TPU multi-host, setiap node slice TPU memiliki 4 chip. Misalnya, jikaTPU_TOPOLOGYadalah4x8, maka ada 32 chip, yang berarti harus ada 8NUM_NODES. Untuk mempelajari topologi TPU lebih lanjut, gunakan tabel di Memilih versi TPU.TPU_TOPOLOGY: ini menunjukkan topologi fisik untuk slice TPU. Format topologi bergantung pada versi TPU yang Anda gunakan. Untuk mempelajari lebih lanjut topologi TPU, gunakan tabel di Memilih topologi.
Secara opsional, Anda juga dapat menggunakan variabel berikut:
RESERVATION_NAME: jika Anda menggunakan pemesanan TPU, ini adalah daftar label resource pemesanan yang akan digunakan saat membuat node pool. Untuk mempelajari cara mengisiRESERVATION_LABEL_VALUESdi kolomreservation_affinitylebih lanjut, silakan melihat Penyedia Terraform.autoscaling: Membuat node pool dengan penskalaan otomatis yang diaktifkan. Saat GKE menskalakan node pool slice TPU multi-host, GKE secara atomik akan meningkatkan skala node pool dari nol hingga ukuran maksimum.MAX_NODES: ini adalah ukuran maksimum node pool. Nilainya harus sama dengan hasil kali nilai yang ditentukan dalamTPU_TOPOLOGY({A}x{B}x{C}) dibagi dengan jumlah chip di setiap VM).
spot: memungkinkan node pool menggunakan Spot VM untuk node slice TPU. Nama ini tidak dapat diubah setelah pembuatan node pool. Untuk mengetahui informasi selengkapnya, silakan melihat Spot VM.flex_start: Menetapkan node pool agar menggunakan opsi konsumsi flex-start. Tidak dapat disetel ketruejikaspotdiaktifkan.
Konsol
Untuk membuat node pool dengan TPU:
Buka halaman Google Kubernetes Engine di konsol Google Cloud .
Di daftar cluster, klik nama cluster yang ingin diubah.
Klik add_box Add node pool.
Di bagian Node pool details, centang kotak Specify node locations.
Pilih nama zona berdasarkan versi TPU yang ingin Anda gunakan. Untuk mengidentifikasi lokasi yang tersedia, lihat Ketersediaan TPU di GKE.
Dari panel navigasi, klik Node.
Di bagian Konfigurasi Mesin, pilih TPU.
Di menu drop-down Seri, pilih salah satu opsi berikut:
- CT3: Perangkat TPU v3, host tunggal
- CT3P: Slice pod multi-host TPU v3
- CT4P: TPU v4
- CT5LP: TPU v5e
- CT5P: TPU v5p
- CT6E: TPU Trillium (v6e)
Di menu drop-down Jenis mesin, pilih nama mesin yang akan digunakan untuk node. Gunakan tabel Pilih versi TPU untuk mempelajari cara menentukan jenis mesin dan topologi TPU yang membuat TPU slice node pool multi-host.
Di menu drop-down Topologi TPU, pilih topologi fisik untuk slice TPU.
Dalam dialog Perubahan yang diperlukan, klik Buat perubahan.
Pastikan Jenis boot disk adalah Persistent disk standar atau Persistent disk SSD.
Secara opsional, pilih kotak centang Aktifkan node di Spot VM agar dapat menggunakan Spot VM untuk node di node pool.
Klik Buat.
Setelah membuat node pool dengan reservasi kalender, Anda dapat men-deploy workload seperti node pool TPU lainnya. Penggunaan pemesanan untuk masa mendatang dalam mode kalender berfungsi dengan cara yang sama seperti untuk jenis pemesanan lainnya. Untuk mengetahui informasi selengkapnya, lihat Menggunakan resource zona yang dicadangkan.
Langkah berikutnya
Coba contoh deployment GKE untuk model AI generatif yang menggunakan resource TPU yang Anda pesan:
- Menyajikan LLM menggunakan TPU Trillium di GKE dengan vLLM
- Menyajikan LLM menggunakan TPU di GKE dengan KubeRay
- Menyajikan LLM menggunakan TPU di GKE dengan JetStream dan PyTorch
- Menyajikan Gemma menggunakan TPU di GKE dengan JetStream
- Menyajikan Stable Diffusion XL (SDXL) menggunakan TPU di GKE dengan MaxDiffusion
- Menyajikan model open source menggunakan TPU di GKE dengan Optimum TPU
Jelajahi contoh eksperimental untuk memanfaatkan GKE dalam mempercepat inisiatif AI/ML Anda di GKE AI Labs.