Langsung ke konten utama
Google Cloud Documentation
Area teknologi
  • AI dan ML
  • Pengembangan aplikasi
  • Hosting aplikasi
  • Compute
  • Pipeline dan analisis data
  • Database
  • Terdistribusi, hybrid, dan multicloud
  • AI Generatif
  • Solusi industri
  • Jaringan
  • Kemampuan observasi dan pemantauan
  • Keamanan
  • Storage
Alat cross product
  • Pengelolaan akses dan resource
  • Pengelolaan biaya dan penggunaan
  • Infrastruktur sebagai kode
  • Migrasi
  • SDK, bahasa, framework, dan alat
/
Konsol
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Masuk
  • Cloud TPU
Mulai gratis
Ringkasan Panduan Referensi Dukungan Referensi
Google Cloud Documentation
  • Area teknologi
    • Lainnya
    • Ringkasan
    • Panduan
    • Referensi
    • Dukungan
    • Referensi
  • Alat cross product
    • Lainnya
  • Konsol
  • Temukan
  • Pengantar Cloud TPU
  • Arsitektur TPU
  • Versi software TPU
  • Versi TPU
    • TPU7x (Ironwood)
    • TPU v6e
    • TPU v5p
    • TPU v5e
    • TPU v4
    • TPU v3
    • TPU v2
  • Region dan zona
  • Opsi pemakaian TPU
  • Ringkasan TPU Cluster Director
  • Stack AI JAX
  • Mulai
  • Menyiapkan lingkungan Cloud TPU
  • Memesan TPU
    • Tentang pemesanan TPU
    • Meminta reservasi hingga 90 hari (dalam mode kalender)
    • Meminta pemesanan untuk masa mendatang selama satu tahun atau lebih
    • Membagikan reservasi
    • Meminta reservasi mode Semua Kapasitas
    • Menggunakan reservasi
  • Jalankan JAX di VM Cloud TPU
  • Jalankan PyTorch di VM Cloud TPU
  • Melakukan pelatihan pada slice Cloud TPU
  • Menjalankan JAX pada slice Cloud TPU
  • Menjalankan PyTorch pada slice Cloud TPU
  • Mengonfigurasi TPU
  • Mengenkripsi boot disk VM TPU dengan CMEK
  • Menghubungkan TPU ke jaringan VPC bersama
  • Menghubungkan ke VM TPU tanpa alamat IP publik
  • Mengonfigurasi jaringan dan akses
  • Menggunakan akun layanan lintas project
  • Opsi penyimpanan
    • Opsi penyimpanan untuk Cloud TPU
    • Melampirkan block storage yang andal ke VM TPU
    • Terhubung ke bucket Cloud Storage
    • Memasang instance Filestore pada VM TPU
  • Pelatihan dan inferensi
  • Melatih model menggunakan TPU7x
  • Melatih model menggunakan v6e
  • Melatih model menggunakan v5e
  • Inferensi TPU
  • Pelatihan multislice
  • Menskalakan workload ML menggunakan Ray
  • Menjalankan aplikasi TPU di container Docker
  • Menangani set data gambar
    • Mengonversi set data klasifikasi gambar untuk digunakan dengan Cloud TPU
    • Mendownload, melakukan prapemrosesan, dan mengupload set data ImageNet
    • Mendownload, melakukan prapemrosesan, dan mengupload set data COCO
  • Mengelola TPU
  • Mengelola resource TPU
  • Mengelola resource dalam antrean
  • Meminta VM TPU dengan mulai fleksibel
  • Mengelola VM Spot TPU
  • Mengelola TPU mode Semua Kapasitas
    • Melihat topologi dan kondisi TPU mode Semua Kapasitas
    • Mengelola peristiwa pemeliharaan mode Semua Kapasitas
    • Melaporkan dan memperbaiki host yang bermasalah dalam mode Semua Kapasitas
  • Bersiap untuk peristiwa pemeliharaan
  • Menjadwalkan kumpulan TPU untuk workload inferensi
  • Titik pemeriksaan otomatis
  • Melihat notifikasi pemeliharaan
  • Memulai pemeliharaan host secara manual
  • TPU preemptible
  • Mengoptimalkan performa
  • Panduan performa Cloud TPU
  • Meningkatkan performa model Anda dengan bfloat16
  • Memantau dan memecahkan masalah TPU
  • Memecahkan masalah VM TPU
  • Memantau VM TPU
  • Dasbor untuk pemantauan dan logging
  • Library pemantauan TPU
  • Memantau dengan tpu-info CLI
  • Memecahkan masalah model TensorFlow
  • Memecahkan masalah model PyTorch
  • Memecahkan masalah model JAX
  • Glosarium error Cloud TPU
  • Log audit Cloud TPU
  • Membuat profil TPU
  • Membuat profil VM TPU
  • Membuat profil lingkungan Multislice
  • Membuat profil workload PyTorch XLA
  • Tutorial
  • Melatih ResNet dengan PyTorch
  • Inferensi MaxDiffusion di v6e
  • Notebook
  • Notebook
  • AI dan ML
  • Pengembangan aplikasi
  • Hosting aplikasi
  • Compute
  • Pipeline dan analisis data
  • Database
  • Terdistribusi, hybrid, dan multicloud
  • AI Generatif
  • Solusi industri
  • Jaringan
  • Kemampuan observasi dan pemantauan
  • Keamanan
  • Storage
  • Pengelolaan akses dan resource
  • Pengelolaan biaya dan penggunaan
  • Infrastruktur sebagai kode
  • Migrasi
  • SDK, bahasa, framework, dan alat
  • Home
  • Documentation
  • AI and ML
  • Cloud TPU
  • Panduan

Semua notebook interaktif Tetap teratur dengan koleksi Simpan dan kategorikan konten berdasarkan preferensi Anda.

Notebook Kaggle PyTorch

  • PyTorch/XLA 2.0 di Kaggle

    Gunakan PyTorch/XLA 2.0 di akselerator VM TPU Kaggle untuk menjalankan contoh gambar Stable Diffusion.

  • Dasar-Dasar PyTorch/XLA Terdistribusi

    Melakukan operasi terdistribusi di VM TPU menggunakan PyTorch/XLA dengan runtime PJRT.

Kecuali dinyatakan lain, konten di halaman ini dilisensikan berdasarkan Lisensi Creative Commons Attribution 4.0, sedangkan contoh kode dilisensikan berdasarkan Lisensi Apache 2.0. Untuk mengetahui informasi selengkapnya, lihat Kebijakan Situs Google Developers. Java adalah merek dagang terdaftar dari Oracle dan/atau afiliasinya.

  • Produk dan harga

    • Lihat semua produk
    • Harga Google Cloud
    • Google Cloud Marketplace
    • Hubungi bagian penjualan
  • Dukungan

    • Forum komunitas
    • Dukungan
    • Catatan Rilis
    • Status sistem
  • Referensi

    • GitHub
    • Mulai Menggunakan Google Cloud
    • Contoh kode
    • Pusat Arsitektur Cloud
    • Pelatihan dan Sertifikasi
  • Interaksi

    • Blog
    • Acara
    • X (Twitter)
    • Google Cloud di YouTube
    • Google Cloud Tech di YouTube
  • Tentang Google
  • Privasi
  • Persyaratan situs
  • Persyaratan Google Cloud
  • Manage cookies
  • Dekade ketiga aksi iklim Google: bergabunglah bersama kami
  • Daftar ke newsletter Google Cloud Berlangganan
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어