Preguntas frecuentes sobre Cloud TPU

En este documento, se incluye una lista de preguntas frecuentes sobre Cloud TPU. Se divide en las siguientes secciones:

  1. Preguntas frecuentes independientes del framework, es deicr, sobre el uso de Cloud TPU sin importar el framework de AA que uses.
  2. Preguntas frecuentes sobre JAX, es decir, sobre el uso de Cloud TPU con JAX.
  3. Preguntas frecuentes sobre PyTorch, es decir, sobre el uso de Cloud TPU con PyTorch.

Preguntas frecuentes independientes del framework

¿Cómo verifico qué proceso está usando la TPU en una VM de Cloud TPU?

Ejecuta tpu-info en la VM de Cloud TPU para imprimir el ID de proceso y otra información sobre el proceso que usa la TPU. Consulta las métricas compatibles y sus definiciones correspondientes.

   tpu-info

El resultado de tpu-info es similar al siguiente:

   TPU Chips
   ┏━━━━━━━━━━━━━┳━━━━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━┓
    Chip         Type         Devices  PID       ┡━━━━━━━━━━━━━╇━━━━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━┩
    /dev/accel0  TPU v4 chip  1        130007     /dev/accel1  TPU v4 chip  1        130007     /dev/accel2  TPU v4 chip  1        130007     /dev/accel3  TPU v4 chip  1        130007    └─────────────┴─────────────┴─────────┴────────┘

   TPU Runtime Utilization
   ┏━━━━━━━━┳━━━━━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━┓
    Device  Memory usage          Duty cycle    ┡━━━━━━━━╇━━━━━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━┩
    0       0.00 GiB / 31.75 GiB       0.00%     1       0.00 GiB / 31.75 GiB       0.00%     2       0.00 GiB / 31.75 GiB       0.00%     3       0.00 GiB / 31.75 GiB       0.00%    └────────┴──────────────────────┴────────────┘

   TensorCore Utilization
   ┏━━━━━━━━━┳━━━━━━━━━━━━━━━━━━━━━━━━┓
    Chip ID  TensorCore Utilization    ┡━━━━━━━━━╇━━━━━━━━━━━━━━━━━━━━━━━━┩
    0                         0.00%     1                         0.00%     3                         0.00%     2                         0.00% |
   └─────────┴────────────────────────┘

   Buffer Transfer Latency
   ┏━━━━━━━━━━━━━┳━━━━━┳━━━━━┳━━━━━┳━━━━━━┓
    Buffer Size  P50  P90  P95  P999    ┡━━━━━━━━━━━━━╇━━━━━╇━━━━━╇━━━━━╇━━━━━━┩
          8MB+  | 0us  0us  0us   0us |
   └─────────────┴─────┴─────┴─────┴──────┘

¿Cómo agrego un volumen de disco persistente a una VM de Cloud TPU?

Para obtener más información, consulta Agrega un disco persistente a una VM de TPU.

Para obtener más información, consulta Opciones de almacenamiento de Cloud TPU.

Preguntas frecuentes sobre JAX

¿Cómo sé si mi programa está usando la TPU?

Hay varias formas de verificar que JAX esté usando la TPU:

  1. Usa la función jax.devices(). Por ejemplo:

    assert jax.devices()[0].platform == 'tpu'
    
  2. Crea el perfil de tu programa y verifica que contenga operaciones de TPU. Para obtener más información, consulta Crea perfiles de programas de JAX.

Para obtener más información, consulta Preguntas frecuentes sobre JAX.

Preguntas frecuentes sobre PyTorch

¿Cómo sé si mi programa está usando la TPU?

Puedes ejecutar los siguientes comandos de Python:

>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")

Verifica si puedes ver algún dispositivo de TPU.