Redes y máquinas con GPU

En este documento, se describen las capacidades y configuraciones de ancho de banda de red para las instancias de Compute Engine con GPU conectadas. Obtén información sobre el ancho de banda máximo de la red, las disposiciones de la tarjeta de interfaz de red (NIC) y las configuraciones recomendadas de la red de VPC para varios tipos de máquinas con GPU, incluidas las series A4X Max, A4X, A4, A3, A2, G4, G2 y N1. Comprender estas configuraciones puede ayudarte a optimizar el rendimiento de tus cargas de trabajo distribuidas en Compute Engine.

El ancho de banda de red máximo disponible para las instancias de procesamiento con GPUs conectadas es el siguiente:

  • A4X Max (NVIDIA GB300 Ultra Superchips): hasta 3,600 Gbps
  • A4X (Superchips NVIDIA GB200): Hasta 2,000 Gbps
  • A4 (NVIDIA B200): Hasta 3,600 Gbps
  • A3 Ultra (NVIDIA H200): Hasta 3,600 Gbps
  • A3 Mega (NVIDIA H100): Hasta 1,600 Gbps
  • A3 High (NVIDIA H100): Hasta 1,000 Gbps
  • A3 Edge (NVIDIA H100): Hasta 800 Gbps
  • G4 (NVIDIA RTX PRO 6000): Hasta 400 Gbps
  • A2 (NVIDIA A100) y G2 (NVIDIA L4): Hasta 100 Gbps
  • N1 con GPU NVIDIA T4 o V100: Hasta 100 Gbps según la combinación de la cantidad de GPU y CPU virtuales
  • N1 con GPUs NVIDIA P100 o P4: 32 Gbps

Revisa el ancho de banda de la red y la disposición de la NIC

Usa la siguiente sección para revisar la disposición de la red y la velocidad del ancho de banda para cada tipo de máquina con GPU.

Tipos de máquinas A4X Max y A4X

Las series de máquinas A4X Max y A4X, que se basan en la arquitectura NVIDIA Blackwell, están diseñadas para cargas de trabajo de IA distribuidas, exigentes y a gran escala. El principal factor diferenciador entre ambos son los aceleradores y el hardware de redes adjuntos, como se describe en la siguiente tabla:

Serie de máquinas A4X Max Serie de máquinas A4X
Hardware adjunto Superchips NVIDIA GB300 Ultra Superchips NVIDIA GB200
Conexión en red de GPU a GPU 4 SuperNIC NVIDIA ConnectX-8 (CX-8) que proporcionan 3,200 Gbps de ancho de banda en una topología alineada con rieles de 8 vías 4 NIC NVIDIA ConnectX-7 (CX-7) que proporcionan 1,600 Gbps de ancho de banda en una topología alineada con rieles de 4 vías
Redes de uso general 2 NIC inteligentes Titanium que proporcionan un ancho de banda de 400 Gbps 2 NIC inteligentes Titanium que proporcionan un ancho de banda de 400 Gbps
Ancho de banda de red máximo total 3,600 Gbps 2,000 Gbps

Arquitectura de red de varias capas

Las instancias de procesamiento A4X Max y A4X usan una arquitectura de redes jerárquica de varias capas con un diseño alineado con rieles para optimizar el rendimiento de varios tipos de comunicación. En esta topología, las instancias se conectan a través de varios planos de red independientes, denominados rieles.

  • Las instancias de A4X Max usan una topología alineada con rieles de 8 vías en la que cada una de las cuatro NIC ConnectX-8 de 800 Gbps se conecta a dos rieles separados de 400 Gbps.
  • Las instancias A4X usan una topología alineada con rieles de 4 vías en la que cada una de las cuatro NIC ConnectX-7 se conecta a un riel independiente.

Las capas de redes para estos tipos de máquinas son las siguientes:

  • Comunicación dentro del nodo y dentro del subbloque (NVLink): Una estructura de interconexión NVLink de alta velocidad interconecta las GPUs para lograr una comunicación de alto ancho de banda y baja latencia. Este tejido conecta todas las GPUs dentro de una sola instancia y se extiende a través de un subbloque, que consta de 18 instancias de A4X Max o A4X (un total de 72 GPUs). Esto permite que las 72 GPUs de un subbloque se comuniquen como si estuvieran en un solo servidor de GPU a gran escala.

  • Comunicación entre subbloques (NIC ConnectX con RoCE): Para escalar cargas de trabajo más allá de un solo subbloque, estas máquinas usan NIC ConnectX de NVIDIA. Estas NIC usan RDMA a través de Ethernet convergida (RoCE) para proporcionar comunicación de gran ancho de banda y baja latencia entre subbloques, lo que te permite compilar clústeres de entrenamiento a gran escala con miles de GPUs.

  • Redes de uso general (NIC inteligentes de Titanium): Además de las redes especializadas para GPU, cada instancia tiene dos NIC inteligentes de Titanium, que proporcionan un ancho de banda combinado de 400 Gbps para tareas de redes generales. Esto incluye el tráfico para el almacenamiento, la administración y la conexión a otros Google Cloud servicios o a Internet pública.

Arquitectura del A4X Max

La arquitectura de A4X Max se basa en los superchips NVIDIA GB300 Ultra. Una característica clave de este diseño es la conexión directa de las cuatro SuperNIC NVIDIA ConnectX-8 (CX-8) de 800 Gbps a las GPUs. Estas NIC forman parte de una topología de red alineada con rieles de 8 vías en la que cada NIC se conecta a dos rieles separados de 400 Gbps. Esta ruta directa permite el RDMA, lo que proporciona un gran ancho de banda y una latencia baja para la comunicación de GPU a GPU en diferentes subbloques. Estas instancias de Compute Engine también incluyen SSD locales de alto rendimiento que se conectan a las NIC ConnectX-8, lo que evita el bus PCIe para un acceso más rápido a los datos.

Arquitectura de red para A4X Max que muestra cuatro NIC para la comunicación de GPU y dos NIC de Titanium para redes generales.
Figura 1. Arquitectura de red para un solo host A4X Max

Arquitectura A4X

La arquitectura A4X usa superchips GB200 de NVIDIA. En esta configuración, las cuatro NIC NVIDIA ConnectX-7 (CX-7) están conectadas a la CPU del host. Esta configuración proporciona redes de alto rendimiento para la comunicación de GPU a GPU entre subbloques.

Arquitectura de red para A4X que muestra cuatro NIC para la comunicación de GPU y dos NIC de Titanium para redes generales.
Figura 2. Arquitectura de red para un solo host A4X

Configuración de red de nube privada virtual (VPC) de A4X Max y A4X

Para usar todas las capacidades de redes de estos tipos de máquinas, debes crear redes de VPC y adjuntarlas a tus instancias. Para usar todas las NICs disponibles, debes crear redes de VPC de la siguiente manera:

  • Dos redes de VPC normales para las NIC inteligentes de Titanium.

  • Se requiere una red de VPC con el perfil de red RoCE para las NIC de ConnectX cuando creas clústeres de varios subbloques A4X Max o A4X. La red de VPC de RoCE debe tener una subred para cada riel de red. Esto significa ocho subredes para las instancias A4X Max y cuatro subredes para las instancias A4X. Si usas un solo subbloque, puedes omitir esta red de VPC, ya que la estructura de NVLink de varios nodos controla la comunicación directa entre GPUs.

Para configurar estas redes, consulta Crea redes de VPC en la documentación de AI Hypercomputer.

Tipos de máquinas A4X Max y A4X

A4X Max

Superchips NVIDIA GB300 Grace Blackwell Ultra conectados
Tipo de máquina Recuento de CPU virtuales1 Memoria de la instancia (GB) SSD local conectado (GiB) Cantidad de NICs físicas Ancho de banda de red máximo (Gbps)2 Recuento de GPU Memoria de GPU3
(GB HBM3e)
a4x-maxgpu-4g-metal 144 960 12,000 6 3,600 4 1,116

1 Una CPU virtual se implementa como un solo hipersubproceso de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede ser superior al número especificado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de la red, consulta Ancho de banda de red.
3La memoria de GPU es la memoria disponible en un dispositivo GPU que se puede usar para el almacenamiento temporal de datos. Es independiente de la memoria de la instancia y está diseñado específicamente para manejar las demandas de ancho de banda más altas de tus cargas de trabajo de alto contenido gráfico.

A4X

Superchips NVIDIA GB200 Grace Blackwell conectados
Tipo de máquina Recuento de CPU virtuales1 Memoria de la instancia (GB) SSD local conectado (GiB) Cantidad de NICs físicas Ancho de banda de red máximo (Gbps)2 Recuento de GPU Memoria de GPU3
(GB HBM3e)
a4x-highgpu-4g 140 884 12,000 6 2,000 4 744

1 Una CPU virtual se implementa como un solo hipersubproceso de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede ser superior al número especificado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de la red, consulta Ancho de banda de red.
3La memoria de GPU es la memoria disponible en un dispositivo GPU que se puede usar para el almacenamiento temporal de datos. Es independiente de la memoria de la instancia y está diseñado específicamente para manejar las demandas de ancho de banda más altas de tus cargas de trabajo de alto contenido gráfico.

Tipos de máquinas A4 y A3 Ultra

Los tipos de máquinas A4 tienen GPU NVIDIA B200 conectadas, y los tipos de máquinas A3 Ultra tienen GPU NVIDIA H200 conectadas.

Estos tipos de máquinas proporcionan ocho tarjetas de interfaz de red (NIC) NVIDIA ConnectX-7 (CX-7) y dos NIC virtuales de Google (gVNIC). Las ocho NIC CX-7 ofrecen un ancho de banda de red total de 3,200 Gbps. Estas NIC están dedicadas únicamente a la comunicación de GPU a GPU de gran ancho de banda y no se pueden usar para otras necesidades de redes, como el acceso a Internet público. Como se describe en el siguiente diagrama, cada NIC CX-7 se alinea con una GPU para optimizar el acceso de memoria no uniforme (NUMA). Las ocho GPUs pueden comunicarse rápidamente entre sí a través del puente NVLink de todos a todos que las conecta. Las otras dos tarjetas de interfaz de red gVNIC son NIC inteligentes que proporcionan 400 Gbps adicionales de ancho de banda de red para los requisitos de redes de uso general. En conjunto, las tarjetas de interfaz de red proporcionan un ancho de banda de red máximo total de 3,600 Gbps para estas máquinas.

Arquitectura de red para A4 y A3 Ultra que muestra ocho NIC CX-7 para la comunicación de GPU y dos gNIC para redes generales.
Figura 3. Arquitectura de red para un solo host A4 o A3 Ultra

Para usar estas múltiples NIC, debes crear 3 redes de nube privada virtual de la siguiente manera:

  • Dos redes de VPC normales: Cada gVNIC debe adjuntarse a una red de VPC diferente
  • Una red de VPC de RoCE: Las ocho NIC CX-7 comparten la misma red de VPC de RoCE.

Para configurar estas redes, consulta Crea redes de VPC en la documentación de AI Hypercomputer.

A4

GPU NVIDIA B200 Blackwell conectadas
Tipo de máquina Recuento de CPU virtuales1 Memoria de la instancia (GB) SSD local conectado (GiB) Cantidad de NICs físicas Ancho de banda de red máximo (Gbps)2 Recuento de GPU Memoria de GPU3
(GB HBM3e)
a4-highgpu-8g 224 3,968 12,000 10 3,600 8 1,440

1 Una CPU virtual se implementa como un solo hipersubproceso de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede ser superior al número especificado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de la red, consulta Ancho de banda de red.
3La memoria de GPU es la memoria disponible en un dispositivo GPU que se puede usar para el almacenamiento temporal de datos. Es independiente de la memoria de la instancia y está diseñado específicamente para manejar las demandas de ancho de banda más altas de tus cargas de trabajo de alto contenido gráfico.

A3 Ultra

GPU NVIDIA H200 conectadas
Tipo de máquina Recuento de CPU virtuales1 Memoria de la instancia (GB) SSD local conectado (GiB) Cantidad de NICs físicas Ancho de banda de red máximo (Gbps)2 Recuento de GPU Memoria de GPU3
(GB HBM3e)
a3-ultragpu-8g 224 2,952 12,000 10 3,600 8 1128

1 Una CPU virtual se implementa como un solo hipersubproceso de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede ser superior al número especificado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de la red, consulta Ancho de banda de red.
3La memoria de GPU es la memoria disponible en un dispositivo GPU que se puede usar para el almacenamiento temporal de datos. Es independiente de la memoria de la instancia y está diseñado específicamente para manejar las demandas de ancho de banda más altas de tus cargas de trabajo de alto contenido gráfico.

Tipos de máquinas A3 Mega, High y Edge

Estos tipos de máquinas tienen GPU H100 conectadas. Cada uno de estos tipos de máquinas tiene un recuento fijo de GPU, de CPU virtuales y de tamaño de memoria.

  • VMs A3 con una sola NIC: Para las VMs A3 con 1 a 4 GPUs conectadas, solo está disponible una sola tarjeta de interfaz de red (NIC) física.
  • VMs A3 NIC NICs: Para las VMs A3 con 8 GPUs conectadas, hay disponibles varias NICs físicas. Para estos tipos de máquinas A3, las NIC se organizan de la siguiente manera en un bus exprés de interconexión de componentes periféricos (PCIe):
    • Para el tipo de máquina A3 Mega, está disponible una disposición de NIC de 8 + 1. Con esta disposición, 8 NICs comparten el mismo bus PCIe y 1 NIC reside en un bus PCIe independiente.
    • Para el tipo de máquina A3 High, hay disponible una disposición de NIC de 4 + 1. Con esta disposición, 4 NICs comparten el mismo bus PCIe y 1 NIC reside en un bus PCIe independiente.
    • Para el tipo de máquina A3 Edge: Está disponible una disposición de NIC de 4 + 1. Con esta disposición, 4 NICs comparten el mismo bus PCIe y 1 NIC reside en un bus PCIe independiente. Estas 5 NIC proporcionan un ancho de banda de red total de 400 Gbps para cada VM.

    Las NICs que comparten el mismo bus PCIe tienen una alineación de acceso a la memoria no uniforme (NUMA) de una NIC por cada dos GPUs NVIDIA H100. Estas NIC son ideales para la comunicación dedicada de gran ancho de banda de GPU a GPU. La NIC física que reside en un bus PCIe independiente es ideal para otras necesidades de red. Si deseas obtener instrucciones para configurar la red de las VMs A3 High y A3 Edge, consulta Configura redes MTU de marcos jumbo.

A3 Mega

GPU NVIDIA H100 conectadas
Tipo de máquina Recuento de CPU virtuales1 Memoria de la instancia (GB) SSD local conectado (GiB) Cantidad de NICs físicas Ancho de banda de red máximo (Gbps)2 Recuento de GPU Memoria de GPU3
(GB HBM3)
a3-megagpu-8g 208 1,872 6,000 9 1,800 8 640

A3 High

GPU NVIDIA H100 conectadas
Tipo de máquina Recuento de CPU virtuales1 Memoria de la instancia (GB) SSD local conectado (GiB) Cantidad de NICs físicas Ancho de banda de red máximo (Gbps)2 Recuento de GPU Memoria de GPU3
(GB HBM3)
a3-highgpu-1g 26 234 750 1 25 1 80
a3-highgpu-2g 52 468 1,500 1 50 2 160
a3-highgpu-4g 104 936 3,000 1 100 4 320
a3-highgpu-8g 208 1,872 6,000 5 1,000 8 640

A3, Edge

GPU NVIDIA H100 conectadas
Tipo de máquina Recuento de CPU virtuales1 Memoria de la instancia (GB) SSD local conectado (GiB) Cantidad de NICs físicas Ancho de banda de red máximo (Gbps)2 Recuento de GPU Memoria de GPU3
(GB HBM3)
a3-edgegpu-8g 208 1,872 6,000 5
  • 800: para asia-south1 y northamerica-northeast2
  • 400: para todas las demás regiones de A3 Edge
8 640

1 Una CPU virtual se implementa como un solo hipersubproceso de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede ser superior al número especificado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de la red, consulta Ancho de banda de red.
3La memoria de GPU es la memoria disponible en un dispositivo GPU que se puede usar para el almacenamiento temporal de datos. Es independiente de la memoria de la instancia y está diseñado específicamente para manejar las demandas de ancho de banda más altas de tus cargas de trabajo de alto contenido gráfico.

Tipos de máquinas A2

Cada tipo de máquina A2 tiene una cantidad fija de GPU NVIDIA A100 de 40 GB o NVIDIA A100 de 80 GB conectadas. Cada tipo de máquina también tiene un recuento fijo de CPU virtuales y de tamaño de memoria.

Las series de máquinas A2 están disponibles en dos tipos:

  • A2 Ultra: Estos tipos de máquinas tienen GPU A100 de 80 GB y discos SSD local conectados.
  • A2 estándar: Estos tipos de máquinas tienen GPU A100 de 40 GB conectadas.

A2 ultra

GPU NVIDIA A100 de 80 GB conectadas
Tipo de máquina Recuento de CPU virtuales1 Memoria de la instancia (GB) SSD local conectado (GiB) Ancho de banda de red máximo (Gbps)2 Recuento de GPU Memoria de GPU3
(GB HBM2e)
a2-ultragpu-1g 12 170 375 24 1 80
a2-ultragpu-2g 24 340 750 32 2 160
a2-ultragpu-4g 48 680 1,500 50 4 320
a2-ultragpu-8g 96 1,360 3,000 100 8 640

A2 Estándar

GPUs NVIDIA A100 de 40 GB conectadas
Tipo de máquina Recuento de CPU virtuales1 Memoria de la instancia (GB) Compatible con SSD local Ancho de banda de red máximo (Gbps)2 Recuento de GPU Memoria de GPU3
(GB HBM2)
a2-highgpu-1g 12 85 24 1 40
a2-highgpu-2g 24 170 32 2 80
a2-highgpu-4g 48 340 50 4 160
a2-highgpu-8g 96 680 100 8 320
a2-megagpu-16g 96 1,360 100 16 640

1 Una CPU virtual se implementa como un solo hipersubproceso de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede ser superior al número especificado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de la red, consulta Ancho de banda de red.
3La memoria de GPU es la memoria disponible en un dispositivo GPU que se puede usar para el almacenamiento temporal de datos. Es independiente de la memoria de la instancia y está diseñado específicamente para manejar las demandas de ancho de banda más altas de tus cargas de trabajo de alto contenido gráfico.

Tipos de máquinas G4

Los tipos de máquinas optimizados para aceleradores G4 utilizan GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition (nvidia-rtx-pro-6000) y son adecuados para cargas de trabajo de simulación de NVIDIA Omniverse, aplicaciones de alto contenido gráfico, transcodificación de video y escritorios virtuales. Los tipos de máquinas G4 también proporcionan una solución de bajo costo para realizar la inferencia de un solo host y el ajuste del modelo en comparación con los tipos de máquinas de la serie A.

GPUs NVIDIA RTX PRO 6000 conectadas
Tipo de máquina Recuento de CPU virtuales1 Memoria de la instancia (GB) Máximo de SSD de Titanium admitido (GiB)2 Cantidad de NICs físicas Ancho de banda de red máximo (Gbps)3 Recuento de GPU Memoria de GPU4
(GB GDDR7)
g4-standard-48 48 180 1,500 1 50 1 96
g4-standard-96 96 360 3,000 1 100 2 192
g4-standard-192 192 720 6,000 1 200 4 384
g4-standard-384 384 1,440 12,000 2 400 8 768

1 Una CPU virtual se implementa como un solo hipersubproceso de hardware en una de las plataformas de CPU disponibles.
2Puedes agregar discos SSD de Titanium cuando creas una instancia G4. Para conocer la cantidad de discos que puedes conectar, consulta Tipos de máquinas que requieren que elijas una cantidad de discos SSD locales.
3El ancho de banda de salida máximo no puede ser superior al número especificado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Consulta Ancho de banda de red.
4La memoria de GPU es la memoria de un dispositivo GPU que se puede usar para el almacenamiento temporal de datos. Es independiente de la memoria de la instancia y está diseñado específicamente para manejar las demandas de ancho de banda más altas de tus cargas de trabajo de alto contenido gráfico.

Tipos de máquinas G2

Los tipos de máquinas optimizados para aceleradores G2 tienen GPU NVIDIA L4 conectadas y son ideales para la inferencia optimizada en función del costo, las cargas de trabajo de computación de alto rendimiento y con uso intensivo de gráficos.

Cada tipo de máquina G2 también tiene una memoria predeterminada y un rango de memoria personalizado. El rango de memoria personalizado define la cantidad de memoria que puedes asignar a tu instancia para cada tipo de máquina. También puedes agregar discos SSD locales cuando creas una instancia G2. Para conocer la cantidad de discos que puedes conectar, consulta Tipos de máquinas que requieren que elijas una cantidad de discos SSD locales.

Para obtener las tasas de ancho de banda de red más altas (50 Gbps o más) aplicadas a la mayoría de las instancias de GPU, te recomendamos que uses una NIC virtual de Google (gVNIC). Si quieres obtener más información para crear instancias de GPU que usen gVNIC, consulta Crea instancias de GPU que usen anchos de banda más altos.

GPU NVIDIA L4 conectadas
Tipo de máquina Recuento de CPU virtuales1 Memoria de instancia predeterminada (GB) Rango de memoria de instancia personalizado (GB) Máximo de SSD local admitido (GiB) Ancho de banda de red máximo (Gbps)2 Recuento de GPU Memoria de GPU3 (GB GDDR6)
g2-standard-4 4 16 De 16 a 32 375 10 1 24
g2-standard-8 8 32 De 32 a 54 375 16 1 24
g2-standard-12 12 48 De 48 a 54 375 16 1 24
g2-standard-16 16 64 De 54 a 64 375 32 1 24
g2-standard-24 24 96 De 96 a 108 750 32 2 48
g2-standard-32 32 128 De 96 a 128 375 32 1 24
g2-standard-48 48 192 De 192 a 216 1,500 50 4 96
g2-standard-96 96 384 De 384 a 432 3,000 100 8 192

1 Una CPU virtual se implementa como un solo hipersubproceso de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede ser superior al número especificado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de la red, consulta Ancho de banda de red.
3La memoria de GPU es la memoria disponible en un dispositivo GPU que se puede usar para el almacenamiento temporal de datos. Es independiente de la memoria de la instancia y está diseñado específicamente para manejar las demandas de ancho de banda más altas de tus cargas de trabajo de alto contenido gráfico.

Tipos de máquinas N1 + GPU

Para las instancias de máquina virtual (VM) de uso general N1 que tienen adjuntas las GPU T4 y V100, puedes obtener un ancho de banda de red máximo de hasta 100 Gbps, según la combinación de la cantidad de GPU y CPU virtuales. Para todas las demás instancias de GPU N1, consulta Descripción general.

Revisa la siguiente sección para calcular el ancho de banda de red máximo disponible para tus instancias T4 y V100 según el modelo de GPU, la CPU virtual y la cantidad de GPU.

Menos de 5 CPU virtuales

Para las instancias T4 y V100 que tienen 5 CPU virtuales o menos, hay un ancho de banda de red máximo de 10 Gbps.

Más de 5 CPU virtuales

Para las instancias T4 y V100 que tienen más de 5 CPU virtuales, el ancho de banda máximo de la red se calcula en función de la cantidad de CPU virtuales y GPU para esa VM.

Para obtener las tasas de ancho de banda de red más altas (50 Gbps o más) aplicadas a la mayoría de las instancias de GPU, te recomendamos que uses una NIC virtual de Google (gVNIC). Si quieres obtener más información para crear instancias de GPU que usen gVNIC, consulta Crea instancias de GPU que usen anchos de banda más altos.

Modelo de GPU Cantidad de GPU Cálculo del ancho de banda de red máximo
NVIDIA V100 1 min(vcpu_count * 2, 32)
2 min(vcpu_count * 2, 32)
4 min(vcpu_count * 2, 50)
8 min(vcpu_count * 2, 100)
NVIDIA T4 1 min(vcpu_count * 2, 32)
2 min(vcpu_count * 2, 50)
4 min(vcpu_count * 2, 100)

Configuración de MTU y tipos de máquinas con GPU

Para aumentar la capacidad de procesamiento de la red, establece un valor de unidad de transmisión máxima (MTU) más alto para tus redes de VPC. Los valores de MTU más altos aumentan el tamaño del paquete y reducen la sobrecarga del encabezado del paquete, lo que, a su vez, aumenta la capacidad de procesamiento de los datos de carga útil.

Para los tipos de máquinas con GPU, recomendamos los siguientes parámetros de configuración de MTU para tus redes de VPC.

Tipo de máquina de GPU MTU recomendada (en bytes)
Red de VPC normal Red de VPC de RoCE
  • A4X Max
  • A4X
  • A4
  • A3 Ultra
8896 8896
  • A3 Mega
  • A3 High
  • A3, Edge
8244 N/A
  • A2 Estándar
  • A2 ultra
  • G4
  • G2
  • Tipos de máquinas N1 que admiten GPUs
8896 N/A

Cuando establezcas el valor de la MTU, ten en cuenta lo siguiente:

  • 8192 son dos páginas de 4 KB.
  • Se recomienda 8244 en las VMs A3 Mega, A3 High y A3 Edge para las NIC de GPU que tienen habilitada la división de encabezado.
  • Usa un valor de 8896, a menos que se indique lo contrario en la tabla.

Crea máquinas con GPU y ancho de banda alto

Para crear instancias de GPU que usen anchos de banda de red más altos, usa uno de los siguientes métodos según el tipo de máquina:

Próximos pasos