Máquinas de redes y GPUs

En este documento se describen las funciones y configuraciones de ancho de banda de red de las instancias de Compute Engine con GPUs conectadas. Consulta información sobre el ancho de banda de red máximo, las configuraciones de tarjetas de interfaz de red (NIC) y las configuraciones de red VPC recomendadas para varios tipos de máquinas con GPU, incluidas las series A4X Max, A4X, A4, A3, A2, G4, G2 y N1. Conocer estas configuraciones puede ayudarte a optimizar el rendimiento de tus cargas de trabajo distribuidas en Compute Engine.

El ancho de banda de red máximo disponible para las instancias de proceso con GPUs conectadas es el siguiente:

  • A4X Max (superchips NVIDIA GB300 Ultra): hasta 3600 Gbps
  • A4X (superchips NVIDIA GB200): hasta 2000 Gbps
  • A4 (NVIDIA B200): hasta 3600 Gbps
  • A3 Ultra (NVIDIA H200): hasta 3600 Gbps
  • A3 Mega (NVIDIA H100): hasta 1600 Gbps
  • A3 High (NVIDIA H100): hasta 1000 Gbps
  • A3 Edge (NVIDIA H100): hasta 800 Gbps
  • G4 (NVIDIA RTX PRO 6000): hasta 400 Gbps
  • A2 (NVIDIA A100) y G2 (NVIDIA L4): hasta 100 Gbps
  • N1 con GPUs NVIDIA T4 o V100: hasta 100 Gbps en función de la combinación de GPU y número de vCPUs
  • N1 con GPUs NVIDIA P100 o P4: 32 Gbps

Revisar el ancho de banda de la red y la disposición de las NICs

En la siguiente sección se describe la configuración de red y la velocidad del ancho de banda de cada tipo de máquina con GPU.

Tipos de máquinas A4X Max y A4X

Las series de máquinas A4X Max y A4X, ambas basadas en la arquitectura NVIDIA Blackwell, se han diseñado para cargas de trabajo de IA distribuidas, exigentes y a gran escala. La principal diferencia entre ambos es el hardware de redes y los aceleradores que tienen asociados, tal como se indica en la siguiente tabla:

Serie de máquinas A4X Max Serie de máquinas A4X
Hardware conectado Superchips NVIDIA GB300 Ultra Superchips NVIDIA GB200
Redes de GPU a GPU 4 SuperNICs NVIDIA ConnectX-8 (CX-8) que proporcionan 3200 Gbps de ancho de banda en una topología alineada de 8 vías 4 NICs NVIDIA ConnectX-7 (CX-7) que proporcionan 1600 Gbps de ancho de banda en una topología alineada en 4 vías
Redes de uso general 2 NICs inteligentes Titanium que proporcionan un ancho de banda de 400 Gbps 2 NICs inteligentes Titanium que proporcionan un ancho de banda de 400 Gbps
Ancho de banda de red máximo total 3600 Gbps 2000 Gbps

Arquitectura de red de varias capas

Las instancias de computación A4X Max y A4X usan una arquitectura de red jerárquica de varias capas con un diseño alineado con los raíles para optimizar el rendimiento de varios tipos de comunicación. En esta topología, las instancias se conectan a través de varios planos de red independientes, denominados carriles.

  • Las instancias A4X Max usan una topología alineada con carriles de 8 vías en la que cada una de las cuatro NICs ConnectX-8 de 800 Gbps se conecta a dos carriles independientes de 400 Gbps.
  • Las instancias A4X usan una topología alineada con rieles de 4 vías en la que cada una de las cuatro NICs ConnectX-7 se conecta a un riel independiente.

Las capas de red de estos tipos de máquinas son las siguientes:

  • Comunicación entre nodos y entre subbloques (NVLink): una estructura NVLink de alta velocidad interconecta las GPUs para ofrecer una comunicación de alto ancho de banda y baja latencia. Esta estructura conecta todas las GPUs de una sola instancia y se extiende por un subbloque, que consta de 18 instancias A4X Max o A4X (un total de 72 GPUs). De esta forma, las 72 GPUs de un subbloque pueden comunicarse como si estuvieran en un único servidor de GPUs a gran escala.

  • Comunicación entre subbloques (NICs ConnectX con RoCE): para escalar cargas de trabajo más allá de un solo subbloque, estas máquinas usan NICs NVIDIA ConnectX. Estas NICs usan RDMA sobre Ethernet convergente (RoCE) para proporcionar una comunicación de alto ancho de banda y baja latencia entre subbloques, lo que te permite crear clústeres de entrenamiento a gran escala con miles de GPUs.

  • Redes de uso general (NICs inteligentes Titanium): además de las redes de GPU especializadas, cada instancia tiene dos NICs inteligentes Titanium, que proporcionan un ancho de banda combinado de 400 Gbps para tareas de redes generales. Esto incluye el tráfico de almacenamiento, gestión y conexión a otros servicios de Google Cloud o a Internet público.

Arquitectura A4X Max

La arquitectura A4X Max se basa en los superchips NVIDIA GB300 Ultra. Una característica clave de este diseño es la conexión directa de las cuatro SuperNICs NVIDIA ConnectX-8 (CX-8) de 800 Gbps a las GPUs. Estas NICs forman parte de una topología de red alineada con carriles de 8 vías en la que cada NIC se conecta a dos carriles de 400 Gbps independientes. Esta ruta directa habilita RDMA, lo que proporciona un ancho de banda alto y una latencia baja para la comunicación entre GPUs de diferentes subbloques. Estas instancias de Compute Engine también incluyen SSDs locales de alto rendimiento que están conectadas a las NICs ConnectX-8, lo que permite omitir el bus PCIe para acceder a los datos más rápido.

Arquitectura de red de A4X Max que muestra cuatro NICs para la comunicación con la GPU y dos NICs Titanium para la red general.
Imagen 1. Arquitectura de red de un solo host A4X Max

Arquitectura A4X

La arquitectura A4X usa superchips NVIDIA GB200. En esta configuración, las cuatro NICs NVIDIA ConnectX-7 (CX-7) están conectadas a la CPU del host. Esta configuración proporciona una red de alto rendimiento para la comunicación entre GPUs de subbloques.

Arquitectura de red de A4X que muestra cuatro NICs para la comunicación de la GPU y dos NICs Titanium para la red general.
Imagen 2. Arquitectura de red de un solo host A4X

Configuración de la red de nube privada virtual (VPC) de A4X Max

Para usar todas las funciones de red de estos tipos de máquinas, debes crear redes de VPC y asociarlas a tus instancias. Para usar todas las NICs disponibles, debes crear redes de VPC de la siguiente manera:

  • Dos redes de VPC normales para las NICs inteligentes Titanium.

  • Se necesita una red de VPC con el perfil de red RoCE para las NICs ConnectX cuando creas clústeres de varios subbloques A4X Max o A4X. La red de VPC de RoCE debe tener una subred por cada carril de red. Esto significa que hay ocho subredes para las instancias A4X Max y cuatro para las instancias A4X. Si usas un solo subbloque, puedes omitir esta red de VPC porque la estructura NVLink de varios nodos gestiona la comunicación directa entre GPUs.

Para configurar estas redes, consulta el artículo Crear redes de VPC de la documentación de AI Hypercomputer.

Tipos de máquinas A4X Max y A4X

A4X Max

Superchips NVIDIA Grace Blackwell Ultra conectados
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local conectada (GiB) Número de NICs físicas Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM3e)
a4x-maxgpu-4g-metal 144 960 12.000 6 3600 4 1116

1Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

A4X

Superchips NVIDIA GB200 Grace Blackwell conectados
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local conectada (GiB) Número de NICs físicas Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM3e)
a4x-highgpu-4g 140 884 12.000 6 2000 4 744

1Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

Tipos de máquinas A4 y A3 Ultra

Los tipos de máquinas A4 tienen GPUs NVIDIA B200 conectadas y los tipos de máquinas A3 Ultra tienen GPUs NVIDIA H200 conectadas.

Estos tipos de máquina proporcionan ocho tarjetas de interfaz de red (NICs) NVIDIA ConnectX-7 (CX-7) y dos NICs virtuales de Google (gVNIC). Las ocho NICs CX-7 ofrecen un ancho de banda de red total de 3200 Gbps. Estas NICs están dedicadas únicamente a la comunicación de alto ancho de banda entre GPUs y no se pueden usar para otras necesidades de red, como el acceso público a Internet. Como se indica en el siguiente diagrama, cada NIC CX-7 se alinea con una GPU para optimizar el acceso a memoria no uniforme (NUMA). Las ocho GPUs pueden comunicarse rápidamente entre sí mediante el puente NVLink que las conecta. Las otras dos tarjetas de interfaz de red gVNIC son NICs inteligentes que proporcionan 400 Gbps adicionales de ancho de banda de red para requisitos de redes de uso general. En conjunto, las tarjetas de interfaz de red proporcionan un ancho de banda de red máximo total de 3600 Gbps para estas máquinas.

Arquitectura de red de A4 y A3 Ultra que muestra ocho NICs CX-7 para la comunicación de la GPU y dos gNICs para la red general.
Imagen 3. Arquitectura de red para un solo host Ultra A4 o A3

Para usar estas NICs, debes crear tres redes de nube privada virtual (VPC) de la siguiente manera:

  • Dos redes de VPC normales: cada gVNIC debe conectarse a una red de VPC diferente.
  • Una red de VPC RoCE: las ocho NICs CX-7 comparten la misma red de VPC RoCE

Para configurar estas redes, consulta el artículo Crear redes de VPC de la documentación de AI Hypercomputer.

A4

GPUs NVIDIA B200 Blackwell conectadas
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local conectada (GiB) Número de NICs físicas Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM3e)
a4-highgpu-8g 224 3968 12.000 10 3600 8 1440

1Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

A3 Ultra

GPUs NVIDIA H200 conectadas
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local conectada (GiB) Número de NICs físicas Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM3e)
a3-ultragpu-8g 224 2952 12.000 10 3600 8 1128

1Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

Tipos de máquinas A3 Mega, High y Edge

Estos tipos de máquinas tienen GPUs H100 conectadas. Cada uno de estos tipos de máquinas tiene un número fijo de GPUs y vCPUs, así como un tamaño de memoria.

  • Máquinas virtuales A3 con una sola NIC: en las máquinas virtuales A3 con entre 1 y 4 GPUs conectadas, solo hay disponible una tarjeta de interfaz de red (NIC) física.
  • Máquinas virtuales A3 con varias NICs: en las máquinas virtuales A3 con 8 GPUs conectadas, hay disponibles varias NICs físicas. En estos tipos de máquinas A3, las NICs se organizan de la siguiente manera en un bus Peripheral Component Interconnect Express (PCIe):
    • En el tipo de máquina A3 Mega, se puede usar una configuración de NIC de 8+1. Con esta configuración, 8 NICs comparten el mismo bus PCIe y 1 NIC reside en un bus PCIe independiente.
    • En el tipo de máquina A3 High, se puede usar una configuración de NICs de 4+1. Con esta configuración, 4 NICs comparten el mismo bus PCIe y 1 NIC se encuentra en un bus PCIe independiente.
    • Para el tipo de máquina A3 Edge: se puede usar una configuración de NIC de 4+1. Con esta configuración, 4 NICs comparten el mismo bus PCIe y 1 NIC se encuentra en un bus PCIe independiente. Estas 5 NICs proporcionan un ancho de banda de red total de 400 Gbps para cada VM.

    Las NICs que comparten el mismo bus PCIe tienen una alineación de acceso a memoria no uniforme (NUMA) de una NIC por cada dos GPUs NVIDIA H100. Estas NICs son ideales para la comunicación de GPU a GPU con un ancho de banda alto y específico. La NIC física que reside en un bus PCIe independiente es ideal para otras necesidades de redes. Para obtener instrucciones sobre cómo configurar la red de las máquinas virtuales A3 High y A3 Edge, consulta el artículo sobre cómo configurar redes MTU de jumbo frames.

A3 Mega

GPUs NVIDIA H100 conectadas
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local conectada (GiB) Número de NICs físicas Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM3)
a3-megagpu-8g 208 1872 6000 9 1800 8 640

A3 High

GPUs NVIDIA H100 conectadas
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local conectada (GiB) Número de NICs físicas Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM3)
a3-highgpu-1g 26 234 750 1 25 1 80
a3-highgpu-2g 52 468 1500 1 50 2 160
a3-highgpu-4g 104 936 3000 1 100 4 320
a3-highgpu-8g 208 1872 6000 5 1000 8 640

A3 Edge

GPUs NVIDIA H100 conectadas
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local conectada (GiB) Número de NICs físicas Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM3)
a3-edgegpu-8g 208 1872 6000 5
  • 800: para asia-south1 y northamerica-northeast2
  • 400: para el resto de las regiones de A3 Edge
8 640

1Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

Tipos de máquinas A2

Cada tipo de máquina A2 tiene un número fijo de GPUs NVIDIA A100 de 40 GB o NVIDIA A100 de 80 GB conectadas. Cada tipo de máquina también tiene un número de vCPUs y un tamaño de memoria fijos.

La serie de máquinas A2 está disponible en dos tipos:

  • A2 Ultra: estos tipos de máquinas tienen GPUs A100 de 80 GB y discos SSD local conectados.
  • A2 estándar: estos tipos de máquinas tienen GPUs A100 de 40 GB conectadas.

A2 Ultra

GPUs NVIDIA A100 de 80 GB conectadas
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local conectada (GiB) Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM2e)
a2-ultragpu-1g 12 170 375 24 1 80
a2-ultragpu-2g 24 340 750 32 2 160
a2-ultragpu-4g 48 680 1500 50 4 320
a2-ultragpu-8g 96 1360 3000 100 8 640

A2 Standard

GPUs NVIDIA A100 de 40 GB conectadas
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) SSD local compatible Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3
(GB HBM2)
a2-highgpu-1g 12 85 24 1 40
a2-highgpu-2g 24 170 32 2 80
a2-highgpu-4g 48 340 50 4 160
a2-highgpu-8g 96 680 100 8 320
a2-megagpu-16g 96 1360 100 16 640

1Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

Tipos de máquinas G4

Los tipos de máquinas G4 optimizadas para aceleradores usan GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition (nvidia-rtx-pro-6000) y son adecuados para cargas de trabajo de simulación de NVIDIA Omniverse, aplicaciones con muchos gráficos, transcodificación de vídeo y escritorios virtuales. Los tipos de máquinas G4 también ofrecen una solución de bajo coste para realizar inferencias de un solo host y ajuste de modelos en comparación con los tipos de máquinas de la serie A.

GPUs NVIDIA RTX PRO 6000 conectadas
Tipo de máquina Número de vCPUs1 Memoria de la instancia (GB) Máximo de SSD Titanium admitido (GiB)2 Número de NICs físicas Ancho de banda de red máximo (Gbps)3 Número de GPUs Memoria de la GPU4
(GB GDDR7)
g4-standard-48 48 180 1500 1 50 1 96
g4-standard-96 96 360 3000 1 100 2 192
g4-standard-192 192 720 6000 1 200 4 384
g4-standard-384 384 1440 12.000 2 400 8 17.

1Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2Puedes añadir discos SSD de Titanium al crear una instancia G4. Para saber el número de discos que puedes conectar, consulta Tipos de máquinas que requieren que elijas un número de discos SSD locales.
3El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Consulta Ancho de banda de red.
La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

Tipos de máquinas G2

Los tipos de máquinas G2 optimizadas para aceleradores tienen GPUs NVIDIA L4 conectadas y son ideales para cargas de trabajo de inferencia optimizadas para costes, con un uso intensivo de gráficos y de computación de alto rendimiento.

Cada tipo de máquina G2 también tiene una memoria predeterminada y un intervalo de memoria personalizado. El intervalo de memoria personalizado define la cantidad de memoria que puedes asignar a tu instancia para cada tipo de máquina. También puedes añadir discos SSD locales al crear una instancia G2. Para saber el número de discos que puedes conectar, consulta Tipos de máquinas que requieren que elijas un número de discos SSD locales.

Para que se apliquen las tasas de ancho de banda de red más altas (50 Gbps o más) a la mayoría de las instancias de GPU, te recomendamos que uses la NIC virtual de Google (gVNIC). Para obtener más información sobre cómo crear instancias de GPU que usen gVNIC, consulta Crear instancias de GPU que usen anchos de banda más altos.

GPUs NVIDIA L4 conectadas
Tipo de máquina Número de vCPUs1 Memoria de instancia predeterminada (GB) Intervalo de memoria de instancia personalizada (GB) SSD local máxima admitida (GiB) Ancho de banda de red máximo (Gbps)2 Número de GPUs Memoria de la GPU3 (GB GDDR6)
g2-standard-4 4 16 De 16 a 32 375 10 1 24
g2-standard-8 8 32 De 32 a 54 375 16 1 24
g2-standard-12 12 48 De 48 a 54 375 16 1 24
g2-standard-16 16 64 De 54 a 64 375 32 1 24
g2-standard-24 24 96 De 96 a 108 750 32 2 48
g2-standard-32 32 128 De 96 a 128 375 32 1 24
g2-standard-48 48 192 De 192 a 216 1500 50 4 96
g2-standard-96 96 384 De 384 a 432 3000 100 8 192

1Una vCPU se implementa como un único hiperhilo de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede superar el número indicado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores. Para obtener más información sobre el ancho de banda de red, consulta la sección Ancho de banda de red.
3La memoria de la GPU es la memoria de un dispositivo de GPU que se puede usar para almacenar datos temporalmente. Es independiente de la memoria de la instancia y se ha diseñado específicamente para gestionar las mayores demandas de ancho de banda de tus cargas de trabajo con un uso intensivo de gráficos.

Tipos de máquinas N1 con GPU

En el caso de las instancias de máquina virtual (VM) de uso general N1 que tengan GPUs T4 y V100 conectadas, puedes obtener un ancho de banda de red máximo de hasta 100 Gbps, en función de la combinación de GPU y del número de vCPUs. Para el resto de las instancias de GPU N1, consulta la página de resumen.

Consulta la siguiente sección para calcular el ancho de banda de red máximo disponible para tus instancias T4 y V100 en función del modelo de GPU, la vCPU y el número de GPUs.

Menos de 5 vCPUs

En las instancias T4 y V100 que tienen 5 vCPUs o menos, se puede usar un ancho de banda de red máximo de 10 Gbps.

Más de 5 vCPUs

En las instancias T4 y V100 que tienen más de 5 vCPUs, el ancho de banda de red máximo se calcula en función del número de vCPUs y GPUs de esa VM.

Para que se apliquen las tasas de ancho de banda de red más altas (50 Gbps o más) a la mayoría de las instancias de GPU, te recomendamos que uses la NIC virtual de Google (gVNIC). Para obtener más información sobre cómo crear instancias de GPU que usen gVNIC, consulta Crear instancias de GPU que usen anchos de banda más altos.

Modelo de GPU Número de GPUs Cálculo del ancho de banda de red máximo
NVIDIA V100 1 min(vcpu_count * 2, 32)
2 min(vcpu_count * 2, 32)
4 min(vcpu_count * 2, 50)
8 min(vcpu_count * 2, 100)
NVIDIA T4 1 min(vcpu_count * 2, 32)
2 min(vcpu_count * 2, 50)
4 min(vcpu_count * 2, 100)

Ajustes de MTU y tipos de máquinas con GPU

Para aumentar el rendimiento de la red, defina un valor de unidad de transmisión máxima (MTU) más alto para sus redes VPC. Cuanto mayor sea el valor de MTU, mayor será el tamaño del paquete y menor la sobrecarga del encabezado del paquete, lo que a su vez aumenta el rendimiento de los datos de la carga útil.

En el caso de los tipos de máquinas con GPU, te recomendamos que uses los siguientes ajustes de MTU en tus redes de VPC.

Tipo de máquina con GPU MTU recomendada (en bytes)
Red de VPC normal Red de VPC de RoCE
  • A4X Max
  • A4X
  • A4
  • A3 Ultra
8896 8896
  • A3 Mega
  • A3 High
  • A3 Edge
8244 N/A
  • A2 Standard
  • A2 Ultra
  • G4
  • G2
  • Tipos de máquinas N1 que admiten GPUs
8896 N/A

Cuando defina el valor de MTU, tenga en cuenta lo siguiente:

  • 8192 es el equivalente a dos páginas de 4 KB.
  • Se recomienda usar 8244 en las máquinas virtuales A3 Mega, A3 High y A3 Edge para las NICs de GPU que tengan habilitada la división de encabezados.
  • Utilice el valor 8896, a menos que se indique lo contrario en la tabla.

Crear máquinas con GPU de gran ancho de banda

Para crear instancias de GPU que usen anchos de banda de red más altos, utiliza uno de los siguientes métodos en función del tipo de máquina:

Siguientes pasos