En esta página, se muestra cómo configurar las implementaciones de Google Kubernetes Engine (GKE) Autopilot para solicitar nodos que están respaldados por la arquitectura Arm.
Acerca de la arquitectura Arm en Autopilot
Los clústeres de Autopilot ofrecen clases de procesamiento para las cargas de trabajo que tienen requisitos de hardware específicos. Algunas de estas clases de procesamiento admiten varias arquitecturas de CPU, como amd64
y arm64
.
Casos de uso para nodos Arm
Los nodos con arquitectura Arm ofrecen un rendimiento más rentable que los nodos x86 similares. Debes seleccionar Arm para tus cargas de trabajo de Autopilot en situaciones como las siguientes:
- Tu entorno depende de la arquitectura Arm para la compilación las pruebas.
- Estás desarrollando aplicaciones para dispositivos Android que se ejecutan en CPU Arm.
- Usas imágenes multiarquitectura y deseas optimizar los costos mientras ejecutas las cargas de trabajo.
Antes de comenzar
Antes de comenzar, asegúrate de haber realizado las siguientes tareas:
- Habilita la API de Google Kubernetes Engine. Habilitar la API de Google Kubernetes Engine
- Si deseas usar Google Cloud CLI para esta tarea, instala y, luego, inicializa gcloud CLI. Si ya instalaste gcloud CLI, ejecuta el comando
gcloud components update
para obtener la versión más reciente. Es posible que las versiones anteriores de gcloud CLI no admitan la ejecución de los comandos que se describen en este documento.
- Revisa los requisitos y las limitaciones de los nodos Arm.
- Asegúrate de tener una cuota para los tipos de máquinas de Compute Engine C4A o Tau T2A.
- Asegúrate de tener un Pod con una imagen de contenedor compilada para la arquitectura Arm.
Cómo solicitar nodos Arm en Autopilot
Para indicarle a Autopilot que ejecute tus Pods en nodos Arm, especifica una de las siguientes etiquetas en un nodeSelector o una regla de afinidad de nodos:
kubernetes.io/arch: arm64
. De forma predeterminada, GKE coloca los Pods en tipos de máquinasC4A
para los clústeres que ejecutan la versión 1.31.3-gke.1056000 y versiones posteriores. Si el clúster ejecuta una versión anterior, GKE coloca los Pods en tipos de máquinasT2A
.cloud.google.com/machine-family: ARM_MACHINE_SERIES
. ReemplazaARM_MACHINE_SERIES
por una serie de máquinas Arm, comoC4A
oT2A
. GKE coloca los Pods en la serie especificada.
De forma predeterminada, usar cualquiera de las etiquetas permite que GKE coloque otros Pods en el mismo nodo si hay capacidad disponible en él. Para solicitar un nodo dedicado para cada Pod, agrega la etiqueta cloud.google.com/compute-class:
Performance
a tu manifiesto. Para obtener más detalles, consulta Cómo optimizar el rendimiento de los Pods de Autopilot eligiendo una serie de máquinas.
También puedes usar la etiqueta Scale-Out
con la etiqueta arm64
para solicitar T2A
.
También puedes solicitar la arquitectura Arm para Pods Spot.
Cuando implementas tu carga de trabajo, Autopilot hace lo siguiente:
- Aprovisiona de forma automática los nodos Arm para ejecutar tus Pods.
- Genera un taint de forma automática en los nodos nuevos para evitar que se programen Pods que no sean de Arm en esos nodos.
- Agrega de forma automática una tolerancia a tus Pods de Arm para permitir la programación en los nodos nuevos.
Solicitud de ejemplo de la arquitectura Arm
En las siguientes especificaciones de ejemplo, se muestra cómo usar un selector de nodos o una regla de afinidad de nodos para solicitar la arquitectura Arm en Autopilot.
nodeSelector
En el siguiente manifiesto de ejemplo, se muestra cómo solicitar nodos Arm en un nodeSelector:
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-arm
spec:
replicas: 3
selector:
matchLabels:
app: nginx-arm
template:
metadata:
labels:
app: nginx-arm
spec:
nodeSelector:
cloud.google.com/compute-class: Performance
kubernetes.io/arch: arm64
containers:
- name: nginx-arm
image: nginx
resources:
requests:
cpu: 2000m
memory: 2Gi
nodeAffinity
Puedes usar la afinidad de nodos para solicitar nodos Arm. También puedes especificar el tipo de afinidad de nodos que se usará:
requiredDuringSchedulingIgnoredDuringExecution
: Debe usar la clase de procesamiento y la arquitectura especificadas.preferredDuringSchedulingIgnoredDuringExecution
: Usa la clase de procesamiento y la arquitectura especificadas según el criterio del mejor esfuerzo. Por ejemplo, si un nodo x86 existente es asignable, GKE coloca tu Pod en el nodo x86 en lugar de aprovisionar un nuevo nodo Arm. A menos que uses un manifiesto de imagen multiarquitectura, el Pod fallará. Te recomendamos que solicites explícitamente la arquitectura específica que desees.
En el siguiente manifiesto de ejemplo, se requiere la clase Performance
y nodos Arm:
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-arm
spec:
replicas: 3
selector:
matchLabels:
app: nginx-arm
template:
metadata:
labels:
app: nginx-arm
spec:
terminationGracePeriodSeconds: 25
containers:
- name: nginx-arm
image: nginx
resources:
requests:
cpu: 2000m
memory: 2Gi
ephemeral-storage: 1Gi
affinity:
nodeAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
nodeSelectorTerms:
- matchExpressions:
- key: cloud.google.com/compute-class
operator: In
values:
- Performance
- key: kubernetes.io/arch
operator: In
values:
- arm64
Recomendaciones
- Compila y usa imágenes multiarquitectura como parte de tu canalización. Las imágenes multiarquitectura garantizan que tus Pods se ejecuten incluso si se colocan en nodos x86.
- Solicita arquitectura y clases de procesamiento de forma explícita en tus manifiestos de cargas de trabajo. Si no lo haces, Autopilot usa la arquitectura predeterminada de la clase de procesamiento seleccionada, que podría no ser Arm.
Disponibilidad
Puedes implementar cargas de trabajo de Autopilot en la arquitectura Arm en lasGoogle Cloud ubicaciones que admiten la arquitectura Arm. Para obtener más detalles, consulta Regiones y zonas disponibles.
Soluciona problemas
Para obtener información sobre la solución de problemas y errores comunes, consulta Solución de problemas de cargas de trabajo de Arm.
¿Qué sigue?
- Obtén más información sobre la arquitectura del clúster de Autopilot.
- Obtén más información sobre el ciclo de vida de los Pods.
- Obtén más información sobre las clases de procesamiento de Autopilot disponibles.
- Lee acerca de las solicitudes de recursos predeterminadas, mínimas y máximas para cada plataforma.