Implementa cargas de trabajo de Autopilot en la arquitectura Arm

En esta página, se muestra cómo configurar las implementaciones de Google Kubernetes Engine (GKE) Autopilot para solicitar nodos que están respaldados por la arquitectura Arm.

Acerca de la arquitectura Arm en Autopilot

Los clústeres de Autopilot ofrecen clases de procesamiento para las cargas de trabajo que tienen requisitos de hardware específicos. Algunas de estas clases de procesamiento admiten varias arquitecturas de CPU, como amd64 y arm64.

Casos de uso para nodos Arm

Los nodos con arquitectura Arm ofrecen un rendimiento más rentable que los nodos x86 similares. Debes seleccionar Arm para tus cargas de trabajo de Autopilot en situaciones como las siguientes:

  • Tu entorno depende de la arquitectura Arm para la compilación las pruebas.
  • Estás desarrollando aplicaciones para dispositivos Android que se ejecutan en CPU Arm.
  • Usas imágenes multiarquitectura y deseas optimizar los costos mientras ejecutas las cargas de trabajo.

Antes de comenzar

Antes de comenzar, asegúrate de haber realizado las siguientes tareas:

  • Habilita la API de Google Kubernetes Engine.
  • Habilitar la API de Google Kubernetes Engine
  • Si deseas usar Google Cloud CLI para esta tarea, instala y, luego, inicializa gcloud CLI. Si ya instalaste gcloud CLI, ejecuta el comando gcloud components update para obtener la versión más reciente. Es posible que las versiones anteriores de gcloud CLI no admitan la ejecución de los comandos que se describen en este documento.

Cómo solicitar nodos Arm en Autopilot

Para indicarle a Autopilot que ejecute tus Pods en nodos Arm, especifica una de las siguientes etiquetas en un nodeSelector o una regla de afinidad de nodos:

  • kubernetes.io/arch: arm64. De forma predeterminada, GKE coloca los Pods en tipos de máquinas C4A para los clústeres que ejecutan la versión 1.31.3-gke.1056000 y versiones posteriores. Si el clúster ejecuta una versión anterior, GKE coloca los Pods en tipos de máquinas T2A.
  • cloud.google.com/machine-family: ARM_MACHINE_SERIES. Reemplaza ARM_MACHINE_SERIES por una serie de máquinas Arm, como C4A o T2A. GKE coloca los Pods en la serie especificada.

De forma predeterminada, usar cualquiera de las etiquetas permite que GKE coloque otros Pods en el mismo nodo si hay capacidad disponible en él. Para solicitar un nodo dedicado para cada Pod, agrega la etiqueta cloud.google.com/compute-class: Performance a tu manifiesto. Para obtener más detalles, consulta Cómo optimizar el rendimiento de los Pods de Autopilot eligiendo una serie de máquinas.

También puedes usar la etiqueta Scale-Out con la etiqueta arm64 para solicitar T2A. También puedes solicitar la arquitectura Arm para Pods Spot.

Cuando implementas tu carga de trabajo, Autopilot hace lo siguiente:

  1. Aprovisiona de forma automática los nodos Arm para ejecutar tus Pods.
  2. Genera un taint de forma automática en los nodos nuevos para evitar que se programen Pods que no sean de Arm en esos nodos.
  3. Agrega de forma automática una tolerancia a tus Pods de Arm para permitir la programación en los nodos nuevos.

Solicitud de ejemplo de la arquitectura Arm

En las siguientes especificaciones de ejemplo, se muestra cómo usar un selector de nodos o una regla de afinidad de nodos para solicitar la arquitectura Arm en Autopilot.

nodeSelector

En el siguiente manifiesto de ejemplo, se muestra cómo solicitar nodos Arm en un nodeSelector:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-arm
spec:
  replicas: 3
  selector:
    matchLabels:
      app: nginx-arm
  template:
    metadata:
      labels:
        app: nginx-arm
    spec:
      nodeSelector:
        cloud.google.com/compute-class: Performance
        kubernetes.io/arch: arm64
      containers:
      - name: nginx-arm
        image: nginx
        resources:
          requests:
            cpu: 2000m
            memory: 2Gi

nodeAffinity

Puedes usar la afinidad de nodos para solicitar nodos Arm. También puedes especificar el tipo de afinidad de nodos que se usará:

  • requiredDuringSchedulingIgnoredDuringExecution: Debe usar la clase de procesamiento y la arquitectura especificadas.
  • preferredDuringSchedulingIgnoredDuringExecution: Usa la clase de procesamiento y la arquitectura especificadas según el criterio del mejor esfuerzo. Por ejemplo, si un nodo x86 existente es asignable, GKE coloca tu Pod en el nodo x86 en lugar de aprovisionar un nuevo nodo Arm. A menos que uses un manifiesto de imagen multiarquitectura, el Pod fallará. Te recomendamos que solicites explícitamente la arquitectura específica que desees.

En el siguiente manifiesto de ejemplo, se requiere la clase Performance y nodos Arm:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-arm
spec:
  replicas: 3
  selector:
    matchLabels:
      app: nginx-arm
  template:
    metadata:
      labels:
        app: nginx-arm
    spec:
      terminationGracePeriodSeconds: 25
      containers:
      - name: nginx-arm
        image: nginx
        resources:
          requests:
            cpu: 2000m
            memory: 2Gi
            ephemeral-storage: 1Gi
      affinity:
        nodeAffinity:
          requiredDuringSchedulingIgnoredDuringExecution:
            nodeSelectorTerms:
            - matchExpressions:
              - key: cloud.google.com/compute-class
                operator: In
                values:
                - Performance
              - key: kubernetes.io/arch
                operator: In
                values:
                - arm64

Recomendaciones

  • Compila y usa imágenes multiarquitectura como parte de tu canalización. Las imágenes multiarquitectura garantizan que tus Pods se ejecuten incluso si se colocan en nodos x86.
  • Solicita arquitectura y clases de procesamiento de forma explícita en tus manifiestos de cargas de trabajo. Si no lo haces, Autopilot usa la arquitectura predeterminada de la clase de procesamiento seleccionada, que podría no ser Arm.

Disponibilidad

Puedes implementar cargas de trabajo de Autopilot en la arquitectura Arm en lasGoogle Cloud ubicaciones que admiten la arquitectura Arm. Para obtener más detalles, consulta Regiones y zonas disponibles.

Soluciona problemas

Para obtener información sobre la solución de problemas y errores comunes, consulta Solución de problemas de cargas de trabajo de Arm.

¿Qué sigue?