Crear un clúster estándar para ejecutar cargas de trabajo de contenedores

En este documento se explica cómo crear un clúster de Kubernetes estándar en una zona aislada de Google Distributed Cloud (GDC). Un clúster estándar proporciona un clúster de Kubernetes de ámbito de proyecto y altamente configurable que incluye un conjunto mínimo de servicios gestionados. El clúster estándar ofrece más flexibilidad para la configuración de servicios que el clúster compartido, pero también requiere más sobrecarga de gestión. Para obtener más información sobre los clústeres estándar, consulta Configuraciones de clústeres de Kubernetes.

Los clústeres estándar son un recurso zonal y no pueden abarcar varias zonas. Para usar clústeres en un universo multizona, debes crear manualmente clústeres en cada zona.

Este documento está dirigido a audiencias como los desarrolladores de aplicaciones del grupo de operadores de aplicaciones, que son los responsables de gestionar las cargas de trabajo de los contenedores de su organización. Para obtener más información, consulta Audiencias de la documentación aislada de GDC.

Antes de empezar

  • Comprueba que tienes la configuración adecuada para acceder a clústeres estándar y gestionarlos. Para obtener más información, consulta Gestionar el acceso a clústeres estándar.

  • Para obtener los permisos necesarios para crear un clúster estándar, pide al administrador de gestión de identidades y accesos de tu organización que te conceda los roles Administrador de gestión de identidades y accesos de proyectos (project-iam-admin) y Administrador de clústeres estándar (standard-cluster-admin). Estos roles están vinculados al espacio de nombres de tu proyecto.

  • Planifica los siguientes límites de aislamiento de Google Distributed Cloud (GDC) para clústeres de Kubernetes:

    • 16 clústeres por organización
    • 42 nodos de trabajador por clúster y un mínimo de tres nodos de trabajador
    • 4620 pods por clúster
    • 110 pods por nodo

Planificar el bloque CIDR de pods

Para asignar el bloque CIDR de pods del tamaño adecuado a tus cargas de trabajo, debes calcular la cantidad de direcciones IP que necesita tu clúster de Kubernetes antes de crearlo. La mayoría de los parámetros de red no se pueden cambiar después de crear el clúster.

Un clúster de Kubernetes sigue la lógica anterior al asignar direcciones IP:

  • Kubernetes asigna un /24bloque CIDR que consta de 256 direcciones a cada uno de los nodos. Esta cantidad se ajusta al máximo predeterminado de 110 pods por nodo en los clústeres de Kubernetes.
  • El tamaño del bloque CIDR asignado a un nodo depende del valor máximo de pods por nodo.
  • El bloque siempre contiene al menos el doble de direcciones que el número máximo de pods por nodo.

Consulta el siguiente ejemplo para saber cómo se ha calculado el valor predeterminado de Per node mask size= /24 para dar cabida a 110 pods:

Maximum pods per node = 110
Total number of IP addresses required = 2 * 110 = 220

Per node mask size = /24
Number of IP addresses in a /24 = 2(32 - 24) = 256

Determina la máscara CIDR de pod necesaria para configurar el clúster de Kubernetes en función del número de nodos que necesites. Planifica las futuras incorporaciones de nodos al clúster al configurar el intervalo CIDR:

  Total number of nodes supported = 2(Per node mask size - pod CIDR mask)

Como hay un tamaño de máscara por nodo predeterminado (/24), consulta la siguiente tabla, que asigna la máscara CIDR de pod al número de nodos admitidos.

Máscara de CIDR de pod Cálculo: 2(Tamaño de la máscara por nodo - Máscara CIDR) Número máximo de nodos admitidos, incluidos los nodos del plano de control
/21 2(24 - 21) 8
/20 2(24 - 20) 16
/19 2(24 - 19) 32
/18 2(24 - 18) 64

Después de calcular el bloque CIDR de los pods de tu clúster de Kubernetes, configúralo como parte del flujo de trabajo de creación del clúster en la siguiente sección.

Crear un clúster estándar

Para crear un clúster estándar, sigue estos pasos:

API

  1. Crea un Cluster recurso personalizado y guárdalo como un archivo YAML, como cluster.yaml:

    apiVersion: cluster.gdc.goog/v1
    kind: Cluster
    metadata:
      name: CLUSTER_NAME
      namespace: PROJECT_NAME
    spec:
      clusterNetwork:
        podCIDRSize: POD_CIDR
        serviceCIDRSize: SERVICE_CIDR
      initialVersion:
        kubernetesVersion: KUBERNETES_VERSION
      nodePools:
      - machineTypeName: MACHINE_TYPE
        name: NODE_POOL_NAME
        nodeCount: NUMBER_OF_WORKER_NODES
        taints: TAINTS
        labels: LABELS
        acceleratorOptions:
          gpuPartitionScheme: GPU_PARTITION_SCHEME
      releaseChannel:
        channel: UNSPECIFIED
    

    Haz los cambios siguientes:

    • CLUSTER_NAME: el nombre del clúster. El nombre del clúster no debe terminar con -system. El sufijo -system está reservado para los clústeres creados por GDC.
    • PROJECT_NAME: el nombre del proyecto en el que se creará el clúster.
    • POD_CIDR: tamaño de los intervalos de red desde los que se asignan las direcciones IP virtuales de los pods. Si no se define, se usa el valor predeterminado 21.
    • SERVICE_CIDR: tamaño de los intervalos de red desde los que se asignan las direcciones IP virtuales de servicio. Si no se define, se usa el valor predeterminado 23.
    • KUBERNETES_VERSION: la versión de Kubernetes del clúster, como 1.26.5-gke.2100. Para ver la lista de versiones de Kubernetes disponibles que se pueden configurar, consulta Listar las versiones de Kubernetes disponibles de un clúster.
    • MACHINE_TYPE: el tipo de máquina de los nodos de trabajador del grupo de nodos. Consulta los tipos de máquinas disponibles para ver qué se puede configurar.
    • NODE_POOL_NAME: el nombre del grupo de nodos.
    • NUMBER_OF_WORKER_NODES: número de nodos de trabajo que se aprovisionarán en el grupo de nodos.
    • TAINTS: los taints que se aplicarán a los nodos de este grupo de nodos. Este campo es opcional.
    • LABELS: las etiquetas que se aplicarán a los nodos de este grupo de nodos. Contiene una lista de pares clave-valor. Este campo es opcional.
    • GPU_PARTITION_SCHEME: el esquema de partición de GPU, si ejecutas cargas de trabajo de GPU. Este campo es opcional. Por ejemplo, mixed-2. La GPU no se particiona si no se define este campo. Para obtener más información sobre los perfiles de GPU multiinstancia (MIG) disponibles, consulta Perfiles de MIG admitidos.
  2. Aplica el recurso personalizado a tu instancia de GDC:

    kubectl apply -f cluster.yaml --kubeconfig MANAGEMENT_API_SERVER
    

    Sustituye MANAGEMENT_API_SERVER por la ruta de kubeconfig del servidor de la API zonal. Si aún no has generado un archivo kubeconfig para el servidor de la API en la zona de destino, consulta Iniciar sesión.

La creación de un clúster estándar puede tardar hasta 60 minutos en completarse.

Terraform

  1. En un archivo de configuración de Terraform, inserta el siguiente fragmento de código:

    provider "kubernetes" {
      config_path = "MANAGEMENT_API_SERVER"
    }
    
    resource "kubernetes_manifest" "cluster-create" {
      manifest = {
        "apiVersion" = "cluster.gdc.goog/v1"
        "kind" = "Cluster"
        "metadata" = {
          "name" = "CLUSTER_NAME"
          "namespace" = "PROJECT_NAME"
        }
        "spec" = {
          "clusterNetwork" = {
            "podCIDRSize" = "POD_CIDR"
            "serviceCIDRSize" = "SERVICE_CIDR"
          }
          "initialVersion" = {
            "kubernetesVersion" = "KUBERNETES_VERSION"
          }
          "nodePools" = [{
            "machineTypeName" = "MACHINE_TYPE"
            "name" = "NODE_POOL_NAME"
            "nodeCount" = "NUMBER_OF_WORKER_NODES"
            "taints" = "TAINTS"
            "labels" = "LABELS"
            "acceleratorOptions" = {
              "gpuPartitionScheme" = "GPU_PARTITION_SCHEME"
            }
          }]
          "releaseChannel" = {
            "channel" = "UNSPECIFIED"
          }
        }
      }
    }
    

    Haz los cambios siguientes:

    • MANAGEMENT_API_SERVER: la ruta de kubeconfig del servidor de la API zonal. Si aún no has generado un archivo kubeconfig para el servidor de la API de tu zona de destino, consulta Iniciar sesión.
    • CLUSTER_NAME: el nombre del clúster. El nombre del clúster no debe terminar con -system. El sufijo -system está reservado para los clústeres creados por GDC.
    • PROJECT_NAME: el nombre del proyecto en el que se va a crear el clúster.
    • POD_CIDR: tamaño de los intervalos de red desde los que se asignan las direcciones IP virtuales de los pods. Si no se define, se usa el valor predeterminado 21.
    • SERVICE_CIDR: tamaño de los intervalos de red desde los que se asignan las direcciones IP virtuales de servicio. Si no se define, se usa el valor predeterminado 23.
    • KUBERNETES_VERSION: la versión de Kubernetes del clúster, como 1.26.5-gke.2100. Para ver la lista de versiones de Kubernetes disponibles que se pueden configurar, consulta Listar las versiones de Kubernetes disponibles de un clúster.
    • MACHINE_TYPE: el tipo de máquina de los nodos de trabajador del grupo de nodos. Consulta los tipos de máquinas disponibles para ver qué se puede configurar.
    • NODE_POOL_NAME: el nombre del grupo de nodos.
    • NUMBER_OF_WORKER_NODES: número de nodos de trabajo que se aprovisionarán en el grupo de nodos.
    • TAINTS: los taints que se aplicarán a los nodos de este grupo de nodos. Este campo es opcional.
    • LABELS: las etiquetas que se aplicarán a los nodos de este grupo de nodos. Contiene una lista de pares clave-valor. Este campo es opcional.
    • GPU_PARTITION_SCHEME: el esquema de partición de GPU, si ejecutas cargas de trabajo de GPU. Este campo es opcional. Por ejemplo, mixed-2. La GPU no se particiona si no se define este campo. Para obtener más información sobre los perfiles de GPU multiinstancia (MIG) disponibles, consulta Perfiles de MIG admitidos.
  2. Aplica el nuevo clúster estándar con Terraform:

    terraform apply
    

La creación de un clúster estándar puede tardar hasta 60 minutos en completarse.

Siguientes pasos