Cómo escalar cargas de trabajo sin estado

En este documento, se describe cómo escalar las cargas de trabajo sin estado existentes que se ejecutan en un clúster de Kubernetes aislado de Google Distributed Cloud (GDC). Debes escalar los Pods que se ejecutan en tus cargas de trabajo sin estado a medida que evolucionan los requisitos de carga de trabajo de tu contenedor.

Este documento está dirigido a los desarrolladores del grupo de operadores de aplicaciones que son responsables de administrar las cargas de trabajo de las aplicaciones de su organización. Para obtener más información, consulta Públicos de la documentación de Google Distributed Cloud aislado.

Antes de comenzar

Para completar las tareas de este documento, debes tener los siguientes recursos y roles:

  • Para ejecutar comandos en un clúster de Kubernetes, asegúrate de tener los siguientes recursos:

    • Busca el nombre del clúster de Kubernetes o pregúntale a un miembro del grupo de administradores de la plataforma cuál es el nombre del clúster.

    • Accede y genera el archivo kubeconfig para el clúster de Kubernetes si no tienes uno.

    • Usa la ruta de acceso de kubeconfig del clúster de Kubernetes para reemplazar KUBERNETES_CLUSTER_KUBECONFIG en estas instrucciones.

  • Para obtener los permisos necesarios para escalar cargas de trabajo sin estado en un clúster compartido, pídele al administrador de IAM de tu organización que te otorgue el rol de administrador de espacios de nombres (namespace-admin) en el espacio de nombres de tu proyecto.

  • Para obtener los permisos necesarios para escalar cargas de trabajo sin estado en un clúster estándar, pídele al administrador de IAM de la organización que te otorgue el rol de desarrollador de clústeres (cluster-developer) en un clúster estándar.

Escala un Deployment

Usa la funcionalidad de escalamiento de Kubernetes para escalar de forma adecuada la cantidad de Pods que se ejecutan en tu implementación.

Ajusta automáticamente la escala de los Pods de una implementación

Kubernetes ofrece el ajuste de escala automático para eliminar la necesidad de actualizar manualmente tu implementación cuando evoluciona la demanda. Completa los siguientes pasos para ajustar automáticamente la escala de los pods de tu implementación:

  1. Para garantizar que el escalador automático de Pods horizontal pueda medir correctamente el porcentaje de CPU, establece la solicitud de recursos de CPU en tu implementación.

  2. Configura el escalador automático horizontal de Pods en tu implementación:

    kubectl --kubeconfig KUBERNETES_CLUSTER_KUBECONFIG \
        -n NAMESPACE \
        autoscale deployment DEPLOYMENT_NAME \
        --cpu-percent=CPU_PERCENT \
        --min=MIN_NUMBER_REPLICAS \
        --max=MAX_NUMBER_REPLICAS
    

    Reemplaza lo siguiente:

    • KUBERNETES_CLUSTER_KUBECONFIG: Es el archivo kubeconfig del clúster.

    • NAMESPACE: es el espacio de nombres. En el caso de los clústeres compartidos, debe ser un espacio de nombres del proyecto. En el caso de los clústeres estándares, puede ser cualquier espacio de nombres.

    • DEPLOYMENT_NAME: Es el nombre de la implementación que se ajustará automáticamente.

    • CPU_PERCENT: Es el porcentaje de uso promedio de CPU objetivo que se solicitará en todos los pods.

    • MIN_NUMBER_REPLICAS: Es el límite inferior para la cantidad de Pods que puede aprovisionar el escalador automático.

    • MAX_NUMBER_REPLICAS: Es el límite superior para la cantidad de Pods que puede aprovisionar el escalador automático.

  3. Verifica el estado actual del escalador automático horizontal de Pods:

    kubectl get hpa
    

    El resultado es similar a lo siguiente:

    NAME              REFERENCE                          TARGET    MINPODS   MAXPODS   REPLICAS   AGE
    DEPLOYMENT_NAME   Deployment/DEPLOYMENT_NAME/scale   0% / 50%  1         10        1          18s
    

Ajusta manualmente la escala de los Pods de una implementación

Si prefieres ajustar la escala de una implementación de forma manual, ejecuta el siguiente comando:

kubectl --kubeconfig KUBERNETES_CLUSTER_KUBECONFIG \
    -n NAMESPACE \
    scale deployment DEPLOYMENT_NAME \
    --replicas NUMBER_OF_REPLICAS

Reemplaza lo siguiente:

  • KUBERNETES_CLUSTER_KUBECONFIG: Es el archivo kubeconfig del clúster.

  • NAMESPACE: es el espacio de nombres. En el caso de los clústeres compartidos, debe ser un espacio de nombres del proyecto. En el caso de los clústeres estándares, puede ser cualquier espacio de nombres.

  • DEPLOYMENT_NAME: Es el nombre de la implementación en la que se realizará el ajuste de escala automático.

  • DEPLOYMENT_NAME: Es la cantidad de objetos Pod replicados en la implementación.

¿Qué sigue?