En este documento, se describe cómo escalar las cargas de trabajo sin estado existentes que se ejecutan en un clúster de Kubernetes aislado de Google Distributed Cloud (GDC). Debes escalar los pods que se ejecutan en tus cargas de trabajo sin estado a medida que evolucionan los requisitos de carga de trabajo de tu contenedor.
Este documento está dirigido a los desarrolladores del grupo de operadores de aplicaciones que son responsables de administrar las cargas de trabajo de las aplicaciones de su organización. Para obtener más información, consulta Audiences for GDC air-gapped documentation.
Antes de comenzar
Para ejecutar comandos en un clúster de Kubernetes, asegúrate de tener los siguientes recursos:
Ubica el nombre del clúster de Kubernetes o pregúntale a tu administrador de la plataforma cuál es el nombre del clúster.
Accede y genera el archivo kubeconfig para el clúster de Kubernetes si no tienes uno.
Usa la ruta de acceso de kubeconfig del clúster de Kubernetes para reemplazar
KUBERNETES_CLUSTER_KUBECONFIGen estas instrucciones.
Para obtener los permisos necesarios para escalar cargas de trabajo sin estado, pídele al administrador de IAM de tu organización que te otorgue el rol de administrador de espacios de nombres (namespace-admin) en el espacio de nombres de tu proyecto.
Escala un Deployment
Aprovecha la funcionalidad de escalamiento de Kubernetes para escalar de forma adecuada la cantidad de pods que se ejecutan en tu implementación.
Ajusta automáticamente la escala de los Pods de una implementación
Kubernetes ofrece el ajuste de escala automático para eliminar la necesidad de actualizar manualmente tu implementación cuando evoluciona la demanda. Configura el escalador automático horizontal de Pods en tu implementación para habilitar esta función:
kubectl --kubeconfig KUBERNETES_CLUSTER_KUBECONFIG \
-n NAMESPACE \
autoscale deployment DEPLOYMENT_NAME \
--cpu-percent=CPU_PERCENT \
--min=MIN_NUMBER_REPLICAS \
--max=MAX_NUMBER_REPLICAS
Reemplaza lo siguiente:
KUBERNETES_CLUSTER_KUBECONFIG: Es el archivo kubeconfig del clúster.NAMESPACE: Es el espacio de nombres del proyecto.DEPLOYMENT_NAME: Es el nombre de la implementación en la que se realizará el ajuste de escala automático.CPU_PERCENT: Es el porcentaje de uso promedio de CPU objetivo que se solicitará en todos los pods.MIN_NUMBER_REPLICAS: Es el límite inferior para la cantidad de Pods que puede aprovisionar el escalador automático.MAX_NUMBER_REPLICAS: Es el límite superior para la cantidad de Pods que puede aprovisionar el escalador automático.
Para verificar el estado actual del escalador automático horizontal de Pods recién creado, ejecuta lo siguiente:
kubectl get hpa
El resultado es similar a este:
NAME REFERENCE TARGET MINPODS MAXPODS REPLICAS AGE
DEPLOYMENT_NAME Deployment/DEPLOYMENT_NAME/scale 0% / 50% 1 10 1 18s
Ajusta manualmente la escala de los Pods de una implementación
Si prefieres ajustar la escala de una implementación de forma manual, ejecuta el siguiente comando:
kubectl --kubeconfig KUBERNETES_CLUSTER_KUBECONFIG \
-n NAMESPACE \
scale deployment DEPLOYMENT_NAME \
--replicas NUMBER_OF_REPLICAS
Reemplaza lo siguiente:
KUBERNETES_CLUSTER_KUBECONFIG: Es el archivo kubeconfig del clúster.NAMESPACE: Es el espacio de nombres del proyecto.DEPLOYMENT_NAME: Es el nombre de la implementación en la que se realizará el ajuste de escala automático.DEPLOYMENT_NAME: Es la cantidad deseada de objetosPodreplicados en la implementación.