En este documento se describe cómo escalar las cargas de trabajo sin estado que se ejecutan en un clúster de Kubernetes aislado de Google Distributed Cloud (GDC). Debes escalar los pods que se ejecutan en tus cargas de trabajo sin estado a medida que evolucionen los requisitos de tu carga de trabajo de contenedor.
Este documento está dirigido a los desarrolladores del grupo de operadores de aplicaciones que se encargan de gestionar las cargas de trabajo de las aplicaciones de su organización. Para obtener más información, consulta Audiencias de la documentación aislada de GDC.
Antes de empezar
Para completar las tareas de este documento, debes tener los siguientes recursos y roles:
Para ejecutar comandos en un clúster de Kubernetes, asegúrate de tener los siguientes recursos:
Busca el nombre del clúster de Kubernetes o pregunta a un miembro del grupo de administradores de la plataforma cuál es el nombre del clúster.
Inicia sesión y genera el archivo kubeconfig del clúster de Kubernetes si no tienes uno.
Usa la ruta kubeconfig del clúster de Kubernetes para sustituir
KUBERNETES_CLUSTER_KUBECONFIGen estas instrucciones.
Para obtener los permisos necesarios para escalar cargas de trabajo sin estado en un clúster compartido, pide al administrador de IAM de tu organización que te conceda el rol Administrador de espacio de nombres (
namespace-admin) en el espacio de nombres de tu proyecto.Para obtener los permisos necesarios para escalar cargas de trabajo sin estado en un clúster estándar, pide a tu administrador de gestión de identidades y accesos de la organización que te conceda el rol de desarrollador de clúster (
cluster-developer) en un clúster estándar.
Escalar un despliegue
Usa la función de escalado de Kubernetes para escalar adecuadamente la cantidad de pods que se ejecutan en tu implementación.
Autoescalar los pods de un despliegue
Kubernetes ofrece el escalado automático para que no tengas que actualizar manualmente tu implementación cuando cambie la demanda. Sigue estos pasos para escalar automáticamente los pods de tu implementación:
Para asegurarte de que el autoescalador horizontal de pods pueda medir correctamente el porcentaje de CPU, define la solicitud de recursos de CPU en tu despliegue.
Define el autoescalador de pods horizontal en tu despliegue:
kubectl --kubeconfig KUBERNETES_CLUSTER_KUBECONFIG \ -n NAMESPACE \ autoscale deployment DEPLOYMENT_NAME \ --cpu-percent=CPU_PERCENT \ --min=MIN_NUMBER_REPLICAS \ --max=MAX_NUMBER_REPLICASHaz los cambios siguientes:
KUBERNETES_CLUSTER_KUBECONFIG: el archivo kubeconfig del clúster.NAMESPACE: el espacio de nombres. En el caso de los clústeres compartidos, debe ser un espacio de nombres de proyecto. En los clústeres estándar, puede ser cualquier espacio de nombres.DEPLOYMENT_NAME: el nombre del despliegue que se va a escalar automáticamente.CPU_PERCENT: el uso medio de CPU objetivo que se va a solicitar, representado como un porcentaje, en todos los pods.MIN_NUMBER_REPLICAS: límite inferior del número de pods que puede aprovisionar el escalador automático.MAX_NUMBER_REPLICAS: límite superior del número de pods que puede aprovisionar el escalador automático.
Comprueba el estado actual del autoescalador de pods horizontal:
kubectl get hpaEl resultado debería ser similar al siguiente:
NAME REFERENCE TARGET MINPODS MAXPODS REPLICAS AGE DEPLOYMENT_NAME Deployment/DEPLOYMENT_NAME/scale 0% / 50% 1 10 1 18s
Escalar manualmente los pods de una implementación
Si prefieres escalar una implementación manualmente, ejecuta el siguiente comando:
kubectl --kubeconfig KUBERNETES_CLUSTER_KUBECONFIG \
-n NAMESPACE \
scale deployment DEPLOYMENT_NAME \
--replicas NUMBER_OF_REPLICAS
Haz los cambios siguientes:
KUBERNETES_CLUSTER_KUBECONFIG: el archivo kubeconfig del clúster.NAMESPACE: el espacio de nombres. En el caso de los clústeres compartidos, debe ser un espacio de nombres de proyecto. En los clústeres estándar, puede ser cualquier espacio de nombres.DEPLOYMENT_NAME: el nombre del despliegue en el que se va a aplicar el autoescalado.DEPLOYMENT_NAME: el número de objetos replicadosPoden la implementación.
Siguientes pasos
- Inspeccionar cargas de trabajo sin estado
- Actualizar cargas de trabajo sin estado
- Gestionar grupos de nodos