Ce document explique comment mettre à l'échelle les charges de travail sans état existantes exécutées dans un cluster Kubernetes Google Distributed Cloud (GDC) sous air gap. Vous devez mettre à l'échelle les pods exécutés dans vos charges de travail sans état à mesure que les exigences de vos charges de travail de conteneur évoluent.
Ce document s'adresse aux développeurs du groupe d'opérateurs d'applications chargés de gérer les charges de travail des applications pour leur organisation. Pour en savoir plus, consultez Audiences pour la documentation GDC sous air gap.
Avant de commencer
Pour effectuer les tâches décrites dans ce document, vous devez disposer des ressources et des rôles suivants :
Pour exécuter des commandes sur un cluster Kubernetes, assurez-vous de disposer des ressources suivantes :
Recherchez le nom du cluster Kubernetes ou demandez-le à un membre du groupe des administrateurs de la plate-forme.
Connectez-vous et générez le fichier kubeconfig pour le cluster Kubernetes si vous n'en avez pas.
Utilisez le chemin kubeconfig du cluster Kubernetes pour remplacer
KUBERNETES_CLUSTER_KUBECONFIGdans ces instructions.
Pour obtenir les autorisations requises pour mettre à l'échelle des charges de travail sans état dans un cluster partagé, demandez à votre administrateur IAM de l'organisation de vous attribuer le rôle d'administrateur de l'espace de noms (
namespace-admin) dans l'espace de noms de votre projet.Pour obtenir les autorisations requises pour mettre à l'échelle des charges de travail sans état dans un cluster standard, demandez à votre administrateur IAM de l'organisation de vous accorder le rôle Développeur de cluster (
cluster-developer) dans un cluster standard.
Effectuer le scaling d'un déploiement
Utilisez la fonctionnalité de scaling de Kubernetes pour adapter le nombre de pods exécutés dans votre déploiement.
Autoscaler les pods d'un déploiement
Kubernetes propose l'autoscaling pour éviter de devoir mettre à jour manuellement votre déploiement lorsque la demande évolue. Pour autoscaler les pods de votre déploiement, procédez comme suit :
Pour vous assurer que l'autoscaler horizontal de pods peut mesurer correctement le pourcentage de processeur, définissez la demande de ressources de processeur sur votre déploiement.
Définissez l'autoscaler horizontal de pods dans votre déploiement :
kubectl --kubeconfig KUBERNETES_CLUSTER_KUBECONFIG \ -n NAMESPACE \ autoscale deployment DEPLOYMENT_NAME \ --cpu-percent=CPU_PERCENT \ --min=MIN_NUMBER_REPLICAS \ --max=MAX_NUMBER_REPLICASRemplacez les éléments suivants :
KUBERNETES_CLUSTER_KUBECONFIG: le fichier kubeconfig du cluster.NAMESPACE: espace de noms. Pour les clusters partagés, il doit s'agir d'un espace de noms de projet. Pour les clusters standards, il peut s'agir de n'importe quel espace de noms.DEPLOYMENT_NAME: nom du déploiement à autoscaler.CPU_PERCENT: utilisation moyenne cible du processeur à demander, exprimée en pourcentage, pour l'ensemble des pods.MIN_NUMBER_REPLICAS: limite inférieure du nombre de pods que l'autoscaler peut provisionner.MAX_NUMBER_REPLICAS: limite supérieure du nombre de pods que l'autoscaler peut provisionner.
Vérifiez l'état actuel de l'autoscaler horizontal de pods :
kubectl get hpaLe résultat ressemble à ce qui suit :
NAME REFERENCE TARGET MINPODS MAXPODS REPLICAS AGE DEPLOYMENT_NAME Deployment/DEPLOYMENT_NAME/scale 0% / 50% 1 10 1 18s
Effectuer manuellement le scaling des pods d'un déploiement
Si vous préférez effectuer le scaling d'un déploiement manuellement, exécutez la commande suivante :
kubectl --kubeconfig KUBERNETES_CLUSTER_KUBECONFIG \
-n NAMESPACE \
scale deployment DEPLOYMENT_NAME \
--replicas NUMBER_OF_REPLICAS
Remplacez les éléments suivants :
KUBERNETES_CLUSTER_KUBECONFIG: le fichier kubeconfig du cluster.NAMESPACE: espace de noms. Pour les clusters partagés, il doit s'agir d'un espace de noms de projet. Pour les clusters standards, il peut s'agir de n'importe quel espace de noms.DEPLOYMENT_NAME: nom du déploiement dans lequel effectuer l'autoscaling.DEPLOYMENT_NAME: nombre d'objetsPodrépliqués dans le déploiement.
Étapes suivantes
- Inspecter les charges de travail sans état
- Mettre à jour les charges de travail sans état
- Gérer les pools de nœuds