Effectuer le scaling des charges de travail sans état

Ce document explique comment mettre à l'échelle les charges de travail sans état existantes exécutées dans un cluster Kubernetes Google Distributed Cloud (GDC) sous air gap. Vous devez mettre à l'échelle les pods exécutés dans vos charges de travail sans état à mesure que les exigences de vos charges de travail de conteneur évoluent.

Ce document s'adresse aux développeurs du groupe d'opérateurs d'applications chargés de gérer les charges de travail des applications pour leur organisation. Pour en savoir plus, consultez Audiences pour la documentation GDC sous air gap.

Avant de commencer

Pour effectuer les tâches décrites dans ce document, vous devez disposer des ressources et des rôles suivants :

  • Pour exécuter des commandes sur un cluster Kubernetes, assurez-vous de disposer des ressources suivantes :

    • Recherchez le nom du cluster Kubernetes ou demandez-le à un membre du groupe des administrateurs de la plate-forme.

    • Connectez-vous et générez le fichier kubeconfig pour le cluster Kubernetes si vous n'en avez pas.

    • Utilisez le chemin kubeconfig du cluster Kubernetes pour remplacer KUBERNETES_CLUSTER_KUBECONFIG dans ces instructions.

  • Pour obtenir les autorisations requises pour mettre à l'échelle des charges de travail sans état dans un cluster partagé, demandez à votre administrateur IAM de l'organisation de vous attribuer le rôle d'administrateur de l'espace de noms (namespace-admin) dans l'espace de noms de votre projet.

  • Pour obtenir les autorisations requises pour mettre à l'échelle des charges de travail sans état dans un cluster standard, demandez à votre administrateur IAM de l'organisation de vous accorder le rôle Développeur de cluster (cluster-developer) dans un cluster standard.

Effectuer le scaling d'un déploiement

Utilisez la fonctionnalité de scaling de Kubernetes pour adapter le nombre de pods exécutés dans votre déploiement.

Autoscaler les pods d'un déploiement

Kubernetes propose l'autoscaling pour éviter de devoir mettre à jour manuellement votre déploiement lorsque la demande évolue. Pour autoscaler les pods de votre déploiement, procédez comme suit :

  1. Pour vous assurer que l'autoscaler horizontal de pods peut mesurer correctement le pourcentage de processeur, définissez la demande de ressources de processeur sur votre déploiement.

  2. Définissez l'autoscaler horizontal de pods dans votre déploiement :

    kubectl --kubeconfig KUBERNETES_CLUSTER_KUBECONFIG \
        -n NAMESPACE \
        autoscale deployment DEPLOYMENT_NAME \
        --cpu-percent=CPU_PERCENT \
        --min=MIN_NUMBER_REPLICAS \
        --max=MAX_NUMBER_REPLICAS
    

    Remplacez les éléments suivants :

    • KUBERNETES_CLUSTER_KUBECONFIG : le fichier kubeconfig du cluster.

    • NAMESPACE : espace de noms. Pour les clusters partagés, il doit s'agir d'un espace de noms de projet. Pour les clusters standards, il peut s'agir de n'importe quel espace de noms.

    • DEPLOYMENT_NAME : nom du déploiement à autoscaler.

    • CPU_PERCENT : utilisation moyenne cible du processeur à demander, exprimée en pourcentage, pour l'ensemble des pods.

    • MIN_NUMBER_REPLICAS : limite inférieure du nombre de pods que l'autoscaler peut provisionner.

    • MAX_NUMBER_REPLICAS : limite supérieure du nombre de pods que l'autoscaler peut provisionner.

  3. Vérifiez l'état actuel de l'autoscaler horizontal de pods :

    kubectl get hpa
    

    Le résultat ressemble à ce qui suit :

    NAME              REFERENCE                          TARGET    MINPODS   MAXPODS   REPLICAS   AGE
    DEPLOYMENT_NAME   Deployment/DEPLOYMENT_NAME/scale   0% / 50%  1         10        1          18s
    

Effectuer manuellement le scaling des pods d'un déploiement

Si vous préférez effectuer le scaling d'un déploiement manuellement, exécutez la commande suivante :

kubectl --kubeconfig KUBERNETES_CLUSTER_KUBECONFIG \
    -n NAMESPACE \
    scale deployment DEPLOYMENT_NAME \
    --replicas NUMBER_OF_REPLICAS

Remplacez les éléments suivants :

  • KUBERNETES_CLUSTER_KUBECONFIG : le fichier kubeconfig du cluster.

  • NAMESPACE : espace de noms. Pour les clusters partagés, il doit s'agir d'un espace de noms de projet. Pour les clusters standards, il peut s'agir de n'importe quel espace de noms.

  • DEPLOYMENT_NAME : nom du déploiement dans lequel effectuer l'autoscaling.

  • DEPLOYMENT_NAME : nombre d'objets Pod répliqués dans le déploiement.

Étapes suivantes