À propos des charges de travail en mode Autopilot dans GKE Standard

Vous pouvez utiliser des ComputeClasses pour exécuter des charges de travail Google Kubernetes Engine (GKE) Autopilot dans vos clusters en mode GKE Standard. Ce document décrit les méthodes que vous pouvez utiliser pour exécuter vos charges de travail en mode Autopilot et vous aide à décider quand exécuter une charge de travail dans un mode spécifique.

Ces informations sont destinées aux personnes suivantes :

  • Les architectes cloud qui souhaitent optimiser les coûts opérationnels dans les organisations.
  • Les administrateurs de plate-forme qui souhaitent réduire les frais généraux liés à la gestion manuelle de l'infrastructure.
  • Les ingénieurs en fiabilité des sites (SRE) qui souhaitent transférer la maintenance, les mises à niveau et le scaling de l'infrastructure à chaque fois que cela est possible. Google Cloud

Vous devez déjà connaître les concepts suivants :

À propos de GKE Autopilot

Autopilot est un mode de fonctionnement de GKE dans lequel Google gère votre infrastructure de nœuds, le scaling, la sécurité et les fonctionnalités préconfigurées. Le mode Autopilot est optimisé pour l'exécution de la plupart des charges de travail de production dans un environnement qui applique les paramètres recommandés pour la sécurité, la fiabilité, les performances et l'évolutivité. Pour choisir entre le mode Autopilot et le mode Standard en fonction de vos besoins, consultez la section À propos des modes de fonctionnement de GKE.

Vous pouvez utiliser le mode Autopilot de différentes manières :

  • Créer un cluster qui utilise le mode Autopilot : Google gère l'ensemble du cluster et applique les bonnes pratiques en matière d'automatisation, de fiabilité, de sécurité et de coûts.
  • Exécuter des charges de travail en mode Autopilot dans des clusters standards: vous déployez des ComputeClasses Autopilot et les sélectionnez dans les charges de travail. Google gère les nœuds que GKE crée pour ces charges de travail spécifiques dans un pool de nœuds géré par Autopilot. Vous contrôlez le cluster et pouvez exécuter vos propres pools de nœuds standards en parallèle des nœuds gérés par GKE.

À propos du mode Autopilot pour les ComputeClasses

Une ComputeClass est une ressource personnalisée Kubernetes qui définit une liste de configurations de nœuds, telles que des types de machines ou des paramètres de fonctionnalités. Vous pouvez sélectionner des ComputeClasses spécifiques dans les spécifications de charge de travail Kubernetes. Lorsqu'une charge de travail qui sélectionne une ComputeClass a besoin d'un nouveau nœud, GKE tente de provisionner le nœud avec l'une des configurations déclarées par la ComputeClass. GKE essaie chaque configuration dans la ComputeClass dans l'ordre et revient à la configuration suivante si la création du nœud échoue. Pour en savoir plus, consultez la section À propos des ComputeClasses personnalisées.

Pour exécuter des charges de travail Autopilot dans vos clusters GKE Standard, activez le mode Autopilot dans une ComputeClass et sélectionnez cette ComputeClass dans des charges de travail spécifiques. Google gère tous les nouveaux nœuds que GKE provisionne pour ces charges de travail, de la même manière que Google gère les nœuds dans les clusters Autopilot. La plupart des avantages et des fonctionnalités de sécurité du mode Autopilot s'appliquent à ces charges de travail et aux nœuds hôtes.

Les ComputeClasses en mode Autopilot offrent aux administrateurs de cluster une flexibilité supplémentaire pour choisir le niveau de contrôle souhaité sur des charges de travail et une infrastructure spécifiques de votre cluster, par exemple :

Ces options permettent aux administrateurs de cluster de décider du niveau et de la portée avec lesquels ils utilisent Autopilot.

Avantages des ComputeClasses Autopilot dans les clusters standards

L'exécution de certaines de vos charges de travail en mode Autopilot offre les avantages suivants :

  • Réduction des coûts de gestion de l'infrastructure : Google met à niveau, gère, configure et ajuste des nœuds spécifiques pour vous.
  • Utilisation du modèle de tarification Autopilot : les charges de travail qui utilisent une ComputeClass Autopilot sont facturées selon le modèle de tarification Autopilot. Ce modèle de tarification inclut la facturation par pod pour les charges de travail qui ne demandent pas de matériel spécifique. Pour en savoir plus, consultez la section Tarifs.
  • Amélioration du scaling et de la stratégie de sécurité: les charges de travail Autopilot bénéficient d'avantages tels que l'accès à la plate-forme de calcul optimisée pour les conteneurs, l'amélioration des contraintes de sécurité par défaut et l'autoscaling des nœuds en fonction des demandes de ressources. Les nœuds de ces charges de travail utilisent des fonctionnalités telles que les mises à niveau automatiques des nœuds et les réparations automatiques.
  • Amélioration de la fiabilité : le contrat de niveau de service (SLA) de GKE inclut un objectif de niveau de service (SLO) de disponibilité des pods pour Autopilot.

Bon nombre de ces avantages sont également fournis par les clusters Autopilot, qui offrent également une expérience plus gérée que les clusters standards et incluent plusieurs avantages en termes de sécurité, de mise en réseau et de gestion des ressources. Pour en savoir plus, consultez la page Présentation d'Autopilot.

Sélection du matériel dans les ComputeClasses Autopilot

Dans les ComputeClasses Autopilot, vous pouvez sélectionner du matériel spécifique pour vos nœuds (comme des GPU ou des types de machines) ou laisser GKE placer des pods sur une plate-forme de calcul à usage général optimisée pour les conteneurs. L'option à usage général est recommandée pour la plupart des charges de travail de production qui ne nécessitent pas de matériel spécifique pour fonctionner correctement. Elle est compatible avec les architectures x86 et Arm.

Le tableau suivant décrit ces options de configuration, comment en choisir une dans une ComputeClass et comment ce choix affecte votre modèle de facturation :

Tableau 1. Sélection du matériel dans les ComputeClasses Autopilot
Exigence de charge de travail Configuration recommandée de la ComputeClass Modèle de facturation
Charges de travail à usage général

Utilisez une ComputeClass Autopilot qui comporte la podFamily règle de priorité pour exécuter des charges de travail qui ne nécessitent pas de matériel spécifique sur la plate-forme de calcul optimisée pour les conteneurs Autopilot. Cette plate-forme fonctionne bien pour les charges de travail à usage général telles que les suivantes :

  • Serveurs Web
  • Tâches basées sur des événements
  • Traitement par lot
  • Pipelines CI/CD

Les ComputeClasses Autopilot intégrées n'utilisent que des règles de priorité podFamily. Vous pouvez également ajouter podFamily des règles de priorité aux ComputeClasses Autopilot personnalisées.

Modèle de facturation basé sur les pods
Charges de travail nécessitant du matériel spécifique

Utilisez une ComputeClass qui utilise n'importe quelle règle de configuration matérielle disponible, telle que la machineFamily règle ou la gpus règle.

Modèle de facturation basé sur les nœuds

Configuration d'Autopilot dans les ComputeClasses

Vous pouvez utiliser le mode Autopilot dans un cluster standard à l'aide d'une ComputeClass Autopilot intégrée fournie par GKE ou en activant Autopilot dans n'importe quelle ComputeClass personnalisée que vous créez. Les sections suivantes décrivent chaque option.

ComputeClasses Autopilot intégrées

GKE configure des ComputeClasses Autopilot spécifiques pour vous. Vous pouvez sélectionner ces classes Autopilot intégrées dans n'importe quel cluster éligible. Les ComputeClasses Autopilot intégrées dans les clusters standards utilisent la règle de priorité podFamily pour exécuter des pods sur la plate-forme de calcul optimisée pour les conteneurs. Pour en savoir plus, consultez la section À propos des ComputeClasses intégrées dans GKE.

ComputeClasses Autopilot personnalisées

Vous pouvez activer Autopilot dans n'importe quelle ComputeClass personnalisée que vous gérez à l'aide du champ autopilot dans la spécification de la ComputeClass. Les ComputeClasses Autopilot personnalisées sont utiles dans les situations suivantes :

  • Vos charges de travail ont des exigences matérielles spécifiques, telles que des accélérateurs.
  • Vous souhaitez modifier certaines options de nœud, telles que la définition de zones ou l'application de taints, tout en utilisant la plate-forme de calcul optimisée pour les conteneurs Autopilot.

Pour activer Autopilot dans une ComputeClass existante, vous devez la supprimer, mettre à jour la configuration, puis recréer la ComputeClass dans votre cluster. Vos modifications s'appliquent à tous les nouveaux nœuds que GKE crée pour les charges de travail que vous déployez après avoir mis à jour la ComputeClass Autopilot.

Pour en savoir plus sur l'activation d'Autopilot dans vos ComputeClasses personnalisées, consultez la section Sélectionner du matériel spécifique pour vos pods Autopilot.

Tarifs

Les tarifs de GKE Autopilot s'appliquent aux nœuds et aux charges de travail que GKE crée pour une ComputeClass Autopilot. Le modèle de facturation Autopilot qui s'applique à une charge de travail spécifique dépend de la règle de priorité de la ComputeClass que GKE utilise pour créer des nœuds pour cette charge de travail.

Le tableau suivant décrit le modèle de facturation qui s'applique aux différentes configurations de ComputeClass Autopilot dans vos clusters en mode Standard :

Tableau 2. Tarifs des ComputeClasses Autopilot
Modèles de facturation pour différentes configurations de ComputeClass
Modèle de facturation basé sur les pods Le modèle de facturation basé sur les pods s'applique lorsque GKE utilise une podFamily règle de priorité pour créer des nœuds pour une charge de travail. Les ComputeClasses Autopilot intégrées, utilisent toujours le modèle de facturation basé sur les pods.
Modèle de facturation basé sur les nœuds Le modèle de facturation basé sur les nœuds s'applique lorsque GKE utilise une règle de priorité de ComputeClass qui demande explicitement du matériel spécifique, tel qu'une famille de machines ou des GPU.

Les tarifs Autopilot ne s'appliquent qu'aux charges de travail et aux nœuds qui utilisent une ComputeClass Autopilot. Votre cluster en mode Standard et tous les autres pools de nœuds que vous exécutez continuent d'utiliser les tarifs du mode GKE Standard.

Paramètres préconfigurés pour les nœuds gérés par Autopilot

Avant d'activer le mode Autopilot dans vos ComputeClasses, sachez à quoi vous attendre des nœuds que GKE crée pour exécuter les charges de travail Autopilot. Google configure des fonctionnalités et des contraintes de sécurité spécifiques dans les nœuds Autopilot. Par conséquent, les charges de travail qui se déploient et fonctionnent correctement dans vos nœuds en mode Standard peuvent être rejetées par le mode Autopilot si elles ne répondent pas aux exigences de sécurité d'Autopilot.

Le tableau suivant décrit les configurations de fonctionnalités qui remplacent les paramètres correspondants dans votre cluster standard. Si une configuration ne figure pas dans ce tableau, les nœuds Autopilot utilisent le paramètre du cluster standard. Par exemple, la fédération d'identité de charge de travail pour GKE ne figure pas dans ce tableau, ce qui signifie que le paramètre de fédération d'identité de charge de travail pour GKE du cluster standard s'applique aux nœuds Autopilot que GKE crée.

Tableau 3. Paramètres préconfigurés pour les nœuds Autopilot
Fonctionnalité Paramètre au niveau du cluster standard Paramètre de nœud géré par Autopilot
Mises à niveau et maintenance des nœuds

Configurable:

Préconfiguré :

  • Réparation automatique des nœuds : activée
  • Mise à niveau automatique des nœuds : activée
  • Stratégie de mise à niveau des nœuds : mises à niveau par pics avec des paramètres préconfigurés
Autoscaling Configurable: profil d'autoscaling Préconfiguré : profil d'autoscaling optimize-utilization
Mise en réseau VPC natif ou basé sur le routage Nécessite un cluster de VPC natif
Sécurité

Configurable:

Préconfiguré :

Système d'exploitation du nœud

Configurable:

Préconfiguré :

Disque de démarrage du nœud

Configurable:

Configurable:

Métadonnées de nœud

Demandes de ressources pour les charges de travail Autopilot

Pour que les charges de travail Autopilot s'exécutent efficacement, GKE applique certaines valeurs minimales et maximales pour les demandes de processeur, de mémoire et de stockage éphémère dans vos pods. GKE applique également des demandes par défaut aux pods qui ne demandent pas explicitement l'une de ces ressources. Les valeurs spécifiques pour les exigences minimales, maximales et par défaut en matière de ressources dans les charges de travail GKE Autopilot varient en fonction du type de matériel utilisé par vos pods.

Pour le stockage éphémère, la valeur par défaut si vous ne demandez pas de stockage éphémère est la même pour toutes les ComputeClasses et sélections de matériel. Pour en savoir plus, consultez la section Demandes de ressources par défaut.

Le tableau suivant fournit des liens vers les exigences en termes de processeur et de mémoire pour vos demandes de pods, en fonction du type de matériel :

Tableau 4. Exigences en termes de processeur et de mémoire pour Autopilot
Type de ressource Demandes minimales et maximales Demandes par défaut
Pods à usage général
GPU et TPU Dépend du type et de la quantité d'accélérateur matériel. Pour en savoir plus, consultez la section Valeurs minimales et maximales pour la ComputeClass Accelerator. Dépend du type et de la quantité d'accélérateur matériel. Pour en savoir plus, consultez la section Demandes par défaut pour les accélérateurs.
Types de machines et familles de machines Compute Engine spécifiques
  • Minimum : aucune valeur minimale pour le processeur ou la mémoire.
  • Maximum : la valeur maximale correspond à la capacité de ressources de l'instance Compute Engine.
Pour tout type de machine ou famille de machines Compute Engine, les demandes par défaut figurent dans la ligne "Usage général" du tableau Demandes par défaut pour les ComputeClasses.

Étape suivante