Vous pouvez utiliser des ComputeClasses pour exécuter des charges de travail Google Kubernetes Engine (GKE) Autopilot dans vos clusters en mode GKE Standard. Ce document décrit les méthodes que vous pouvez utiliser pour exécuter vos charges de travail en mode Autopilot et vous aide à décider quand exécuter une charge de travail dans un mode spécifique.
Ces informations sont destinées aux personnes suivantes :
- Les architectes cloud qui souhaitent optimiser les coûts opérationnels dans les organisations.
- Les administrateurs de plate-forme qui souhaitent réduire les frais généraux liés à la gestion manuelle de l'infrastructure.
- Les ingénieurs en fiabilité des sites (SRE) qui souhaitent transférer la maintenance, les mises à niveau et le scaling de l'infrastructure à chaque fois que cela est possible. Google Cloud
Vous devez déjà connaître les concepts suivants :
À propos de GKE Autopilot
Autopilot est un mode de fonctionnement de GKE dans lequel Google gère votre infrastructure de nœuds, le scaling, la sécurité et les fonctionnalités préconfigurées. Le mode Autopilot est optimisé pour l'exécution de la plupart des charges de travail de production dans un environnement qui applique les paramètres recommandés pour la sécurité, la fiabilité, les performances et l'évolutivité. Pour choisir entre le mode Autopilot et le mode Standard en fonction de vos besoins, consultez la section À propos des modes de fonctionnement de GKE.
Vous pouvez utiliser le mode Autopilot de différentes manières :
- Créer un cluster qui utilise le mode Autopilot : Google gère l'ensemble du cluster et applique les bonnes pratiques en matière d'automatisation, de fiabilité, de sécurité et de coûts.
- Exécuter des charges de travail en mode Autopilot dans des clusters standards: vous déployez des ComputeClasses Autopilot et les sélectionnez dans les charges de travail. Google gère les nœuds que GKE crée pour ces charges de travail spécifiques dans un pool de nœuds géré par Autopilot. Vous contrôlez le cluster et pouvez exécuter vos propres pools de nœuds standards en parallèle des nœuds gérés par GKE.
À propos du mode Autopilot pour les ComputeClasses
Une ComputeClass est une ressource personnalisée Kubernetes qui définit une liste de configurations de nœuds, telles que des types de machines ou des paramètres de fonctionnalités. Vous pouvez sélectionner des ComputeClasses spécifiques dans les spécifications de charge de travail Kubernetes. Lorsqu'une charge de travail qui sélectionne une ComputeClass a besoin d'un nouveau nœud, GKE tente de provisionner le nœud avec l'une des configurations déclarées par la ComputeClass. GKE essaie chaque configuration dans la ComputeClass dans l'ordre et revient à la configuration suivante si la création du nœud échoue. Pour en savoir plus, consultez la section À propos des ComputeClasses personnalisées.
Pour exécuter des charges de travail Autopilot dans vos clusters GKE Standard, activez le mode Autopilot dans une ComputeClass et sélectionnez cette ComputeClass dans des charges de travail spécifiques. Google gère tous les nouveaux nœuds que GKE provisionne pour ces charges de travail, de la même manière que Google gère les nœuds dans les clusters Autopilot. La plupart des avantages et des fonctionnalités de sécurité du mode Autopilot s'appliquent à ces charges de travail et aux nœuds hôtes.
Les ComputeClasses en mode Autopilot offrent aux administrateurs de cluster une flexibilité supplémentaire pour choisir le niveau de contrôle souhaité sur des charges de travail et une infrastructure spécifiques de votre cluster, par exemple :
- Vous pouvez laisser GKE gérer entièrement des charges de travail spécifiques en les exécutant en mode Autopilot.
- Vous conservez le contrôle total des charges de travail et de l'infrastructure qui n'utilisent pas le mode Autopilot, comme les pools de nœuds créés manuellement.
- Vous pouvez définir une ComputeClass Autopilot comme valeur par défaut pour votre cluster ou espace de noms, afin que les charges de travail s'exécutent en mode Autopilot, sauf si elles demandent explicitement une autre option.
Ces options permettent aux administrateurs de cluster de décider du niveau et de la portée avec lesquels ils utilisent Autopilot.
Avantages des ComputeClasses Autopilot dans les clusters standards
L'exécution de certaines de vos charges de travail en mode Autopilot offre les avantages suivants :
- Réduction des coûts de gestion de l'infrastructure : Google met à niveau, gère, configure et ajuste des nœuds spécifiques pour vous.
- Utilisation du modèle de tarification Autopilot : les charges de travail qui utilisent une ComputeClass Autopilot sont facturées selon le modèle de tarification Autopilot. Ce modèle de tarification inclut la facturation par pod pour les charges de travail qui ne demandent pas de matériel spécifique. Pour en savoir plus, consultez la section Tarifs.
- Amélioration du scaling et de la stratégie de sécurité: les charges de travail Autopilot bénéficient d'avantages tels que l'accès à la plate-forme de calcul optimisée pour les conteneurs, l'amélioration des contraintes de sécurité par défaut et l'autoscaling des nœuds en fonction des demandes de ressources. Les nœuds de ces charges de travail utilisent des fonctionnalités telles que les mises à niveau automatiques des nœuds et les réparations automatiques.
- Amélioration de la fiabilité : le contrat de niveau de service (SLA) de GKE inclut un objectif de niveau de service (SLO) de disponibilité des pods pour Autopilot.
Bon nombre de ces avantages sont également fournis par les clusters Autopilot, qui offrent également une expérience plus gérée que les clusters standards et incluent plusieurs avantages en termes de sécurité, de mise en réseau et de gestion des ressources. Pour en savoir plus, consultez la page Présentation d'Autopilot.
Sélection du matériel dans les ComputeClasses Autopilot
Dans les ComputeClasses Autopilot, vous pouvez sélectionner du matériel spécifique pour vos nœuds (comme des GPU ou des types de machines) ou laisser GKE placer des pods sur une plate-forme de calcul à usage général optimisée pour les conteneurs. L'option à usage général est recommandée pour la plupart des charges de travail de production qui ne nécessitent pas de matériel spécifique pour fonctionner correctement. Elle est compatible avec les architectures x86 et Arm.
Le tableau suivant décrit ces options de configuration, comment en choisir une dans une ComputeClass et comment ce choix affecte votre modèle de facturation :
| Exigence de charge de travail | Configuration recommandée de la ComputeClass | Modèle de facturation |
|---|---|---|
| Charges de travail à usage général | Utilisez une ComputeClass Autopilot qui comporte la
Les
ComputeClasses Autopilot intégrées
n'utilisent que des règles de priorité |
Modèle de facturation basé sur les pods |
| Charges de travail nécessitant du matériel spécifique | Utilisez une ComputeClass qui utilise n'importe quelle règle de configuration matérielle disponible, telle que la |
Modèle de facturation basé sur les nœuds |
Configuration d'Autopilot dans les ComputeClasses
Vous pouvez utiliser le mode Autopilot dans un cluster standard à l'aide d'une ComputeClass Autopilot intégrée fournie par GKE ou en activant Autopilot dans n'importe quelle ComputeClass personnalisée que vous créez. Les sections suivantes décrivent chaque option.
ComputeClasses Autopilot intégrées
GKE configure des ComputeClasses Autopilot spécifiques pour vous. Vous pouvez
sélectionner ces classes Autopilot intégrées
dans n'importe quel cluster éligible. Les ComputeClasses Autopilot intégrées dans les clusters standards utilisent la règle de priorité podFamily pour exécuter des pods sur la plate-forme de calcul optimisée pour les conteneurs. Pour en savoir plus, consultez la section
À propos des ComputeClasses intégrées dans GKE.
ComputeClasses Autopilot personnalisées
Vous pouvez activer Autopilot dans n'importe quelle ComputeClass personnalisée que vous gérez à l'aide du champ autopilot dans la spécification de la ComputeClass. Les ComputeClasses Autopilot personnalisées sont utiles dans les situations suivantes :
- Vos charges de travail ont des exigences matérielles spécifiques, telles que des accélérateurs.
- Vous souhaitez modifier certaines options de nœud, telles que la définition de zones ou l'application de taints, tout en utilisant la plate-forme de calcul optimisée pour les conteneurs Autopilot.
Pour activer Autopilot dans une ComputeClass existante, vous devez la supprimer, mettre à jour la configuration, puis recréer la ComputeClass dans votre cluster. Vos modifications s'appliquent à tous les nouveaux nœuds que GKE crée pour les charges de travail que vous déployez après avoir mis à jour la ComputeClass Autopilot.
Pour en savoir plus sur l'activation d'Autopilot dans vos ComputeClasses personnalisées, consultez la section Sélectionner du matériel spécifique pour vos pods Autopilot.
Tarifs
Les tarifs de GKE Autopilot s'appliquent aux nœuds et aux charges de travail que GKE crée pour une ComputeClass Autopilot. Le modèle de facturation Autopilot qui s'applique à une charge de travail spécifique dépend de la règle de priorité de la ComputeClass que GKE utilise pour créer des nœuds pour cette charge de travail.
Le tableau suivant décrit le modèle de facturation qui s'applique aux différentes configurations de ComputeClass Autopilot dans vos clusters en mode Standard :
| Modèles de facturation pour différentes configurations de ComputeClass | |
|---|---|
| Modèle de facturation basé sur les pods | Le modèle de facturation basé sur les pods s'applique lorsque GKE utilise une
podFamily règle de priorité pour créer des nœuds pour une charge de travail. Les
ComputeClasses Autopilot intégrées,
utilisent toujours le modèle de facturation basé sur les pods. |
| Modèle de facturation basé sur les nœuds | Le modèle de facturation basé sur les nœuds s'applique lorsque GKE utilise une règle de priorité de ComputeClass qui demande explicitement du matériel spécifique, tel qu'une famille de machines ou des GPU. |
Les tarifs Autopilot ne s'appliquent qu'aux charges de travail et aux nœuds qui utilisent une ComputeClass Autopilot. Votre cluster en mode Standard et tous les autres pools de nœuds que vous exécutez continuent d'utiliser les tarifs du mode GKE Standard.
Paramètres préconfigurés pour les nœuds gérés par Autopilot
Avant d'activer le mode Autopilot dans vos ComputeClasses, sachez à quoi vous attendre des nœuds que GKE crée pour exécuter les charges de travail Autopilot. Google configure des fonctionnalités et des contraintes de sécurité spécifiques dans les nœuds Autopilot. Par conséquent, les charges de travail qui se déploient et fonctionnent correctement dans vos nœuds en mode Standard peuvent être rejetées par le mode Autopilot si elles ne répondent pas aux exigences de sécurité d'Autopilot.
Le tableau suivant décrit les configurations de fonctionnalités qui remplacent les paramètres correspondants dans votre cluster standard. Si une configuration ne figure pas dans ce tableau, les nœuds Autopilot utilisent le paramètre du cluster standard. Par exemple, la fédération d'identité de charge de travail pour GKE ne figure pas dans ce tableau, ce qui signifie que le paramètre de fédération d'identité de charge de travail pour GKE du cluster standard s'applique aux nœuds Autopilot que GKE crée.
| Fonctionnalité | Paramètre au niveau du cluster standard | Paramètre de nœud géré par Autopilot |
|---|---|---|
| Mises à niveau et maintenance des nœuds |
Configurable: |
Préconfiguré :
|
| Autoscaling | Configurable: profil d'autoscaling | Préconfiguré : profil d'autoscaling optimize-utilization |
| Mise en réseau | VPC natif ou basé sur le routage | Nécessite un cluster de VPC natif |
| Sécurité |
Configurable:
|
Préconfiguré :
|
| Système d'exploitation du nœud |
Configurable: |
Préconfiguré :
|
| Disque de démarrage du nœud |
Configurable: |
Configurable:
|
| Métadonnées de nœud |
|
|
Demandes de ressources pour les charges de travail Autopilot
Pour que les charges de travail Autopilot s'exécutent efficacement, GKE applique certaines valeurs minimales et maximales pour les demandes de processeur, de mémoire et de stockage éphémère dans vos pods. GKE applique également des demandes par défaut aux pods qui ne demandent pas explicitement l'une de ces ressources. Les valeurs spécifiques pour les exigences minimales, maximales et par défaut en matière de ressources dans les charges de travail GKE Autopilot varient en fonction du type de matériel utilisé par vos pods.
Pour le stockage éphémère, la valeur par défaut si vous ne demandez pas de stockage éphémère est la même pour toutes les ComputeClasses et sélections de matériel. Pour en savoir plus, consultez la section Demandes de ressources par défaut.
Le tableau suivant fournit des liens vers les exigences en termes de processeur et de mémoire pour vos demandes de pods, en fonction du type de matériel :
| Type de ressource | Demandes minimales et maximales | Demandes par défaut |
|---|---|---|
| Pods à usage général |
|
|
| GPU et TPU | Dépend du type et de la quantité d'accélérateur matériel. Pour en savoir plus, consultez la section Valeurs minimales et maximales pour la ComputeClass Accelerator. | Dépend du type et de la quantité d'accélérateur matériel. Pour en savoir plus, consultez la section Demandes par défaut pour les accélérateurs. |
| Types de machines et familles de machines Compute Engine spécifiques |
|
Pour tout type de machine ou famille de machines Compute Engine, les demandes par défaut figurent dans la ligne "Usage général" du tableau Demandes par défaut pour les ComputeClasses. |
Étape suivante
- Déployer des charges de travail en mode Autopilot dans des clusters standards
- À propos des ComputeClasses personnalisées