Explorer la documentation GKE

GKE dispose d'un écosystème riche en fonctionnalités et en produits qui vous aident à déployer, exécuter et gérer vos applications conteneurisées à grande échelle. Cependant, cela signifie également qu'il existe beaucoup de documentation. Chaque ensemble de documentation de la famille GKE contient des guides, des tutoriels, des supports de référence, des notes de version, des exemples, etc. Ce guide rapide vous aidera à vous y retrouver.

Si vous débutez avec GKE, nous vous recommandons de commencer votre exploration par Premiers pas avec GKE.

L'essentiel

La documentation GKE est organisée en plusieurs ensembles de documentation, reflétant la structure de l'écosystème GKE plus large et des familles de fonctionnalités. La plupart des utilisateurs n'auront pas besoin de lire plus que la documentation de base de GKE. Les administrateurs et opérateurs de plate-forme devront peut-être explorer la documentation plus en détail.

  • Documentation de base de GKE : présente GKE et couvre les fonctionnalités de base disponibles pour tous les utilisateurs de GKE.
  • Documentation sur la mise en réseau GKE : destinée aux administrateurs réseau ou à toute personne ayant besoin d'en savoir plus sur la mise en réseau GKE et Kubernetes
  • Documentation sur la sécurité GKE : destinée aux professionnels de la sécurité qui souhaitent configurer des fonctionnalités de sécurité et assurer la sécurité de leur plate-forme.
  • Documentation sur les charges de travail d'IA/de ML sur GKE : destinée aux data scientists, aux ingénieurs en ML et aux développeurs d'applications qui souhaitent entraîner, diffuser et gérer des modèles d'IA/de ML.
  • Documentation sur la gestion des parcs (cet ensemble de documentation) : destinée aux utilisateurs qui souhaitent gérer des groupes de clusters GKE ensemble en tant que parc.
  • Documentation sur Config Sync : destinée aux utilisateurs qui souhaitent centraliser leurs fichiers de configuration dans une source unique de vérité, telle qu'un dépôt Git.
  • Documentation sur Policy Controller : destinée aux utilisateurs qui souhaitent activer l'application et l'application de règles programmables pour leurs clusters Kubernetes.
  • Documentation sur Config Controller : destinée aux utilisateurs qui souhaitent créer et gérer Google Cloud des ressources avec un modèle Kubernetes déclaratif.
  • Ensembles de documentation GKE en dehors de Google Cloud Google Cloud : destinés aux utilisateurs qui souhaitent utiliser GKE sur site ou sur d'autres clouds publics.

Pour en savoir plus sur ces ensembles de documentation, consultez les sections suivantes.

Documentation de GKE Core

Suivez le guide. Cet ensemble de documentation couvre les concepts et les fonctionnalités de base disponibles pour tous les utilisateurs de GKE, avec des contenus destinés aux administrateurs informatiques et aux développeurs. Il inclut les sujets suivants :

  • Principes de base : principes de base de Kubernetes et GKE pour les nouveaux utilisateurs. Si vous débutez avec Kubernetes, Google Cloud, ou GKE, cette section vous aidera à apprendre les bases.
  • Bonnes pratiques GKE : liste consolidée des bonnes pratiques pour concevoir, créer et exploiter des applications sur GKE.
  • Premiers pas : Prêt à créer votre premier cluster ? Voici ce que vous devez savoir sur.
  • Configurer des clusters GKE : instructions détaillées pour créer et configurer Autopilot et Standard clusters.
  • Réduire et optimiser les coûts : découvrez comment et pourquoi utiliser les fonctionnalités d'optimisation des coûts dans GKE.
  • Provisionner le stockage: découvrez les options de stockage compatibles avec GKE et comment les utiliser.
  • Configurer la sécurité des clusters : GKE offre de nombreuses façons de sécuriser vos charges de travail. Cette section vous présente les fonctionnalités de sécurité de GKE et explique comment les utiliser.
  • Déployer des charges de travail : découvrez comment déployer différents types de charges de travail sur GKE, des applications simples sans état aux bases de données, aux caches et aux charges de travail de flux de données.
  • Gérer et optimiser les clusters : découvrez comment administrer les clusters, y compris les mises à niveau, les notifications et les recommandations, ainsi que la gestion des pools de nœuds pour les clusters Standard.
  • Observabilité pour GKE : utilisez Managed Prometheus, Cloud Monitoring et Cloud Logging pour observer vos clusters et vos charges de travail.
  • Résoudre les problèmes : trouvez des conseils de dépannage et des problèmes connus pour toutes les fonctionnalités de base.

Cet ensemble de documentation inclut également des supports de référence pour l'API Kubernetes Engine (GKE).

Mise en réseau GKE

Pour les administrateurs réseau (ou toute personne ayant besoin d'en savoir plus sur la mise en réseau GKE et Kubernetes), la documentation sur la mise en réseau GKE explique comment configurer et utiliser les fonctionnalités de mise en réseau et de gestion du trafic pour vos clusters. Les sujets abordés vont de la planification de votre infrastructure réseau Google Cloud à la configuration des équilibreurs de charge, en passant par l'exposition des charges de travail en tant que services et la configuration de l'isolation des clusters. Cet ensemble de documentation inclut les sujets GKE suivants (et plus encore), ainsi que des liens vers des sections utiles de la Google Cloud documentation sur la mise en réseau de Virtual Private Cloud et Compute Engine.

Sécurité de GKE

La documentation sur la sécurité fournit des informations sur les différents contrôles de sécurité dans les clusters GKE et les charges de travail Kubernetes. Elle explique comment effectuer des tâches telles que l'authentification des charges de travail auprès des API, le contrôle de l'accès à vos clusters et ressources Kubernetes, et la surveillance de votre stratégie de sécurité au fil du temps. Google Cloud

Pour explorer la documentation sur la sécurité GKE, consultez la présentation de la sécurité dans GKE.

Charges de travail d'IA/de ML sur GKE

La documentation sur les charges de travail d'IA/de ML fournit des informations sur l'entraînement, la diffusion et la gestion des modèles d'IA/de ML sur GKE. Les sujets abordés incluent la diffusion de modèles pour l'inférence, l'entraînement de modèles à grande échelle, le déploiement d'agents d'IA, l'utilisation de Ray pour les applications d'IA/de ML distribuées, la gestion de l'infrastructure d'IA et des accélérateurs tels que les GPU et les TPU, la gestion des données et du stockage pour les charges de travail d'IA/de ML, et la surveillance de vos charges de travail.

Pour explorer la documentation sur les charges de travail d'IA/de ML sur GKE, consultez la présentation des charges de travail d'IA/de ML sur GKE.

Gestion du parc GKE

Si vous êtes un administrateur de plate-forme ou de cluster qui doit travailler avec plusieurs clusters GKE, potentiellement dans plusieurs Google Cloud projets, GKE utilise le concept de parc pour simplifier la gestion de plusieurs clusters, quel que soit le projet dans lequel ils se trouvent et les charges de travail qui y sont exécutées. La documentation sur la gestion des parcs inclut des informations sur les sujets suivants :

Cet ensemble de documentation inclut également des supports de référence pour l'API GKE Hub (parc).

Config Sync

Config Sync fournit un moyen cohérent de gérer la configuration des clusters GKE, avec une configuration appliquée automatiquement à partir d'une source unique de vérité. Cet ensemble de documentation inclut les sujets suivants :

Policy Controller

Policy Controller vous permet d'appliquer et d'appliquer des règles cohérentes à vos clusters GKE. Cet ensemble de documentation inclut les sujets suivants :

Config Controller

Config Controller crée et gère Google Cloud des ressources avec un modèle Kubernetes déclaratif. Config Controller est une version hébergée de Config Connector qui simplifie l'installation et la maintenance. Cet ensemble de documentation inclut les sujets suivants :

GKE en dehors de Google Cloud Google Cloud

De nombreuses organisations qui utilisent Google Cloud souhaitent ou doivent exécuter des charges de travail dans leurs propres centres de données, usines, magasins et même dans d'autres clouds publics. Mais elles ne souhaitent pas créer elles-mêmes de nouvelles plates-formes de conteneurs dans tous ces sites, ni repenser leur conception, ni la manière dont elles configurent, sécurisent, surveillent et optimisent les charges de travail des conteneurs en fonction de l'emplacement d'exécution. GKE Multi-Cloud et Google Distributed Cloud étendent tous deux GKE pour une utilisation en dehors Google Cloud, ce qui vous permet de créer et de gérer des déploiements hybrides ou entièrement sur site.

GKE Multi-cloud

  • GKE sur AWS : utilisez des clusters GKE exécutés sur une infrastructure AWS.
  • GKE sur Azure : utilisez des clusters GKE exécutés sur une infrastructure Azure.
  • Clusters associés à GKE : ajoutez des clusters Kubernetes conformes à CNCF à votre parc pour les afficher et les gérer avec vos clusters GKE, avec des instructions pour EKS, AKS, et d'autres types de clusters conformes.

Google Distributed Cloud (sur site)