Google Distributed Cloud est notre solution qui étend l'infrastructure et les services Google Cloud à votre centre de données. Nous proposons Google Distributed Cloud dans des configurations connectées et sous air gap qui s'exécutent sur du matériel fourni par Google. Nous proposons également Google Distributed Cloud sous forme de produit logiciel uniquement (anciennement appelé Google Distributed Cloud Virtual, anciennement Anthos Clusters on Bare Metal) qui s'exécute sur votre propre matériel. Le logiciel Google Distributed Cloud peut être installé sur VMware ou sur solution bare metal. Ce guide est destiné au logiciel Google Distributed Cloud qui s'exécute directement sur vos machines Bare Metal.
Le logiciel Google Distributed Cloud est basé sur Google Kubernetes Engine (GKE), avec son propre package Kubernetes qui étend GKE pour une utilisation dans un environnement sur site. Avec Google Distributed Cloud, vous pouvez créer, gérer et mettre à niveau des clusters GKE sur site tout en utilisant les fonctionnalités Google Cloud , et déployer et exploiter des applications conteneurisées sur vos clusters à grande échelle à l'aide de l'infrastructure de Google.
Versions compatibles
Cette documentation couvre toutes les versions prises en charge de Google Distributed Cloud. Le cas échéant, nous conservons également dans cette documentation des informations limitées pour les anciennes versions non compatibles. Les différences au niveau des exigences et du comportement selon les versions sont indiquées dans la documentation. De même, lorsqu'une nouvelle fonctionnalité est disponible, la version compatible de la fonctionnalité est documentée.
Pour obtenir la liste des versions mineures compatibles et des correctifs disponibles, consultez la page Gestion des versions.
À partir de la version 1.29, nous ne créons plus de répertoire numéroté pour la documentation de la version mineure précédente. Vous pouvez trouver la documentation archivée pour les versions 1.16 et antérieures en ajoutant le numéro de version mineure dans l'URL suivante :
https://cloud.google.com/anthos/clusters/docs/bare-metal/VERSION/
Remplacez VERSION par une version mineure comprise entre 1.6 et 1.16, puis copiez l'URL dans la barre d'adresse de votre navigateur.
Pourquoi utiliser Google Distributed Cloud sur Bare Metal ?
L'exécution du logiciel Google Distributed Cloud sur Bare Metal exploite l'infrastructure existante de votre entreprise et vous aide à moderniser vos applications tout au long de leur cycle de vie.
Utilisation de votre propre nœud
Avec une installation logicielle Google Distributed Cloud sur Bare Metal, vous déployez des applications directement sur votre propre infrastructure matérielle, ce qui offre des performances et une flexibilité optimales. Vous contrôlez directement l'évolutivité des applications, leur sécurité et la latence du réseau. Vous bénéficiez également des avantages des applications conteneurisées grâce aux composants GKE.
Performances améliorées et réduction des coûts
Google Distributed Cloud gère le déploiement et l'état des applications dans vos centres de données d'entreprise existants, pour une efficacité optimale. Vous pouvez également exécuter des conteneurs en périphérie du réseau, de sorte que les applications analytiques peuvent s'exécuter à plein rendement.
L'utilisation de Google Distributed Cloud sur Bare Metal au lieu de machines virtuelles vous permet de gérer des conteneurs d'applications sur une grande variété de types de matériel aux performances optimisées, tels que des GPU et des SSD. Exécuter Google Distributed Cloud sur bare metal permet également aux applications d'accéder directement au matériel.
Sécurité compatible
Comme vous contrôlez l'environnement de votre nœud, vous pouvez optimiser votre réseau, votre matériel et vos applications pour répondre à vos besoins spécifiques. Vous pouvez ainsi contrôler directement la sécurité du système, sans vous soucier de la compatibilité avec les machines virtuelles et les systèmes d'exploitation.
Déploiement d'applications surveillées
Google Distributed Cloud fournit une surveillance avancée de l'état et des performances de votre environnement. Cette fonctionnalité de surveillance vous aide à ajuster l'échelle des applications tout en maintenant la fiabilité malgré les fluctuations de la charge de travail et du trafic réseau.
Vous gérez la surveillance, la journalisation et l'analyse des clusters et des charges de travail via l'agent Connect.
Latence et flexibilité du réseau
Étant donné que vous gérez les exigences de votre réseau, celui-ci peut être optimisé pour une faible latence. Cette optimisation du réseau peut être cruciale pour les performances d'analyse commerciale ou financière, ainsi que pour d'autres applications d'entreprise ou de réseau.
Haute disponibilité
Google Distributed Cloud est compatible avec plusieurs nœuds de plan de contrôle dans un cluster. Si un nœud de plan de contrôle tombe en panne, vous pouvez toujours administrer votre environnement.
Conception et contrôle sécurisés
Vous pouvez personnaliser la sécurité de votre infrastructure selon vos besoins, avec un nombre minimal de connexions à des ressources externes. Plus important encore, il n'y a pas de complexité de VM supplémentaire lors du déploiement des systèmes de sécurité. De plus, vous disposez d'un contrôle complet de l'OS lors de l'interaction avec les systèmes de sécurité existants.
Google Distributed Cloud fonctionne avec des connexions sécurisées légères aux API Google. Vous pouvez gérer les clusters et les applications de manière centralisée avec Connect et Cloud Monitoring. Cette centralisation contribue également au bon fonctionnement de vos déploiements et permet à l'assistance Google Cloud de résoudre les problèmes plus efficacement.
Vérifications préalables à l'installation
Avec Google Distributed Cloud, vos clusters s'exécutent sur des systèmes Open Source et Enterprise Linux, ainsi que sur une infrastructure matérielle minimale, en vous offrant une flexibilité sur votre environnement. Il comprend également plusieurs vérifications préalables au lancement afin de garantir la réussite des configurations et des installations.
Déploiement d'applications et équilibrage de charge
Google Distributed Cloud inclut des mécanismes d'équilibrage de charge de couche 4 et de couche 7 lors de la création du cluster.
Amélioration de la fiabilité de etcd
Pour surveiller la taille et défragmenter les bases de données etcd
, les plans de contrôle Google Distributed Cloud comprennent un pod etcddefrag
. Le pod etcddefrag
récupère l'espace de stockage des grandes bases de données etcd
et récupère etcd
en cas de dépassement de l'espace disque.
Fonctionnement
Google Distributed Cloud étend Google Kubernetes Engine (GKE) pour vous permettre de créer des clusters sur vos propres serveurs Linux, dans vos propres locaux. Vous gérez ces clusters sur site dans Google Cloud, conjointement à vos clusters GKE standards et à ceux hébergés dans d'autres environnements, dans le cadre d'un parc.
Les clusters GKE s'exécutent dans Google Cloud , où le plan de contrôle et l'infrastructure réseau Kubernetes sont gérés par Google Cloud. Étant donné que les clusters créés avec Google Distributed Cloud s'exécutent dans votre centre de données, nous fournissons des logiciels d'administration et de plan de contrôle en plus du logiciel GKE. Le logiciel exécuté dans votre centre de données est téléchargé lors du processus d'installation et de mise à niveau.
Le schéma suivant illustre le résultat simplifié d'une installation terminée :
Composants clés
Les composants suivants constituent une installation logicielle uniquement sur Bare Metal de Google Distributed Cloud :
Le cluster d'administrateur se compose d'un ou de plusieurs nœuds du plan de contrôle. Chaque nœud est une machine physique exécutant un système d'exploitation Linux compatible. Le déploiement standard se compose d'un cluster d'administrateur qui gère le cycle de vie d'un ou plusieurs clusters d'utilisateur via la gestion des ressources Kubernetes (KRM). Chaque machine de nœud de l'installation possède sa propre adresse IP.
Un cluster d'utilisateur est l'endroit où s'exécutent les charges de travail qui implémentent vos applications, comme dans GKE sur Google Cloud. Chaque cluster d'utilisateur se compose d'au moins un nœud de plan de contrôle et d'un nœud de calcul.
Le poste de travail administrateur est une machine distincte (généralement) qui inclut les outils et les artefacts de cluster, tels que les fichiers de configuration. Les créateurs et les développeurs de clusters utilisent ces outils et artefacts pour gérer leurs clusters sur site, avec les autorisations appropriées :
L'exécution de
bmctl
à partir du poste de travail administrateur vous permet de créer et de mettre à jour des clusters, et d'effectuer d'autres tâches administratives.L'exécution de
kubectl
à partir du poste de travail administrateur vous permet d'interagir avec vos clusters d'administrateur et d'utilisateur, y compris de déployer et de gérer des charges de travail.
L'API GKE On-Prem est l'API hébergée par Google Cloudpour la gestion du cycle de vie des clusters. Vous utilisez les clients de l'API (consoleGoogle Cloud , Google Cloud CLI et Terraform) pour créer et gérer le cycle de vie de vos clusters sur site. Vous n'avez ainsi pas besoin de vous connecter au poste de travail de l'administrateur pour gérer vos clusters avec la CLI
bmctl
.La console fournit également une interface Web pour votre projetGoogle Cloud , y compris les clusters sur site. La console affiche des métriques clés sur vos clusters pour vous aider à surveiller leur état.
Les administrateurs et les développeurs de clusters utilisent
kubectl
pour accéder aux plans de contrôle des clusters via des adresses IP virtuelles (VIP) spécifiées dans la configuration du cluster. Les utilisateurs et les développeurs d'applications utilisent des adresses IP virtuelles Service et Ingress pour accéder aux charges de travail et les exposer, respectivement.
Se connecter au parc
Tous les clusters d'utilisateur (et éventuellement les clusters d'administrateur) sont membres d'un parc, qui est un regroupement logique de clusters Kubernetes. Les parcs facilitent la gestion de votre entreprise avec des groupes de clusters plutôt que des clusters individuels, et peuvent aider vos équipes à adopter les bonnes pratiques similaires à celles utilisées chez Google. Vous pouvez afficher et gérer les clusters de parc ensemble dans la console Google Cloud et utiliser les fonctionnalités GKE compatibles avec les parcs pour vous aider à gérer, administrer et exploiter vos charges de travail à grande échelle. Vous pouvez consulter la liste complète des fonctionnalités du parc disponibles pour les environnements sur site.
La connexion de chaque cluster de parc à Google Cloud est gérée par un agent Connect, qui est déployé dans le cadre du processus d'installation de Google Distributed Cloud. Pour en savoir plus sur le fonctionnement de cet agent, consultez la présentation de l'agent Connect.
L'appartenance à un parc permet également de gérer la tarification de Google Distributed Cloud sur Bare Metal, comme décrit dans la section suivante.
Tarifs
Les clusters sur site créés à l'aide de Google Distributed Cloud sont facturés par processeur virtuel. Pour activer la facturation, vous devez activer l'API Anthos dans votre projet Google Cloud.
Pour obtenir des informations complètes sur les tarifs, y compris sur la façon de contacter le service commercial, consultez la page Tarifs de Google Kubernetes Engine.
Versions
Pour en savoir plus sur les versions de Google Distributed Cloud, consultez la Politique de compatibilité avec les versions.
Installer Google Distributed Cloud sur bare metal
Étant donné que les clusters créés à l'aide de Google Distributed Cloud s'exécutent dans votre propre infrastructure, ils sont hautement configurables. Une fois que vous avez sélectionné le modèle de déploiement répondant aux besoins de votre organisation et de votre cas d'utilisation spécifiques, vous pouvez choisir parmi un éventail de modes d'équilibrage de charge, d'options d'adressage IP et de fonctionnalités de sécurité compatibles, d'options de connectivité, etc. La configuration d'un cluster implique de prendre des décisions avant et pendant l'installation. Cet ensemble de documentation inclut des guides pour aider votre équipe à choisir les fonctionnalités et les options qui vous conviennent le mieux. Pour vous assurer que votre installation répond aux besoins de votre organisation, consultez vos équipes réseau et d'application.