Well-Architected Framework : pilier Durabilité

Last reviewed 2026-01-28 UTC

Le pilier de durabilité du Google Cloud framework Well-Architected fournit des recommandations pour concevoir, créer et gérer des charges de travail dans Google Cloudqui sont économes en énergie et sensibles au carbone.

Ce document s'adresse aux décideurs, aux architectes, aux administrateurs, aux développeurs et aux opérateurs qui conçoivent, créent, déploient et gèrent des charges de travail dans Google Cloud.

Les décisions architecturales et opérationnelles ont un impact significatif sur la consommation d'énergie, l'impact sur l'eau et l'empreinte carbone générés par vos charges de travail dans le cloud. Chaque charge de travail, qu'il s'agisse d'un petit site Web ou d'un modèle de ML à grande échelle, consomme de l'énergie et contribue à l'intensité des émissions de carbone et des ressources en eau. Lorsque vous intégrez la durabilité à votre architecture cloud et à votre processus de conception, vous créez des systèmes efficaces, économiques et respectueux de l'environnement. Une architecture durable est résiliente et optimisée, ce qui crée une boucle de rétroaction positive avec une efficacité accrue, des coûts réduits et un impact environnemental moindre.

Durable par conception : résultats commerciaux holistiques

La durabilité n'est pas un compromis par rapport à d'autres objectifs commerciaux fondamentaux. Les pratiques de durabilité vous aident à accélérer vos autres objectifs commerciaux. Les choix d'architecture qui privilégient les ressources et les opérations à faible émission de carbone vous aident à créer des systèmes plus rapides, moins chers et plus sécurisés. Ces systèmes sont considérés comme durables par conception, où l'optimisation de la durabilité entraîne des résultats positifs globaux en termes de performances, de coûts, de sécurité, de résilience et d'expérience utilisateur.

Optimisation des performances

Les systèmes optimisés pour les performances utilisent intrinsèquement moins de ressources. Une application efficace qui effectue une tâche plus rapidement nécessite des ressources de calcul pendant une durée plus courte. Par conséquent, le matériel sous-jacent consomme moins de kilowattheures (kWh) d'énergie. Des performances optimisées permettent également de réduire la latence et d'améliorer l'expérience utilisateur. Les ressources ne perdent pas de temps ni d'énergie à attendre des processus inefficaces. Lorsque vous utilisez du matériel spécialisé (par exemple, des GPU et des TPU), que vous adoptez des algorithmes efficaces et que vous maximisez le traitement parallèle, vous améliorez les performances et réduisez l'empreinte carbone de votre charge de travail cloud.

Optimisation des coûts

Les dépenses opérationnelles cloud dépendent de l'utilisation des ressources. En raison de cette corrélation directe, lorsque vous optimisez les coûts en continu, vous réduisez également la consommation d'énergie et les émissions de carbone. En dimensionnant correctement les VM, en implémentant un autoscaling agressif, en archivant les anciennes données et en éliminant les ressources inactives, vous réduisez l'utilisation des ressources et les coûts cloud. Vous réduisez également l'empreinte carbone de vos systèmes, car les centres de données consomment moins d'énergie pour exécuter vos charges de travail.

Sécurité et résilience

La sécurité et la fiabilité sont des conditions préalables à un environnement cloud durable. Un système compromis (par exemple, un système affecté par une attaque par déni de service (DoS) ou une violation de données non autorisée) peut entraîner une augmentation considérable de la consommation de ressources. Ces incidents peuvent entraîner des pics de trafic massifs, créer des cycles de calcul incontrôlables pour l'atténuation et nécessiter des opérations longues et énergivores pour l'analyse forensique, le nettoyage et la restauration des données. Des mesures de sécurité efficaces peuvent aider à prévenir les pics inutiles d'utilisation des ressources, afin que vos opérations restent stables, prévisibles et économes en énergie.

Expérience utilisateur

Les systèmes qui privilégient l'efficacité, les performances, l'accessibilité et l'utilisation minimale des données peuvent contribuer à réduire la consommation d'énergie des utilisateurs finaux. Une application qui charge un modèle plus petit ou traite moins de données pour fournir des résultats plus rapidement permet de réduire l'énergie consommée par les appareils réseau et les appareils des utilisateurs finaux. Cette réduction de la consommation d'énergie est particulièrement avantageuse pour les utilisateurs dont la bande passante est limitée ou qui utilisent des appareils plus anciens. De plus, l'architecture durable permet de minimiser les dommages causés à la planète et démontre votre engagement en faveur d'une technologie socialement responsable.

Avantages de la migration vers le cloud en termes de développement durable

La migration des charges de travail sur site vers le cloud peut contribuer à réduire l'empreinte environnementale de votre organisation. La transition vers une infrastructure cloud peut réduire la consommation d'énergie et les émissions associées de 1,4 à 2 fois par rapport aux déploiements sur site classiques. Les centres de données cloud sont des installations modernes et personnalisées conçues pour une efficacité énergétique (PUE) élevée. Les anciens centres de données sur site manquent souvent de l'échelle nécessaire pour justifier les investissements dans des systèmes avancés de refroidissement et de distribution électrique.

Responsabilité partagée et partage de sort

Responsabilités partagées et destin partagé sur Google Cloud décrit comment la sécurité des charges de travail cloud est une responsabilité partagée entre Google et vous, le client. Ce modèle de responsabilité partagée s'applique également à la durabilité.

Google est responsable de la durabilité de Google Cloud, ce qui signifie que nous devons assurer l'efficacité énergétique et la gestion de l'eau de nos centres de données, de notre infrastructure et de nos services principaux. Nous investissons en permanence dans les énergies renouvelables, le refroidissement respectueux du climat et l'optimisation du matériel. Pour en savoir plus sur la stratégie et les progrès de Google en matière de développement durable, consultez le Rapport environnemental 2025 sur le développement durable de Google.

En tant que client, vous êtes responsable du développement durable dans le cloud, ce qui signifie que vous devez optimiser vos charges de travail pour qu'elles soient économes en énergie. Par exemple, vous pouvez dimensionner correctement les ressources, utiliser des services sans serveur qui évoluent jusqu'à zéro et gérer efficacement les cycles de vie des données.

Nous préconisons également un modèle de destin commun : la durabilité n'est pas seulement une division des tâches, mais un partenariat collaboratif entre vous et Google pour réduire l'empreinte environnementale de l'ensemble de l'écosystème.

Utiliser l'IA pour avoir un impact sur votre activité

Le pilier de durabilité du framework Well-Architected (ce document) inclut des conseils pour vous aider à concevoir des systèmes d'IA durables. Toutefois, une stratégie de développement durable complète va au-delà de l'impact environnemental des charges de travail d'IA. Cette stratégie doit inclure des méthodes pour utiliser l'IA afin d'optimiser les opérations et de créer de la valeur commerciale.

L'IA sert de catalyseur pour la durabilité en transformant de vastes ensembles de données en insights exploitables. Il permet aux organisations de passer d'une conformité réactive à une optimisation proactive, par exemple dans les domaines suivants :

  • Efficacité opérationnelle : rationalisez les opérations grâce à une meilleure gestion des stocks, à l'optimisation de la chaîne d'approvisionnement et à une gestion intelligente de l'énergie.
  • Transparence et risque : utilisez les données pour une transparence précise de la chaîne d'approvisionnement, la conformité réglementaire et la modélisation des risques climatiques.
  • Valeur et croissance : développez de nouvelles sources de revenus dans la finance durable et le recommerce.

Google propose les produits et fonctionnalités suivants pour vous aider à obtenir des insights à partir des données et à développer des capacités pour un avenir durable :

  • Google Earth AI : utilise des données géospatiales à l'échelle planétaire pour analyser les changements environnementaux et surveiller les impacts sur la chaîne d'approvisionnement.
  • WeatherNext : fournit des prévisions météorologiques avancées et des analyses des risques climatiques pour vous aider à renforcer votre résilience face à la volatilité du climat.
  • Insights géospatiaux avec Google Earth : utilise des données géospatiales pour ajouter des données contextuelles détaillées aux lieux, ce qui permet de sélectionner des sites, de planifier des ressources et d'effectuer des opérations de manière plus intelligente.
  • Optimisation des itinéraires Google Maps : permet d'optimiser les itinéraires logistiques et de livraison pour améliorer l'efficacité, et réduire la consommation de carburant et les émissions liées au transport.

Collaborations avec des partenaires et des clients

Google Cloud et TELUS se sont associés pour faire progresser la durabilité du cloud en migrant les charges de travail vers l'infrastructure neutre en carbone de Google et en exploitant l'analyse des données pour optimiser les opérations. Cette collaboration offre des avantages sociaux et environnementaux grâce à des initiatives telles que la technologie des villes intelligentes, qui utilise des données en temps réel pour réduire les embouteillages et les émissions de carbone dans les municipalités du Canada. Pour en savoir plus sur cette collaboration, consultez Google Cloud et TELUS collaborent pour la durabilité.

Principes de base

Les recommandations du pilier "Durabilité" du framework Well-Architected sont associées aux principes fondamentaux suivants :

Contributeurs

Auteur : Brett Tackaberry | Architecte principal

Autres contributeurs :

Utiliser des régions qui consomment de l'énergie à faible émission de carbone

Ce principe du pilier de durabilité du Google Cloud Well-Architected Framework fournit des recommandations pour vous aider à sélectionner des régions à faibles émissions de carbone pour vos charges de travail dans Google Cloud.

Présentation des principes

Lorsque vous prévoyez de déployer une charge de travail dans Google Cloud, le choix de la région Google Cloud pour la charge de travail est une décision architecturale importante. Cette décision a une incidence sur l'empreinte carbone de votre charge de travail. Pour minimiser l'empreinte carbone, votre stratégie de sélection des régions doit inclure les éléments suivants :

  • Sélection basée sur les données : pour identifier et hiérarchiser les régions, tenez compte de l'indicateur icône feuille Faible émission de CO2 et de la métrique énergie sans carbone (CFE).
  • Gouvernance basée sur les règles : limitez la création de ressources aux emplacements les plus respectueux de l'environnement à l'aide de la contrainte Emplacements des ressources dans le service de règles d'administration.
  • Flexibilité opérationnelle : utilisez des techniques telles que le décalage temporel et la planification tenant compte du carbone pour exécuter les charges de travail par lot pendant les heures où l'intensité carbone du réseau électrique est la plus faible.

L'électricité utilisée pour alimenter votre application et vos charges de travail dans le cloud est un facteur important qui influe sur votre choix de régions Google Cloud . Tenez également compte des facteurs suivants :

  • Résidence et souveraineté des données : l'emplacement où vous devez stocker vos données est un facteur fondamental qui détermine votre choix de région Google Cloud. Ce choix affecte la conformité avec les exigences locales en matière de résidence des données.
  • Latence pour les utilisateurs finaux : la distance géographique entre vos utilisateurs finaux et les régions dans lesquelles vous déployez des applications a une incidence sur l'expérience utilisateur et les performances des applications.
  • Coût : le prix des ressources Google Cloud peut varier selon les régions.

L'outil de Google Cloud sélection de région vous aide à choisir les régions Google Cloud optimales en fonction de vos exigences en termes d'empreinte carbone, de coût et de latence. Vous pouvez également utiliser le Localisateur de régions cloud pour trouver des régions cloud dans Google Cloud et d'autres fournisseurs en fonction de vos exigences en termes de proximité, d'utilisation d'énergie bas carbone (CFE) et d'autres paramètres.

Recommandations

Pour déployer vos charges de travail cloud dans des régions à faible émission de carbone, tenez compte des recommandations des sections suivantes. Ces recommandations sont basées sur les conseils de la section Énergie sans carbone pour les régions Google Cloud .

Comprendre l'intensité carbone des régions cloud

Les centres de donnéesGoogle Cloud d'une région utilisent l'énergie du réseau électrique où se trouve la région. Google mesure l'impact carbone d'une région à l'aide de la métrique CFE, qui est calculée toutes les heures. Le CFE indique le pourcentage d'énergie sans émissions de carbone par rapport à l'énergie totale consommée au cours d'une heure. La métrique CFE dépend de deux facteurs :

  • Type de centrales électriques qui alimentent le réseau au cours d'une période donnée.
  • L'énergie propre attribuée à Google qui est fournie au réseau pendant cette période.

Pour en savoir plus sur le pourcentage moyen d'énergie décarbonée (CFE%) agrégé par heure pour chaque régionGoogle Cloud , consultez Énergie décarbonée pour les régions Google Cloud . Vous pouvez également obtenir ces données dans un format lisible par machine à partir du dépôt Énergie sans émission de carbone pour les régions Google Cloud sur GitHub et d'un ensemble de données public BigQuery.

Intégrer le CFE à votre stratégie de sélection des emplacements

Tenez compte des recommandations suivantes :

  • Sélectionnez la région la plus propre pour vos applications. Si vous prévoyez d'exécuter une application pendant une longue période, faites-le dans la région qui présente le CFE le plus élevé. Pour les charges de travail par lot, vous disposez d'une plus grande flexibilité dans le choix d'une région, car vous pouvez prédire le moment où la charge de travail doit s'exécuter.
  • Sélectionnez des régions à faible émission de carbone. Certaines pages du site Web Google Cloud et les sélecteurs d'emplacement de la console Google Cloud affichent l'indicateuricône feuille Faible CO2 pour les régions qui présentent l'impact carbone le plus faible.
  • Limitez la création de ressources à des régions à faible émission de carbone Google Cloudspécifiques à l'aide de la contrainte de règle d'administration Emplacements des ressources. Par exemple, pour autoriser la création de ressources uniquement dans les régions à faibles émissions de carbone basées aux États-Unis, créez une contrainte qui spécifie le groupe de valeurs in:us-low-carbon-locations.

Lorsque vous sélectionnez des emplacements pour vos ressources Google Cloud , tenez également compte des bonnes pratiques pour la sélection des régions, y compris des facteurs tels que les exigences de résidence des données, la latence pour les utilisateurs finaux, la redondance de l'application, la disponibilité des services et les tarifs.

Utiliser la programmation en fonction de l'heure de la journée

L'intensité carbone d'un réseau électrique peut varier considérablement au cours de la journée. La variation dépend du mix de sources d'énergie qui alimentent le réseau. Vous pouvez planifier des charges de travail, en particulier celles qui sont flexibles ou non urgentes, pour qu'elles s'exécutent lorsque le réseau est alimenté par une plus grande proportion d'énergie sans carbone.

Par exemple, de nombreux réseaux ont des pourcentages CFE plus élevés pendant les heures creuses ou lorsque des sources renouvelables comme l'énergie solaire et éolienne fournissent plus d'énergie au réseau. En planifiant des tâches de calcul intensives telles que l'entraînement de modèles et l'inférence par lot à grande échelle pendant les heures où le pourcentage d'énergie bas carbone est élevé, vous pouvez réduire considérablement les émissions de carbone associées sans affecter les performances ni les coûts. Cette approche est appelée décalage temporel. Elle consiste à utiliser la nature dynamique de l'intensité carbone d'un réseau pour optimiser la durabilité de vos charges de travail.

Optimiser les charges de travail d'IA et de ML pour l'efficacité énergétique

Ce principe du pilier "Durabilité" du Google Cloud Framework Well-Architected fournit des recommandations pour optimiser les charges de travail d'IA et de ML afin de réduire leur consommation d'énergie et leur empreinte carbone.

Présentation des principes

Pour optimiser la durabilité des charges de travail d'IA et de ML, vous devez adopter une approche holistique de la conception, du déploiement et de l'exploitation de ces charges de travail. Sélectionnez les modèles appropriés et le matériel spécialisé, comme les Tensor Processing Units (TPU), exécutez les charges de travail dans des régions à faibles émissions de carbone, optimisez-les pour réduire l'utilisation des ressources et appliquez les bonnes pratiques opérationnelles.

Les pratiques architecturales et opérationnelles qui optimisent le coût et les performances des charges de travail d'IA et de ML entraînent intrinsèquement une réduction de la consommation d'énergie et de l'empreinte carbone. La perspective de l'IA et du ML du framework Well-Architected décrit les principes et les recommandations pour concevoir, créer et gérer des charges de travail d'IA et de ML qui répondent à vos objectifs opérationnels, de sécurité, de fiabilité, de coût et de performances. De plus, le Cloud Architecture Center fournit des architectures de référence et des guides de conception détaillés pour les charges de travail d'IA et de ML dans Google Cloud.

Recommandations

Pour optimiser l'efficacité énergétique des charges de travail d'IA et de ML, tenez compte des recommandations des sections suivantes.

Concevoir une architecture écoénergétique à l'aide de TPU

Les charges de travail d'IA et de ML peuvent être gourmandes en ressources de calcul. La consommation d'énergie des charges de travail d'IA et de ML est un élément clé de la durabilité. Les TPU vous permettent d'améliorer considérablement l'efficacité énergétique et la durabilité de vos charges de travail d'IA et de ML.

Les TPU sont des accélérateurs conçus sur mesure et spécialement conçus pour les charges de travail d'IA et de ML. L'architecture spécialisée des TPU les rend très efficaces pour la multiplication matricielle à grande échelle, qui est à la base du deep learning. Les TPU peuvent effectuer des tâches complexes à grande échelle avec une efficacité supérieure à celle des processeurs à usage général tels que les CPU ou les GPU.

Les TPU offrent les avantages directs suivants en termes de durabilité :

  • Consommation d'énergie réduite : les TPU sont conçus pour une efficacité énergétique optimale. Ils offrent un plus grand nombre de calculs par watt d'énergie consommée. Leur architecture spécialisée réduit considérablement les besoins en énergie des tâches d'entraînement et d'inférence à grande échelle, ce qui entraîne une diminution des coûts opérationnels et de la consommation d'énergie.
  • Entraînement et inférence plus rapides : les performances exceptionnelles des TPU vous permettent d'entraîner des modèles d'IA complexes en quelques heures au lieu de plusieurs jours. Cette réduction considérable du temps de calcul total contribue directement à une empreinte environnementale plus faible.
  • Besoins de refroidissement réduits : les TPU intègrent un système de refroidissement liquide avancé, qui assure une gestion thermique efficace et réduit considérablement l'énergie utilisée pour refroidir le centre de données.
  • Optimisation du cycle de vie de l'IA : en intégrant le matériel et les logiciels, les TPU offrent une solution optimisée tout au long du cycle de vie de l'IA, du traitement des données au service de modèles.

Suivez les bonnes pratiques des 4 M pour la sélection des ressources

Google recommande un ensemble de bonnes pratiques pour réduire considérablement la consommation d'énergie et les émissions de carbone pour les charges de travail d'IA et de ML. Nous appelons ces bonnes pratiques les 4 M :

  • Modèle : sélectionnez des architectures de modèles de ML efficaces. Par exemple, les modèles creux améliorent la qualité du ML et réduisent les opérations de calcul d'un facteur 3 à 10 par rapport aux modèles denses.
  • Machine : choisissez des processeurs et des systèmes optimisés pour l'entraînement ML. Ces processeurs améliorent les performances et l'efficacité énergétique d'un facteur 2 à 5 par rapport aux processeurs à usage général.
  • Mécanisation : déployez vos charges de travail exigeantes en ressources de calcul dans le cloud. Vos charges de travail consomment moins d'énergie et génèrent 1,4 à 2 fois moins d'émissions que les déploiements sur site. Les centres de données cloud utilisent des entrepôts récents, conçus sur mesure et économes en énergie, qui présentent un rapport d'efficacité énergétique (PUE) élevé. Les centres de données sur site sont souvent plus anciens et plus petits. Il est donc possible que les investissements dans des systèmes de refroidissement et de distribution électrique économes en énergie ne soient pas rentables.
  • Carte : sélectionnez Google Cloud les zones géographiques qui utilisent l'énergie la plus propre. Cette approche permet de réduire l'empreinte carbone brute de vos charges de travail par un facteur de 5 à 10. Pour en savoir plus, consultez Énergie sans carbone pour les régions Google Cloud .

Pour en savoir plus sur les bonnes pratiques et les métriques d'efficacité des 4 M, consultez les études suivantes :

Optimiser les modèles et algorithmes d'IA pour l'entraînement et l'inférence

L'architecture d'un modèle d'IA et les algorithmes utilisés pour l'entraînement et l'inférence ont un impact important sur la consommation d'énergie. Tenez compte des recommandations suivantes.

Sélectionner des modèles d'IA efficaces

Choisissez des modèles d'IA plus petits et plus efficaces qui répondent à vos exigences de performances. Ne sélectionnez pas le plus grand modèle disponible comme choix par défaut. Par exemple, une version plus petite et distillée d'un modèle comme DistilBERT peut offrir des performances similaires avec une surcharge de calcul nettement inférieure et une inférence plus rapide qu'un modèle plus grand comme BERT.

Utiliser des solutions hyper efficaces et spécifiques à un domaine

Choisissez des solutions de ML spécialisées qui offrent de meilleures performances et nécessitent beaucoup moins de puissance de calcul qu'un grand modèle de base. Ces solutions spécialisées sont souvent pré-entraînées et hyper-optimisées. Elles peuvent réduire considérablement la consommation d'énergie et l'effort de recherche pour les charges de travail d'entraînement et d'inférence. Voici quelques exemples de solutions spécialisées spécifiques à un domaine :

  • Earth AI est une solution écoénergétique qui synthétise de grandes quantités de données géospatiales mondiales pour fournir des insights précis, exploitables et en temps opportun.
  • WeatherNext produit des prévisions météorologiques mondiales plus rapides, plus efficaces et très précises par rapport aux méthodes physiques classiques.

Appliquer les techniques de compression de modèles appropriées

Voici quelques exemples de techniques que vous pouvez utiliser pour compresser des modèles :

  • Élagueur : supprime les paramètres inutiles d'un réseau de neurones. Il s'agit de paramètres qui ne contribuent pas de manière significative aux performances d'un modèle. Cette technique réduit la taille du modèle et les ressources de calcul nécessaires à l'inférence.
  • Quantification : réduisez la précision des paramètres du modèle. Par exemple, réduisez la précision de 32 bits à virgule flottante à des entiers de 8 bits. Cette technique peut aider à réduire considérablement l'empreinte mémoire et la consommation d'énergie sans diminution notable de la précision.
  • Distillation des connaissances : entraînez un modèle élève plus petit pour imiter le comportement d'un modèle enseignant plus grand et plus complexe. Le modèle élève peut atteindre un niveau de performances élevé avec moins de paramètres et en consommant moins d'énergie.

Utiliser du matériel spécialisé

Comme indiqué dans Suivez les bonnes pratiques des 4 M pour la sélection des ressources, choisissez des processeurs et des systèmes optimisés pour l'entraînement du ML. Ces processeurs améliorent les performances et l'efficacité énergétique d'un facteur 2 à 5 par rapport aux processeurs à usage général.

Utiliser l'affinage d'un sous-ensemble de paramètres

Au lieu d'ajuster tous les milliards de paramètres d'un modèle (affinage complet), utilisez des méthodes d'optimisation du réglage des paramètres (PEFT, parameter-efficient fine-tuning) comme l'adaptation de faible rang (LoRA, low-rank adaptation). Avec cette technique, vous figez les pondérations du modèle d'origine et n'entraînez qu'un petit nombre de nouvelles couches légères. Cette approche permet de réduire les coûts et la consommation d'énergie.

Suivre les bonnes pratiques pour les opérations d'IA et de ML

Les pratiques opérationnelles ont un impact considérable sur la durabilité de vos charges de travail d'IA et de ML. Tenez compte des recommandations suivantes.

Optimiser les processus d'entraînement des modèles

Utilisez les techniques suivantes pour optimiser vos processus d'entraînement de modèles :

  • Arrêt prématuré : surveillez le processus d'entraînement et arrêtez-le lorsque vous n'observez plus d'amélioration des performances du modèle par rapport à l'ensemble de validation. Cette technique vous permet d'éviter les calculs et la consommation d'énergie inutiles.
  • Chargement efficace des données : utilisez des pipelines de données efficaces pour vous assurer que les GPU et les TPU sont toujours utilisés et n'attendent pas les données. Cette technique permet de maximiser l'utilisation des ressources et de réduire le gaspillage d'énergie.
  • Réglage optimisé des hyperparamètres : pour trouver plus efficacement les hyperparamètres optimaux, utilisez des techniques telles que l'optimisation bayésienne ou l'apprentissage par renforcement. Évitez les recherches exhaustives dans la grille, qui peuvent être des opérations gourmandes en ressources.

Améliorer l'efficacité de l'inférence

Pour améliorer l'efficacité des tâches d'inférence de l'IA, utilisez les techniques suivantes :

  • Traitement par lot : regroupez plusieurs requêtes d'inférence dans des lots et profitez du traitement parallèle sur les GPU et les TPU. Cette technique permet de réduire le coût énergétique par prédiction.
  • Mise en cache avancée : implémentez une stratégie de mise en cache multicouche, qui inclut la mise en cache clé-valeur (KV) pour la génération autorégressive et la mise en cache des requêtes sémantiques pour les réponses des applications. Cette technique permet de contourner les calculs de modèles redondants et peut entraîner une réduction significative de la consommation d'énergie et des émissions de carbone.

Mesurer et surveiller

Surveillez et mesurez les paramètres suivants :

  • Utilisation et coût : utilisez les outils appropriés pour suivre l'utilisation des jetons, la consommation d'énergie et l'empreinte carbone de vos charges de travail d'IA. Ces données vous aident à identifier les opportunités d'optimisation et à rendre compte des progrès réalisés vers les objectifs de développement durable.
  • Performances : surveillez en continu les performances du modèle en production. Identifier les problèmes tels que la dérive des données, qui peuvent indiquer que le modèle doit être affiné à nouveau. Si vous devez réentraîner le modèle, vous pouvez utiliser le modèle affiné d'origine comme point de départ et gagner ainsi beaucoup de temps, d'argent et d'énergie pour les mises à jour.

Pour en savoir plus sur l'opérationnalisation de l'amélioration continue, consultez Mesurer et améliorer en continu la durabilité.

Implémenter la planification tenant compte des émissions de carbone

Concevez vos jobs de pipeline de ML pour qu'ils s'exécutent dans des régions où le mix énergétique est le plus propre. Utilisez le rapport "Empreinte carbone" pour identifier les régions les moins intensives en carbone. Planifiez les tâches gourmandes en ressources sous forme de jobs par lot pendant les périodes où le réseau électrique local présente un pourcentage plus élevé d'énergie décarbonée (CFE).

Optimisez les pipelines de données

Les opérations de ML et le réglage précis nécessitent un ensemble de données propre et de haute qualité. Avant de lancer des jobs de ML, utilisez des services de traitement de données gérés pour préparer efficacement les données. Par exemple, utilisez Dataflow pour le traitement par flux et par lot, et Dataproc pour les pipelines Spark et Hadoop gérés. Un pipeline de données optimisé permet de s'assurer que votre charge de travail d'affinage n'attend pas les données. Vous pouvez ainsi maximiser l'utilisation des ressources et réduire le gaspillage d'énergie.

Adopter le MLOps

Pour automatiser et gérer l'ensemble du cycle de vie du ML, mettez en œuvre les pratiques MLOps (ML Operations). Ces pratiques permettent de s'assurer que les modèles sont surveillés, validés et redéployés en continu et de manière efficace, ce qui permet d'éviter les entraînements ou les allocations de ressources inutiles.

Utiliser des services gérés

Au lieu de gérer votre propre infrastructure, utilisez des services cloud gérés comme Vertex AI. La plate-forme cloud gère la gestion des ressources sous-jacente, ce qui vous permet de vous concentrer sur le processus d'ajustement précis. Utilisez des services qui incluent des outils intégrés pour l'optimisation des hyperparamètres, la surveillance des modèles et la gestion des ressources.

Étapes suivantes

Optimiser l'utilisation des ressources pour la durabilité

Ce principe du pilier de durabilité du Google Cloud framework Well-Architected fournit des recommandations pour vous aider à optimiser l'utilisation des ressources par vos charges de travail dans Google Cloud.

Présentation des principes

L'optimisation de l'utilisation des ressources est essentielle pour améliorer la durabilité de votre environnement cloud. Chaque ressource provisionnée (cycles de calcul, stockage de données, etc.) a un impact direct sur la consommation d'énergie, l'intensité hydrique et les émissions de carbone. Pour réduire l'empreinte environnementale de vos charges de travail, vous devez faire des choix éclairés lorsque vous provisionnez, gérez et utilisez des ressources cloud.

Recommandations

Pour optimiser l'utilisation des ressources, tenez compte des recommandations des sections suivantes.

Implémenter un scaling automatique et dynamique

La mise à l'échelle automatisée et dynamique garantit une utilisation optimale des ressources, ce qui permet d'éviter le gaspillage d'énergie lié à une infrastructure inactive ou surprovisionnée. La réduction du gaspillage d'énergie se traduit par une diminution des coûts et des émissions de carbone.

Utilisez les techniques suivantes pour implémenter une évolutivité automatisée et dynamique.

Utiliser le scaling horizontal

Le scaling horizontal est la technique de scaling à privilégier pour la plupart des applications cloud. Au lieu d'augmenter la taille de chaque instance, ce que l'on appelle le scaling vertical, vous ajoutez des instances pour répartir la charge. Par exemple, vous pouvez utiliser des groupes d'instances gérés (MIG) pour effectuer un scaling horizontal automatiquement un groupe de VM Compute Engine. Une infrastructure à scaling horizontal est plus résiliente, car la défaillance d'une instance n'affecte pas la disponibilité de l'application. Le scaling horizontal est également une technique économe en ressources pour les applications dont les niveaux de charge sont variables.

Configurer des règles de scaling appropriées

Configurez les paramètres d'autoscaling en fonction des exigences de vos charges de travail. Définissez des métriques et des seuils personnalisés spécifiques au comportement des applications. Au lieu de vous fier uniquement à l'utilisation du processeur, pensez à utiliser des métriques telles que la profondeur de la file d'attente pour les tâches asynchrones, la latence des requêtes et les métriques d'application personnalisées. Pour éviter un scaling fréquent et inutile ou un flapping, définissez des règles de scaling claires. Par exemple, pour les charges de travail que vous déployez dans Google Kubernetes Engine (GKE), configurez une stratégie d'autoscaling de cluster appropriée.

Combiner la mise à l'échelle réactive et proactive

Avec le scaling réactif, le système évolue en fonction des variations de charge en temps réel. Cette technique convient aux applications qui connaissent des pics de charge imprévisibles.

Le scaling proactif convient aux charges de travail avec des modèles prévisibles, comme les heures d'ouverture quotidiennes fixes et la génération de rapports hebdomadaires. Pour ces charges de travail, utilisez l'autoscaling planifié afin de provisionner les ressources à l'avance pour qu'elles puissent gérer un niveau de charge anticipé. Cette technique évite la course aux ressources et assure une expérience utilisateur plus fluide et plus efficace. Cette technique vous aide également à planifier de manière proactive les pics de charge connus, tels que les grands événements commerciaux et les efforts marketing ciblés.

Les services et fonctionnalités gérésGoogle Cloud , tels que GKE Autopilot, Cloud Run et les groupes d'instances gérés, gèrent automatiquement le scaling proactif en apprenant de vos modèles de charge de travail. Par défaut, lorsqu'un service Cloud Run ne reçoit aucun trafic, il est mis à l'échelle à zéro instance.

Concevoir des applications sans état

Pour qu'une application puisse évoluer horizontalement, ses composants doivent être sans état. Cela signifie que la session ou les données d'un utilisateur spécifique ne sont pas liées à une seule instance de calcul. Lorsque vous stockez l'état de la session en dehors de l'instance de calcul, par exemple dans Memorystore pour Redis, n'importe quelle instance de calcul peut traiter les requêtes de n'importe quel utilisateur. Cette approche de conception permet une mise à l'échelle horizontale fluide et efficace.

Utiliser la planification et les lots

Le traitement par lot est idéal pour les charges de travail à grande échelle et non urgentes. Les jobs par lot peuvent vous aider à optimiser vos charges de travail en termes d'efficacité énergétique et de coût.

Utilisez les techniques suivantes pour implémenter des jobs planifiés et par lot.

Programmation pour une faible intensité carbone

Planifiez l'exécution de vos jobs par lot dans des régions à faible émission de carbone et pendant les périodes où le réseau électrique local présente un pourcentage élevé d'énergie propre. Pour identifier les périodes de la journée les moins intensives en carbone pour une région, utilisez le rapport sur l'empreinte carbone.

Utiliser des VM spot pour les charges de travail non critiques

Les VM Spot vous permettent de profiter de la capacité Compute Engine inutilisée à un prix très réduit. Les VM Spot peuvent être préemptées, mais elles constituent un moyen économique de traiter de grands ensembles de données sans avoir besoin de ressources dédiées et toujours disponibles. Les VM Spot sont idéales pour les tâches par lots non critiques et tolérantes aux pannes.

Consolider et paralléliser les jobs

Pour réduire la surcharge liée au démarrage et à l'arrêt des tâches individuelles, regroupez les tâches similaires dans un seul grand lot. Exécutez ces charges de travail à volume élevé sur des services tels que Batch. Le service provisionne et gère automatiquement l'infrastructure nécessaire, ce qui permet d'assurer une utilisation optimale des ressources.

Utiliser des services gérés

Les services gérés tels que Batch et Dataflow gèrent automatiquement le provisionnement, la planification et la surveillance des ressources. La plate-forme cloud gère l'optimisation des ressources. Vous pouvez vous concentrer sur la logique de l'application. Par exemple, Dataflow ajuste automatiquement le nombre de nœuds de calcul en fonction du volume de données dans le pipeline. Vous ne payez donc pas pour les ressources inactives.

Faire correspondre les familles de machines virtuelles aux exigences de la charge de travail

Les types de machines que vous pouvez utiliser pour vos VM Compute Engine sont regroupés dans des familles de machines, qui sont optimisées pour différentes charges de travail. Choisissez les familles de machines appropriées en fonction des exigences de vos charges de travail.

Famille de machines Recommandé pour les types de charges de travail Conseils sur le développement durable
Instances à usage général (E2, N2, N4, Tau T2A/T2D) : ces instances offrent un rapport équilibré entre processeur et mémoire. Serveurs Web, microservices, bases de données de petite à moyenne taille et environnements de développement. La série E2 est très rentable et économe en énergie grâce à son allocation dynamique des ressources. La série Tau T2A utilise des processeurs basés sur l'architecture ARM, qui sont souvent plus économes en énergie par unité de performances pour les charges de travail à grande échelle.
Instances optimisées pour le calcul (C2, C3) : ces instances offrent un ratio processeur virtuel/mémoire élevé et des performances par cœur élevées. Calcul hautes performances (HPC), traitement par lot, serveurs de jeux et analyse de données basée sur le processeur. Une instance de la série C vous permet d'effectuer plus rapidement les tâches nécessitant beaucoup de processeur, ce qui réduit le temps de calcul total et la consommation d'énergie du job.
Instances à mémoire optimisée (M3, M2) : ces instances sont conçues pour les charges de travail qui nécessitent une grande quantité de mémoire. Vastes bases de données et entrepôts de données en mémoire, tels que SAP HANA ou l'analyse en mémoire. Les instances à mémoire optimisée permettent de regrouper les charges de travail gourmandes en mémoire sur moins de nœuds physiques. Cette consolidation réduit la quantité totale d'énergie requise par rapport à l'utilisation de plusieurs instances plus petites. La mémoire hautes performances réduit la latence d'accès aux données, ce qui peut réduire le temps total que le processeur passe dans un état actif.
Instances optimisées pour le stockage (Z3)  : ces instances offrent un stockage SSD local à haut débit et à faible latence. Entrepôts de données, analyse des journaux, et bases de données SQL, NoSQL et vectorielles. Les instances optimisées pour le stockage traitent d'énormes ensembles de données en local, ce qui permet d'éliminer l'énergie utilisée pour la sortie des données réseau entre les emplacements. Lorsque vous utilisez le stockage local pour les tâches à IOPS élevés, vous évitez de surprovisionner plusieurs instances standards.
Instances optimisées pour les accélérateurs (A3, A2, G2) : ces instances sont conçues pour les charges de travail accélérées par GPU et TPU, telles que l'IA, le ML et le HPC. Entraînement et inférence de modèles de ML, et simulations scientifiques.

Les TPU sont conçus pour une efficacité énergétique optimale. Elles offrent un nombre de calculs par watt plus élevé.

Une instance accélérée par GPU comme la série A3 avec des GPU NVIDIA H100 peut être beaucoup plus écoénergétique pour l'entraînement de grands modèles qu'une alternative utilisant uniquement des CPU. Bien qu'une instance accélérée par GPU ait une consommation d'énergie nominale plus élevée, la tâche est effectuée beaucoup plus rapidement.

Passer aux derniers types de machines

L'utilisation des derniers types de machines peut contribuer à améliorer la durabilité. Lorsque les types de machines sont mis à jour, ils sont souvent conçus pour être plus économes en énergie et pour offrir des performances plus élevées par watt. Les VM qui utilisent les derniers types de machines peuvent effectuer la même quantité de travail avec une consommation d'énergie inférieure.

Les CPU, GPU et TPU bénéficient souvent des avancées techniques dans l'architecture des puces, comme les suivantes :

  • Cœurs spécialisés : les processeurs sont souvent dotés de cœurs ou d'instructions spécialisés pour les charges de travail courantes. Par exemple, les processeurs peuvent disposer de cœurs dédiés aux opérations vectorielles ou d'accélérateurs d'IA intégrés. Lorsque ces tâches sont déchargées du processeur principal, elles sont effectuées plus efficacement et consomment moins d'énergie.
  • Gestion de l'alimentation améliorée : les avancées dans les architectures de puces incluent souvent des fonctionnalités de gestion de l'alimentation plus sophistiquées, telles que l'ajustement dynamique de la tension et de la fréquence en fonction de la charge de travail. Ces fonctionnalités de gestion de l'alimentation permettent aux puces de fonctionner à leur efficacité maximale et de passer en mode basse consommation lorsqu'elles sont inactives, ce qui minimise la consommation d'énergie.

Les améliorations techniques apportées à l'architecture des puces offrent les avantages directs suivants en termes de durabilité et de coûts :

  • Performances énergétiques améliorées : il s'agit d'une métrique clé pour la durabilité. Par exemple, les VM C4 offrent un rapport prix/performances 40 % supérieur à celui des VM C3 pour la même consommation d'énergie. Le processeur C4A offre une efficacité énergétique 60 % supérieure à celle des processeurs x86 comparables. Ces capacités de performances vous permettent d'effectuer des tâches plus rapidement ou d'utiliser moins d'instances pour la même charge.
  • Réduction de la consommation totale d'énergie : grâce à des processeurs améliorés, les ressources de calcul sont utilisées pendant une durée plus courte pour une tâche donnée, ce qui réduit la consommation d'énergie globale et l'empreinte carbone. L'impact carbone est particulièrement élevé pour les charges de travail de courte durée et nécessitant une utilisation intensive des ressources de calcul, comme les jobs par lot et l'entraînement de modèles de ML.
  • Utilisation optimale des ressources : les derniers types de machines sont souvent mieux adaptés aux logiciels modernes et plus compatibles avec les fonctionnalités avancées des plates-formes cloud. Ces types de machines permettent généralement une meilleure utilisation des ressources, ce qui réduit la nécessité d'un surprovisionnement et contribue à garantir que chaque watt d'énergie est utilisé de manière productive.

Déployer des applications conteneurisées

Vous pouvez utiliser des services entièrement gérés basés sur des conteneurs tels que GKE et Cloud Run dans votre stratégie de cloud computing durable. Ces services permettent d'optimiser l'utilisation des ressources et d'automatiser leur gestion.

Exploiter la capacité de Cloud Run à passer à zéro instance

Cloud Run fournit un environnement sans serveur géré qui met automatiquement à l'échelle les instances à zéro lorsqu'il n'y a pas de trafic entrant pour un service ou lorsqu'un job est terminé. L'autoscaling permet d'éliminer la consommation d'énergie par l'infrastructure inactive. Les ressources ne sont alimentées que lorsqu'elles traitent activement les requêtes. Cette stratégie est très efficace pour les charges de travail intermittentes ou basées sur des événements. Pour les charges de travail d'IA, vous pouvez utiliser des GPU avec Cloud Run, ce qui vous permet de consommer et de payer les GPU uniquement lorsqu'ils sont utilisés.

Automatiser l'optimisation des ressources à l'aide de GKE

GKE est une plate-forme d'orchestration de conteneurs qui garantit que les applications n'utilisent que les ressources dont elles ont besoin. Pour vous aider à automatiser l'optimisation des ressources, GKE propose les techniques suivantes :

  • Bin-packing : GKE Autopilot regroupe intelligemment plusieurs conteneurs sur les nœuds disponibles. Le bin packing maximise l'utilisation de chaque nœud et réduit le nombre de nœuds inactifs ou sous-utilisés, ce qui contribue à réduire la consommation d'énergie.
  • Autoscaling horizontal des pods (AHP) : avec HPA, le nombre de répliques de conteneurs (pods) est ajusté automatiquement en fonction de métriques prédéfinies telles que l'utilisation du processeur ou des métriques personnalisées spécifiques à l'application. Par exemple, si votre application connaît un pic de trafic, GKE ajoute des pods pour répondre à la demande. Lorsque le trafic diminue, GKE réduit le nombre de pods. Ce scaling dynamique empêche le surprovisionnement des ressources. Vous n'avez donc pas à payer ni à activer une capacité de calcul inutile.
  • Autoscaling de pods verticaux (VPA) : vous pouvez configurer GKE pour qu'il ajuste automatiquement les allocations et les limites de processeur et de mémoire pour les conteneurs individuels. Cette configuration garantit qu'un conteneur ne se voit pas attribuer plus de ressources que nécessaire, ce qui permet d'éviter le surprovisionnement des ressources.
  • Autoscaling multidimensionnel des pods GKE : pour les charges de travail complexes, vous pouvez configurer AHP et VPA simultanément afin d'optimiser à la fois le nombre de pods et la taille de chacun d'eux. Cette technique permet de garantir la plus petite empreinte énergétique possible pour les performances requises.
  • Planification tenant compte de la topologie (TAS, Topology-Aware Scheduling) : TAS améliore l'efficacité du réseau pour les charges de travail d'IA et de ML dans GKE en plaçant les pods en fonction de la structure physique de l'infrastructure du centre de données. TAS colocalise stratégiquement les charges de travail pour minimiser les sauts de réseau. Cette colocation permet de réduire la latence de communication et la consommation d'énergie. En optimisant l'alignement physique des nœuds et du matériel spécialisé, TAS accélère l'exécution des tâches et maximise l'efficacité énergétique des charges de travail d'IA et de ML à grande échelle.

Configurer la planification tenant compte des émissions de carbone

Chez Google, nous déplaçons continuellement nos charges de travail vers des lieux et des moments où l'électricité est la plus propre. Nous réutilisons ou récupérons également les anciens équipements pour d'autres cas d'utilisation. Vous pouvez utiliser cette stratégie de planification tenant compte du carbone pour vous assurer que vos charges de travail conteneurisées utilisent de l'énergie propre.

Pour implémenter la planification tenant compte du carbone, vous avez besoin d'informations sur le mix énergétique qui alimente les centres de données d'une région en temps réel. Vous pouvez obtenir ces informations dans un format lisible par machine à partir du dépôt Énergie sans carbone pour les régions Google Cloud sur GitHub ou à partir d'un ensemble de données public BigQuery. Les données horaires sur le mix énergétique et l'intensité carbone utilisées pour calculer l'ensemble de données annuel sur le carbone de Google proviennent d'Electricity Maps.

Pour implémenter la planification tenant compte du carbone, nous vous recommandons les techniques suivantes :

  • Déplacement géographique : planifiez l'exécution de vos charges de travail dans des régions qui utilisent une plus grande proportion de sources d'énergie renouvelables. Cette approche vous permet d'utiliser des réseaux électriques plus propres.
  • Décalage temporel : pour les charges de travail flexibles et non critiques, comme le traitement par lot, configurez-les pour qu'elles s'exécutent pendant les heures creuses ou lorsque les énergies renouvelables sont les plus abondantes. Cette approche, appelée "décalage temporel", permet de réduire l'empreinte carbone globale en tirant parti des sources d'énergie plus propres lorsqu'elles sont disponibles.

Concevoir une reprise après sinistre écoénergétique

La préparation à la reprise après sinistre (DR) implique souvent le préprovisionnement de ressources redondantes dans une région secondaire. Toutefois, les ressources inactives ou sous-utilisées peuvent entraîner un gaspillage d'énergie important. Choisissez des stratégies de reprise après sinistre qui maximisent l'utilisation des ressources et minimisent l'impact carbone sans compromettre vos objectifs de temps de récupération (RTO).

Optimiser l'efficacité du démarrage à froid

Utilisez les approches suivantes pour minimiser ou éliminer les ressources actives dans votre région secondaire (reprise après sinistre) :

  • Priorisez la reprise après sinistre à froid : gardez les ressources de la région de reprise après sinistre désactivées ou à l'état "mis à l'échelle à zéro". Cette approche permet d'éliminer l'empreinte carbone des ressources de calcul inactives.
  • Profitez du basculement sans serveur : utilisez des services sans serveur gérés tels que Cloud Run pour les points de terminaison de reprise après sinistre. Cloud Run passe à zéro lorsqu'il n'est pas utilisé. Vous pouvez ainsi maintenir une topologie de reprise après sinistre qui ne consomme aucune énergie tant que le trafic n'est pas redirigé vers la région de reprise après sinistre.
  • Automatisez la récupération avec l'infrastructure as code (IaC) : au lieu de maintenir les ressources en cours d'exécution (à chaud) sur le site de reprise après sinistre, utilisez un outil IaC tel que Terraform pour provisionner rapidement les environnements uniquement en cas de besoin.

Équilibrer la redondance et l'utilisation

La redondance des ressources est l'une des principales causes de gaspillage d'énergie. Pour réduire la redondance, utilisez les approches suivantes :

  • Préférez la configuration active-active à la configuration active-passive : dans une configuration active-passive, les ressources du site passif sont inactives, ce qui entraîne un gaspillage d'énergie. Une architecture actif-actif de taille optimale garantit que toutes les ressources provisionnées dans les deux régions diffusent activement le trafic. Cette approche vous aide à maximiser l'efficacité énergétique de votre infrastructure.
  • Redondance adaptée : répliquez les données et les services dans les régions uniquement lorsque la réplication est nécessaire pour répondre aux exigences de haute disponibilité ou de reprise après sinistre. Chaque réplica supplémentaire augmente le coût énergétique du stockage persistant et de la sortie réseau.

Développer des logiciels économes en énergie

Ce principe du pilier de durabilité du Google Cloud Well-Architected Framework fournit des recommandations pour écrire des logiciels qui minimisent la consommation d'énergie et la charge du serveur.

Présentation des principes

En suivant les bonnes pratiques pour créer vos applications cloud, vous optimisez l'énergie utilisée par les ressources d'infrastructure cloud : IA, calcul, stockage et réseau. Vous contribuez également à réduire les besoins en eau des centres de données et l'énergie consommée par les appareils des utilisateurs finaux lorsqu'ils accèdent à vos applications.

Pour créer des logiciels économes en énergie, vous devez intégrer des considérations de durabilité tout au long du cycle de vie du logiciel, de la conception et du développement au déploiement, à la maintenance et à l'archivage. Pour obtenir des conseils détaillés sur l'utilisation de l'IA pour créer des logiciels qui minimisent l'impact environnemental des charges de travail cloud, consultez l'e-book Google Cloud , Développer des logiciels de manière durable.

Recommandations

Les recommandations de cette section sont regroupées dans les domaines d'action suivants :

Réduire le travail de calcul

Pour écrire un logiciel économe en énergie, vous devez minimiser la quantité totale de travail de calcul effectué par votre application. Chaque instruction inutile, boucle redondante et fonctionnalité supplémentaire consomment de l'énergie, du temps et des ressources. Suivez les recommandations ci-dessous pour créer un logiciel qui effectue un minimum de calculs.

Écrire du code simple et ciblé

Pour écrire le minimum de code essentiel pour obtenir les résultats souhaités, utilisez les approches suivantes :

  • Éliminez la logique redondante et les fonctionnalités inutiles : écrivez du code qui n'exécute que les fonctions essentielles. Évitez les fonctionnalités qui augmentent la surcharge et la complexité de calcul, mais qui n'apportent pas de valeur mesurable à vos utilisateurs.
  • Refactoriser : pour améliorer l'efficacité énergétique au fil du temps, auditez régulièrement vos applications afin d'identifier les fonctionnalités inutilisées. Prenez les mesures nécessaires pour supprimer ou refactoriser ces fonctionnalités, selon le cas.
  • Évitez les opérations inutiles : ne calculez pas de valeur ni n'exécutez d'action tant que le résultat n'est pas nécessaire. Utilisez des techniques telles que l'évaluation différée, qui retarde les calculs jusqu'à ce qu'un composant dépendant de l'application ait besoin du résultat.
  • Privilégiez la lisibilité et la réutilisabilité du code : écrivez du code lisible et réutilisable. Cette approche minimise la duplication et suit le principe DRY (Don't Repeat Yourself), qui peut aider à réduire les émissions de carbone liées au développement et à la maintenance des logiciels.

Utiliser la mise en cache du backend

La mise en cache du backend permet à une application de ne pas effectuer la même tâche à plusieurs reprises. Un taux d'accès au cache élevé entraîne une réduction presque linéaire de la consommation d'énergie par requête. Pour implémenter la mise en cache du backend, utilisez les techniques suivantes :

  • Mettre en cache les données fréquentes : stockez les données fréquemment consultées dans un emplacement de stockage temporaire et performant. Par exemple, utilisez un service de mise en cache en mémoire comme Memorystore. Lorsqu'une application récupère des données à partir d'un cache, le volume de requêtes de base de données et d'opérations d'E/S de disque est réduit. Par conséquent, la charge sur les bases de données et les serveurs du backend diminue.
  • Mettre en cache les réponses de l'API : pour éviter les appels réseau redondants et coûteux, mettez en cache les résultats des requêtes d'API fréquentes.
  • Priorisez la mise en cache en mémoire : pour éliminer les opérations d'E/S sur disque lentes et les requêtes de base de données complexes, stockez les données dans une mémoire vive (RAM) à haute vitesse.
  • Sélectionnez les stratégies d'écriture du cache appropriées.
    • La stratégie d'écriture différée garantit que les données sont écrites de manière synchrone dans le cache et le stockage persistant. Cette stratégie augmente la probabilité d'accès au cache, de sorte que le stockage persistant reçoit moins de requêtes de lecture énergivores.
    • La stratégie d'écriture différée (write-behind) améliore les performances des applications qui effectuent de nombreuses opérations d'écriture. Les données sont d'abord écrites dans le cache, puis la base de données est mise à jour de manière asynchrone ultérieurement. Cette stratégie réduit la charge d'écriture immédiate sur les bases de données plus lentes.
  • Utilisez des règles d'éviction intelligentes : maintenez le cache léger et efficace. Pour supprimer les données obsolètes ou peu utiles et maximiser l'espace disponible pour les données fréquemment demandées, utilisez des règles telles que la valeur TTL (Time To Live), les données les moins récemment utilisées (LRU) et les données les moins fréquemment utilisées (LFU).

Utiliser des algorithmes et des structures de données efficaces

Les algorithmes et les structures de données que vous choisissez déterminent la complexité de calcul brute de votre logiciel. Lorsque vous sélectionnez des algorithmes et des structures de données appropriés, vous minimisez le nombre de cycles de processeur et d'opérations de mémoire nécessaires pour accomplir une tâche. Moins de cycles de processeur et d'opérations de mémoire entraînent une consommation d'énergie plus faible.

Choisir des algorithmes pour une complexité temporelle optimale

Privilégiez les algorithmes qui obtiennent le résultat requis dans le délai le plus court. Cette approche permet de réduire la durée d'utilisation des ressources. Pour sélectionner des algorithmes qui optimisent l'utilisation des ressources, utilisez les approches suivantes :

  • Concentrez-vous sur la réduction de la complexité : pour évaluer la complexité, ne vous contentez pas des métriques d'exécution et tenez compte de la complexité théorique de l'algorithme. Par exemple, par rapport au tri à bulles, le tri par fusion réduit considérablement la charge de calcul et la consommation d'énergie pour les grands ensembles de données.
  • Évitez les tâches redondantes : utilisez les fonctions intégrées et optimisées dans le langage de programmation ou le framework de votre choix. Ces fonctions sont souvent implémentées dans un langage de niveau inférieur et plus économe en énergie, comme C ou C++. Elles sont donc mieux optimisées pour le matériel sous-jacent que les fonctions codées sur mesure.

Sélectionner des structures de données pour l'efficacité

Les structures de données que vous choisissez déterminent la vitesse à laquelle les données peuvent être récupérées, insérées ou traitées. Cette vitesse affecte l'utilisation du processeur et de la mémoire. Pour sélectionner des structures de données efficaces, utilisez les approches suivantes :

  • Optimisez la recherche et la récupération : pour les opérations courantes telles que la vérification de l'existence d'un élément ou la récupération d'une valeur spécifique, privilégiez les structures de données optimisées pour la vitesse. Par exemple, les tables de hachage ou les ensembles de hachage permettent des recherches en temps quasi constant, ce qui est une approche plus économe en énergie que la recherche linéaire dans un tableau.
  • Minimiser l'empreinte mémoire : des structures de données efficaces permettent de réduire l'empreinte mémoire globale d'une application. L'accès à la mémoire et sa gestion étant réduits, la consommation d'énergie est plus faible. De plus, un profil de mémoire plus léger permet aux processus de s'exécuter plus efficacement, ce qui vous permet de reporter les mises à niveau des ressources.
  • Utilisez des structures spécialisées : utilisez des structures de données spécialement conçues pour un problème donné. Par exemple, utilisez une structure de données trie pour une recherche rapide de préfixes de chaînes et une file d'attente à priorité lorsque vous n'avez besoin d'accéder qu'à la valeur la plus élevée ou la plus basse de manière efficace.

Optimiser les opérations de calcul et de données

Lorsque vous développez un logiciel, concentrez-vous sur une utilisation efficace et proportionnelle des ressources dans l'ensemble de la pile technologique. Considérez le processeur, la mémoire, le disque et le réseau comme des ressources limitées et partagées. Reconnaissez qu'une utilisation efficace des ressources entraîne des réductions tangibles des coûts et de la consommation d'énergie.

Optimiser l'utilisation du processeur et le temps d'inactivité

Pour minimiser le temps que le processeur passe dans un état actif et énergivore sans effectuer de travail utile, utilisez les approches suivantes :

  • Privilégiez la logique événementielle au polling : remplacez les boucles d'attente ou les vérifications constantes (polling) gourmandes en ressources par une logique événementielle. Une architecture basée sur les événements garantit que les composants d'une application ne fonctionnent que lorsqu'ils sont déclenchés par des événements pertinents. Cette approche permet un traitement à la demande, ce qui élimine la nécessité d'un polling gourmand en ressources.
  • Évitez une fréquence élevée constante : écrivez du code qui ne force pas le processeur à fonctionner constamment à sa fréquence maximale. Pour minimiser la consommation d'énergie, les systèmes inactifs doivent pouvoir passer en mode basse consommation ou en mode veille.
  • Utilisez le traitement asynchrone : pour éviter que les threads ne soient verrouillés pendant les temps d'attente inactifs, utilisez le traitement asynchrone. Cette approche libère des ressources et permet une meilleure utilisation globale des ressources.

Gérer efficacement la mémoire et les E/S disque

Une utilisation inefficace de la mémoire et du disque entraîne un traitement inutile et une consommation d'énergie accrue. Pour gérer efficacement la mémoire et les E/S, utilisez les techniques suivantes :

  • Gestion stricte de la mémoire : prenez des mesures pour libérer de manière proactive les ressources mémoire inutilisées. Évitez de conserver de grands objets en mémoire plus longtemps que nécessaire. Cette approche permet d'éviter les goulots d'étranglement des performances et de réduire la puissance consommée pour l'accès à la mémoire.
  • Optimisez les E/S de disque : réduisez la fréquence des interactions de lecture et d'écriture de votre application avec les ressources de stockage persistant. Par exemple, utilisez une mémoire tampon intermédiaire pour stocker les données. Écrivez les données dans un espace de stockage persistant à intervalles fixes ou lorsque le tampon atteint une certaine taille.
  • Opérations par lot : regroupez les opérations de disque fréquentes et de petite taille en opérations par lot moins nombreuses et plus volumineuses. Une opération par lot consomme moins d'énergie que de nombreuses petites transactions individuelles.
  • Utilisez la compression : réduisez la quantité de données écrites sur les disques ou lues à partir de ceux-ci en appliquant des techniques de compression de données appropriées. Par exemple, pour compresser les données que vous stockez dans Cloud Storage, vous pouvez utiliser le transcodage décompressif.

Minimiser le trafic réseau

Les ressources réseau consomment beaucoup d'énergie lors des opérations de transfert de données. Pour optimiser la communication réseau, utilisez les techniques suivantes :

  • Réduisez la taille de la charge utile : concevez vos API et vos applications de manière à ne transférer que les données nécessaires à une requête. Évitez de récupérer ou de renvoyer de grandes structures JSON ou XML lorsque seuls quelques champs sont requis. Assurez-vous que les structures de données renvoyées sont concises.
  • Réduisez les allers-retours : pour réduire le nombre d'allers-retours réseau nécessaires pour effectuer une action utilisateur, utilisez des protocoles plus intelligents. Par exemple, préférez HTTP/3 à HTTP/1.1, choisissez GraphQL plutôt que REST, utilisez des protocoles binaires et consolidez les appels d'API. Lorsque vous réduisez le volume d'appels réseau, vous réduisez la consommation d'énergie de vos serveurs et des appareils des utilisateurs finaux.

Implémenter l'optimisation du frontend

L'optimisation du frontend minimise les données que vos utilisateurs finaux doivent télécharger et traiter, ce qui permet de réduire la charge sur les ressources des appareils des utilisateurs finaux.

Minimiser le code et les composants

Lorsque les utilisateurs finaux doivent télécharger et traiter des ressources plus petites et mieux structurées, leurs appareils consomment moins d'énergie. Pour minimiser le volume de téléchargement et la charge de traitement sur les appareils des utilisateurs finaux, utilisez les techniques suivantes :

  • Minimisation et compression : pour les fichiers JavaScript, CSS et HTML, supprimez les caractères inutiles tels que les espaces blancs et les commentaires à l'aide des outils de minimisation appropriés. Assurez-vous que les fichiers tels que les images sont compressés et optimisés. Vous pouvez automatiser la réduction et la compression des composants Web à l'aide d'un pipeline CI/CD.
  • Chargement différé : chargez les images, les vidéos et les éléments non essentiels uniquement lorsqu'ils sont réellement nécessaires, par exemple lorsqu'ils défilent dans la fenêtre d'affichage d'une page Web. Cette approche réduit le volume de transfert de données initial et la charge de traitement sur les appareils des utilisateurs finaux.
  • Regroupez le code JavaScript dans des fichiers plus petits : éliminez le code inutilisé de vos groupes JavaScript en utilisant des outils de regroupement de modules modernes et des techniques comme le tree shaking. Cette approche permet d'obtenir des fichiers plus petits qui se chargent plus rapidement et utilisent moins de ressources serveur.
  • Mise en cache du navigateur : utilisez des en-têtes de mise en cache HTTP pour indiquer au navigateur de l'utilisateur de stocker les éléments statiques en local. La mise en cache du navigateur permet d'éviter les téléchargements répétés et le trafic réseau inutile lors des visites ultérieures.

Prioriser une expérience utilisateur légère

La conception de votre interface utilisateur peut avoir un impact significatif sur la complexité de calcul pour le rendu du contenu du frontend. Pour créer des interfaces frontend offrant une UX légère, utilisez les techniques suivantes :

  • Rendu efficace : évitez les manipulations fréquentes et gourmandes en ressources du Document Object Model (DOM). Écrivez du code qui minimise la complexité du rendu et élimine les rendus inutiles.
  • Modèles de conception légers : dans la mesure du possible, privilégiez les sites statiques ou les progressive web apps (PWA). Ces sites et applications se chargent plus rapidement et nécessitent moins de ressources serveur.
  • Accessibilité et performances : les sites responsifs et à chargement rapide sont souvent plus durables et accessibles. Une conception optimisée et épurée réduit les ressources consommées lors du rendu du contenu. Les sites Web optimisés pour les performances et la vitesse peuvent générer des revenus plus élevés. Selon une étude de Deloitte et Google intitulée Milliseconds Make Millions, une amélioration de 0,1 seconde (100 ms) de la vitesse d'un site entraîne une augmentation de 8,4 % des conversions pour les sites de vente au détail et de 9,2 % du panier moyen.

Optimiser les données et le stockage pour la durabilité

Ce principe du pilier "Durabilité" du Google Cloud Well-Architected Framework fournit des recommandations pour vous aider à optimiser l'efficacité énergétique et l'empreinte carbone de vos ressources de stockage dans Google Cloud.

Présentation des principes

Les données stockées ne sont pas une ressource passive. De l'énergie est consommée et des émissions de carbone sont générées tout au long du cycle de vie des données. Chaque gigaoctet de données stockées nécessite une infrastructure physique qui est constamment alimentée, refroidie et gérée. Pour obtenir une architecture cloud durable, traitez les données comme un atout précieux, mais coûteux pour l'environnement, et privilégiez une gouvernance des données proactive.

Vos décisions concernant la conservation, la qualité et l'emplacement des données peuvent vous aider à réduire considérablement les coûts et la consommation d'énergie dans le cloud. Réduisez au minimum les données que vous stockez, optimisez l'emplacement et la manière dont vous les stockez, et mettez en œuvre des stratégies de suppression et d'archivage automatiques. En réduisant l'encombrement des données, vous améliorez les performances du système et réduisez fondamentalement l'empreinte environnementale à long terme de vos données.

Recommandations

Pour optimiser le cycle de vie de vos données et vos ressources de stockage en termes de durabilité, tenez compte des recommandations des sections suivantes.

Prioriser les données à forte valeur

Les données stockées qui ne sont pas utilisées, sont en double ou sont obsolètes continuent de consommer de l'énergie pour alimenter l'infrastructure sous-jacente. Pour réduire l'empreinte carbone liée au stockage, utilisez les techniques suivantes.

Identifier et éliminer les doublons

Établissez des règles pour éviter la réplication inutile d'ensembles de données dans plusieurs projets ou services Google Cloud . Utilisez des dépôts de données centraux tels que les ensembles de données BigQuery ou les buckets Cloud Storage comme sources uniques de référence, et accordez l'accès approprié à ces dépôts.

Supprimer les données fantômes et les données obscures

Les données obscures sont des données dont l'utilité ou le propriétaire sont inconnus. Les données fantômes désignent les copies non autorisées de données. Analysez vos systèmes de stockage et trouvez les données obscures et les données fantômes à l'aide d'une solution de découverte et de catalogage des données comme Dataplex Universal Catalog. Auditez régulièrement ces résultats et mettez en œuvre un processus d'archivage ou de suppression des données sombres et cachées, le cas échéant.

Minimiser le volume de données pour les charges de travail d'IA

Ne stockez que les caractéristiques et les données traitées nécessaires à l'entraînement et à la diffusion du modèle. Dans la mesure du possible, utilisez des techniques telles que l'échantillonnage et l'agrégation de données, ainsi que la génération de données synthétiques, pour obtenir des performances de modèle sans avoir recours à des ensembles de données brutes massifs.

Intégrer des contrôles de la qualité des données

Implémentez des pipelines de validation et de nettoyage automatiques des données à l'aide de services tels que Dataproc, Dataflow ou Dataplex Universal Catalog au moment de l'ingestion des données. Les données de mauvaise qualité gaspillent de l'espace de stockage. Cela entraîne également une consommation d'énergie inutile lorsque les données sont utilisées ultérieurement pour l'analyse ou l'entraînement de l'IA.

Examiner la densité de valeur des données

Examinez régulièrement les ensembles de données à volume élevé, comme les journaux et les flux IoT. Déterminez si des données peuvent être résumées, agrégées ou sous-échantillonnées pour maintenir la densité d'informations requise et réduire le volume de stockage physique.

Évaluez de manière critique la nécessité de sauvegardes

Évaluez la nécessité de sauvegarder les données que vous pouvez régénérer avec un minimum d'effort. Par exemple, les résultats ETL intermédiaires, les caches éphémères et les données d'entraînement dérivées d'une source stable et permanente. Ne conservez les sauvegardes que pour les données uniques ou coûteuses à recréer.

Optimiser la gestion du cycle de vie du stockage

Automatisez le cycle de vie du stockage afin que, lorsque l'utilité des données diminue, elles soient déplacées vers une classe de stockage écoénergétique ou supprimées, selon le cas. Utilisez les techniques suivantes.

Sélectionner une classe Cloud Storage appropriée

Automatisez la transition des données dans Cloud Storage vers des classes de stockage à faible émission de carbone en fonction de la fréquence d'accès à l'aide de la gestion du cycle de vie des objets.

  • N'utilisez le stockage standard que pour les ensembles de données activement utilisés, tels que les modèles de production actuels.
  • Transférez les données telles que les anciens ensembles de données d'entraînement de l'IA ou les sauvegardes moins fréquemment consultées vers le stockage Nearline ou Coldline.
  • Pour une conservation à long terme, utilisez le stockage Archive, qui est optimisé pour l'efficacité énergétique à grande échelle.

Implémenter des règles de cycle de vie des données agressives

Définissez des règles de valeur TTL (Time To Live) claires et automatisées pour les données non essentielles, telles que les fichiers journaux, les artefacts de modèles temporaires et les résultats intermédiaires obsolètes. Utilisez des règles de cycle de vie pour supprimer automatiquement ces données après une période définie.

Rendre obligatoire l'ajout de tags aux ressources

Exigez l'utilisation de tags et d'étiquettes de ressources cohérents pour tous vos buckets Cloud Storage, ensembles de données BigQuery et disques persistants. Créez des tags qui indiquent le propriétaire des données, leur objectif et la période de conservation. Utilisez les contraintes du service de règles d'administration pour vous assurer que les tags requis, tels que la période de conservation, sont appliqués aux ressources. Les tags vous permettent d'automatiser la gestion du cycle de vie, de créer des rapports FinOps précis et de générer des rapports sur les émissions de carbone.

Dimensionner correctement et supprimer le stockage de calcul

Vérifiez régulièrement les disques persistants associés aux instances Compute Engine et assurez-vous qu'ils ne sont pas surprovisionnés. N'utilisez les instantanés que lorsqu'ils sont nécessaires pour la sauvegarde. Supprimez les anciens instantanés inutilisés. Pour les bases de données, utilisez des règles de conservation des données afin de réduire la taille des disques persistants sous-jacents.

Optimiser le format de stockage

Pour le stockage qui sert les charges de travail analytiques, préférez les formats colonnaires compressés comme Parquet ou Avro optimisé aux formats basés sur des lignes comme JSON ou CSV. Le stockage en colonnes réduit considérablement les besoins en espace disque physique et améliore l'efficacité de la lecture. Cette optimisation permet de réduire la consommation d'énergie pour les opérations de calcul et d'E/S associées.

Optimiser la régionalisation et le transfert de données

L'emplacement physique et le déplacement de vos données ont une incidence sur la consommation des ressources réseau et sur l'énergie requise pour le stockage. Optimisez la régionalité des données en utilisant les techniques suivantes.

Sélectionner des régions de stockage à faible émission de carbone

En fonction de vos exigences de conformité, stockez les données dans des régions Google Cloud qui utilisent un pourcentage plus élevé d'énergie bas carbone (CFE) ou qui ont une intensité carbone du réseau plus faible. Limitez la création de buckets de stockage dans les régions à forte émission de carbone à l'aide de la contrainte de règle d'administration Emplacements des ressources. Pour en savoir plus sur les données CFE et d'intensité carbone pour les régions Google Cloud , consultez Énergie décarbonée pour les régions Google Cloud .

Minimiser la réplication

Ne répliquez les données dans plusieurs régions que pour répondre aux exigences obligatoires en matière de reprise après sinistre (DR) ou de haute disponibilité (HA). Les opérations de réplication interrégionales et multirégionales augmentent considérablement le coût énergétique et l'empreinte carbone de vos données.

Optimiser les emplacements de traitement des données

Pour réduire la consommation d'énergie liée au transfert de données réseau, déployez les charges de travail gourmandes en calcul, comme l'entraînement de l'IA et le traitement BigQuery, dans la même région que la source de données.

Optimiser le transfert de données pour vos partenaires et vos clients

Pour déplacer de grands volumes de données entre des services, des emplacements et des fournisseurs cloud, encouragez vos partenaires et clients à utiliser le service de transfert de stockage ou les API de partage de données. Évitez les déversements massifs de données. Pour les ensembles de données publics, utilisez les buckets Requester Pays afin de transférer les coûts de transfert et de traitement des données, ainsi que l'impact environnemental, aux utilisateurs finaux.

Mesurer et améliorer en continu la durabilité

Ce principe du pilier de durabilité du Google Cloud Well-Architected Framework fournit des recommandations pour vous aider à mesurer et à améliorer en continu la durabilité de vos charges de travail dans Google Cloud.

Présentation des principes

Pour que vos charges de travail cloud restent durables, vous avez besoin de métriques précises et transparentes. Les métriques vérifiables vous permettent de traduire les objectifs de développement durable en actions. Chaque ressource que vous créez dans le cloud est associée à une empreinte carbone. Pour créer et gérer des architectures cloud durables, vous devez intégrer la mesure des données sur le carbone dans votre boucle de rétroaction opérationnelle.

Les recommandations de cette section fournissent un cadre pour utiliser l'empreinte carbone afin de quantifier les émissions de carbone, d'identifier les points chauds de carbone, d'implémenter des optimisations ciblées des charges de travail et de vérifier les résultats des efforts d'optimisation. Ce framework vous permet d'aligner efficacement vos objectifs d'optimisation des coûts sur des objectifs vérifiables de réduction des émissions de carbone.

Méthodologie de création de rapports de l'outil Empreinte carbone

L'outil Empreinte carbone fournit un rapport transparent, auditable et conforme aux normes internationales sur vos émissions liées au cloud. Le rapport respecte les normes internationales, principalement le Protocole des gaz à effet de serre pour la comptabilité et le reporting carbone. Le rapport "Empreinte carbone" utilise des méthodes de comptabilisation basées sur la localisation et sur le marché. La comptabilisation basée sur la localisation s'appuie sur le facteur d'émissions du réseau local. La comptabilité basée sur le marché tient compte des achats d'énergie décarbonée (CFE) de Google. Cette double approche vous aide à comprendre l'impact sur le réseau physique et les avantages en termes d'émissions de carbone de vos charges de travail dans Google Cloud.

Pour en savoir plus sur la façon dont le rapport sur l'empreinte carbone est préparé, y compris sur les sources de données utilisées, les inclusions du champ d'application 3 et le modèle d'allocation des clients, consultez la méthodologie de création de rapports de l'outil Empreinte carbone.

Recommandations

Pour utiliser la mesure du carbone afin d'améliorer en continu vos performances, tenez compte des recommandations des sections suivantes. Les recommandations sont structurées en phases de maturité pour implémenter des opérations cloud durables par conception :

Phase 1 : Établir une référence

Dans cette phase, vous configurez les outils nécessaires et vous vous assurez que les données sont accessibles et correctement intégrées.

  1. Accorder des autorisations : accordez des autorisations aux équipes FinOps, SecOps et d'ingénierie de plate-forme afin qu'elles puissent accéder au tableau de bord "Empreinte carbone" dans la console Google Cloud . Attribuez le rôle Lecteur d'empreinte carbone (roles/billing.carbonViewer) dans Identity and Access Management (IAM) pour le compte de facturation approprié.
  2. Automatiser l'exportation de données : configurez l'exportation automatique des données Empreinte carbone vers BigQuery. Les données exportées vous permettent d'effectuer des analyses approfondies, de corréler les données sur les émissions de carbone avec les données sur les coûts et l'utilisation, et de générer des rapports personnalisés.
  3. Définissez des indicateurs clés de performance (KPI) liés au carbone : établissez des métriques qui relient les émissions de carbone à la valeur commerciale. Par exemple, l'intensité carbone est une métrique qui mesure le nombre de kilogrammes d'équivalent CO2 par client, transaction ou unité de revenu.

Phase 2 : Identifier les points chauds d'émissions de carbone

Identifiez les domaines qui ont le plus d'impact sur l'environnement en analysant les données précises du rapport "Empreinte carbone". Pour cette analyse, utilisez les techniques suivantes :

  • Prioriser par portée : pour identifier rapidement les plus grands émetteurs bruts de carbone, analysez les données du tableau de bord par projet, région et service.
  • Utilisez la double comptabilisation : lorsque vous évaluez l'impact carbone dans une région, tenez compte à la fois des émissions basées sur la localisation (l'impact environnemental du réseau électrique local) et des émissions basées sur le marché (l'avantage des investissements de Google dans les énergies sans émission de carbone).
  • Corrélez les données avec les coûts : associez les données sur les émissions de carbone dans BigQuery à vos données de facturation et évaluez l'impact des actions d'optimisation sur la durabilité et les coûts. Un coût élevé peut souvent être corrélé à des émissions de carbone élevées.
  • Annoter les données pour mesurer le retour sur effort (ROE) : annotez les données sur les émissions de carbone dans BigQuery avec des événements spécifiques, comme le redimensionnement d'une ressource ou la mise hors service d'un service important. Les annotations vous permettent d'attribuer les réductions d'émissions de carbone et de coûts à des initiatives d'optimisation spécifiques. Vous pouvez ainsi mesurer et démontrer les résultats de chaque initiative.

Phase 3 : Implémenter l'optimisation ciblée

Il s'agit de la phase d'exécution pour implémenter des opérations cloud durables par conception. Utilisez les stratégies suivantes pour optimiser les ressources spécifiques que vous identifiez comme des facteurs importants de coûts et d'émissions de carbone :

  • Mettre hors service les projets sans surveillance : vérifiez régulièrement l'outil de recommandation de projets sans surveillance intégré aux données sur l'empreinte carbone. Pour réduire immédiatement et de manière vérifiée les émissions de carbone et les coûts, automatisez l'examen et la suppression éventuelle des projets inutilisés.
  • Redimensionnez les ressources : adaptez la capacité des ressources provisionnées à l'utilisation réelle à l'aide des outils de recommandation de redimensionnement Active Assist, comme les recommandations de types de machines pour les VM Compute Engine. Pour les tâches gourmandes en calcul et les charges de travail d'IA, utilisez les types de machines et les modèles d'IA les plus efficaces.
  • Adoptez la planification tenant compte de l'empreinte carbone : pour les charges de travail par lot qui ne sont pas urgentes, intégrez les données régionales sur le CFE dans la logique de planification. Dans la mesure du possible, limitez la création de ressources aux régions à faibles émissions de carbone en utilisant la contrainte Emplacements des ressources dans le service de règles d'administration.
  • Réduisez la prolifération des données : mettez en œuvre des règles de gouvernance des données pour vous assurer que les données rarement consultées sont transférées vers une classe de stockage à froid appropriée (Nearline, Coldline ou Archive) ou sont supprimées définitivement. Cette stratégie permet de réduire le coût énergétique de vos ressources de stockage.
  • Affiner le code de l'application : corrigez les inefficacités au niveau du code qui entraînent une utilisation excessive des ressources ou des calculs inutiles.

Pour en savoir plus, consultez les ressources suivantes :

Phase 4 : Institutionnalisez vos pratiques et vos rapports sur le développement durable

Au cours de cette phase, vous intégrez la mesure du carbone à votre framework de gouvernance. Cette approche permet de s'assurer que votre organisation dispose des capacités et des contrôles nécessaires pour améliorer continuellement la durabilité et produire des rapports vérifiables.

  • Mettez en œuvre une gouvernance GreenOps : créez une fonction ou un groupe de travail GreenOps formel pour intégrer les données sur l'empreinte carbone aux données de facturation Cloud. Cette fonction doit définir la responsabilité des objectifs de réduction des émissions de carbone dans les projets, aligner l'optimisation des coûts sur les objectifs de développement durable et mettre en œuvre des rapports pour suivre l'efficacité carbone par rapport aux dépenses.
  • Utiliser les données d'empreinte carbone pour le reporting et la conformité : utilisez les données d'empreinte carbone vérifiées et auditables dans BigQuery pour créer des informations formelles sur l'environnement, le social et la gouvernance (ESG). Cette approche vous permet de répondre aux exigences des parties prenantes en matière de transparence et de garantir la conformité avec les réglementations obligatoires et volontaires.
  • Investissez dans la formation et la sensibilisation : mettez en place une formation obligatoire sur le développement durable pour les équipes techniques et non techniques concernées. Vos équipes doivent savoir comment accéder aux données sur l'empreinte carbone et les interpréter, et comment appliquer les recommandations d'optimisation dans leurs workflows quotidiens et leurs choix de conception. Pour en savoir plus, consultez Proposer une formation sur le développement durable basée sur les rôles.
  • Définissez les exigences en matière d'émissions de carbone : intégrez les métriques d'émissions de carbone en tant qu'exigences non fonctionnelles (ENF) dans les critères d'acceptation de votre application pour les nouveaux déploiements. Cette pratique permet de s'assurer que les architectes et les développeurs privilégient les options de conception à faible émission de carbone dès le début du cycle de vie du développement d'applications.
  • Automatiser les opérations GreenOps : automatisez l'implémentation des recommandations Active Assist à l'aide de scripts, de modèles et de pipelines Infrastructure as Code (IaC). Cette pratique permet aux équipes d'appliquer les recommandations de manière cohérente et rapide dans toute l'organisation.

Promouvoir une culture de durabilité

Ce principe du pilier "Durabilité" du Google Cloud framework Well-Architected fournit des recommandations pour vous aider à créer une culture dans laquelle les équipes de votre organisation connaissent les pratiques de durabilité et les maîtrisent.

Présentation des principes

Pour appliquer des pratiques durables, vous avez besoin de plus que des outils et des techniques. Vous avez besoin d'un changement culturel basé sur l'éducation et la responsabilité. Vos équipes doivent être conscientes des problèmes de durabilité et maîtriser les pratiques de durabilité.

  • La sensibilisation au développement durable est la connaissance contextuelle selon laquelle chaque décision architecturale et opérationnelle a des effets concrets sur le développement durable. Les équipes doivent comprendre que le cloud n'est pas une collection abstraite de ressources virtuelles, mais qu'il est alimenté par des ressources physiques qui consomment de l'énergie et produisent des émissions de carbone.
  • Maîtrise des pratiques de développement durable : capacité à interpréter les données sur les émissions de carbone, expérience de la mise en œuvre de la gouvernance du développement durable dans le cloud et compétences techniques pour refactoriser le code afin d'améliorer l'efficacité énergétique.

Pour aligner les pratiques de développement durable sur les objectifs de l'organisation, vos équipes doivent comprendre comment la consommation d'énergie de l'infrastructure et des logiciels cloud contribue à l'empreinte carbone de l'organisation. Une formation bien planifiée permet de s'assurer que tous vos partenaires (développeurs, architectes, professionnels de la finance, ingénieurs des opérations, etc.) comprennent le contexte de durabilité de leur travail quotidien. Cette compréhension partagée permet aux équipes de passer d'une conformité passive à une optimisation active, ce qui rend vos charges de travail cloud durables par conception. La durabilité devient une exigence non fonctionnelle (ENF) essentielle, au même titre que les autres exigences de sécurité, de coût, de performances et de fiabilité.

Recommandations

Pour sensibiliser les utilisateurs aux problèmes de durabilité et améliorer leurs compétences en la matière, tenez compte des recommandations des sections suivantes.

Fournir le contexte commercial et l'alignement sur les objectifs de l'organisation

La durabilité n'est pas qu'un exercice technique. Elle nécessite un changement culturel qui aligne les actions individuelles sur la mission environnementale de votre organisation. Lorsque les équipes comprennent le pourquoi des initiatives de développement durable, elles sont plus susceptibles de les adopter comme principes fondamentaux plutôt que comme tâches facultatives.

Connectez-vous à la vue d'ensemble

Aidez vos équipes à comprendre comment les choix architecturaux individuels (par exemple, la sélection d'une région à faible émission de carbone ou l'optimisation d'un pipeline de données) contribuent aux engagements globaux de l'organisation en matière de développement durable. Communiquez explicitement l'impact de ces choix sur la communauté locale et le secteur. Transformez les métriques carbone abstraites en indicateurs concrets de progression vers les objectifs de responsabilité sociale de l'entreprise (RSE).

Par exemple, un message comme celui-ci informe les équipes du résultat positif et de la reconnaissance par la direction d'une décision de migrer une charge de travail vers une région à faible émission de carbone et d'utiliser un type de machine économe en énergie. Le message fait référence à l'équivalent CO2, qui aide votre équipe à contextualiser l'impact des mesures de réduction des émissions de carbone.

"En migrant notre moteur d'analyse de données vers la région icône feuille us-central1 Low CO2 et en mettant à niveau nos clusters vers des instances basées sur Axion C4A, nous avons fondamentalement modifié notre profil carbone. Cette transition a permis de réduire de 75 % l'intensité carbone de notre moteur d'analyse de données, ce qui se traduit par une réduction de 12 tonnes métriques d'équivalent CO2 ce trimestre. Cette migration a eu un impact significatif sur nos objectifs commerciaux et a été incluse dans la newsletter du quatrième trimestre envoyée à notre conseil d'administration."

Communiquez sur vos objectifs financiers et de développement durable

La transparence est essentielle pour aligner les pratiques de développement durable sur les objectifs. Dans la mesure du possible, partagez largement les objectifs et les progrès en matière de développement durable dans toute l'organisation. Mettez en avant les progrès en matière de développement durable dans les états financiers annuels. Cette communication permet aux équipes techniques de considérer leur travail comme un élément essentiel des engagements publics et de la santé financière de l'organisation.

Adoptez un état d'esprit de destin partagé

Sensibilisez les équipes à la nature collaborative de la durabilité du cloud. Google est responsable de la durabilité du cloud, y compris de l'efficacité de l'infrastructure et des centres de données. Vous (le client) êtes responsable de la durabilité de vos ressources et charges de travail dans le cloud. Lorsque vous présentez cette collaboration comme un partenariat de destin commun, vous renforcez l'idée que votre organisation et Google travaillent ensemble pour obtenir des résultats environnementaux optimaux.

Proposer une formation sur le développement durable basée sur les rôles

Pour que le développement durable soit une compétence pratique plutôt qu'un concept théorique, adaptez la formation au développement durable à des fonctions spécifiques. Les outils et techniques de durabilité qu'un data scientist peut utiliser sont très différents de ceux dont dispose un analyste FinOps, comme le décrit le tableau suivant :

Rôle Objectif de l'entraînement
Data scientists et ingénieurs en ML Intensité carbone du calcul : démontrez les différences entre l'exécution de tâches d'entraînement de l'IA sur des anciens systèmes et sur des accélérateurs d'IA spécialement conçus. Soulignez comment un modèle avec moins de paramètres peut produire la précision requise avec une consommation d'énergie nettement inférieure.
Développeurs Efficacité du code et consommation de ressources : illustrez comment un code à latence élevée ou des boucles inefficaces se traduisent directement par une durée d'exécution du processeur prolongée et une consommation d'énergie accrue. Soulignez l'importance des conteneurs légers et la nécessité d'optimiser les performances des applications pour réduire l'empreinte environnementale des logiciels.
Architectes Conçu pour la durabilité : concentrez-vous sur la sélection de la région et le placement de la charge de travail. Montrez comment le choix d'une région à faibles émissions de CO2 avec un pourcentage élevé d'énergies renouvelables (comme northamerica-northeast1) modifie fondamentalement le profil carbone de l'ensemble de votre pile d'applications avant même que vous n'ayez écrit une seule ligne de code.icône feuille
Ingénieurs de plate-forme et ingénieurs des opérations Maximiser l'utilisation : mettez l'accent sur le coût environnemental des ressources inutilisées et du surprovisionnement. Présentez des scénarios de scaling et de redimensionnement automatiques pour vous assurer que les ressources cloud sont utilisées efficacement. Expliquez comment créer et suivre des métriques liées à la durabilité, comme l'utilisation, et comment traduire des métriques comme le temps de calcul en métriques équivalentes d'émissions de carbone.
FinOps Économie unitaire du carbone : concentrez-vous sur la relation entre les dépenses financières et l'impact environnemental. Montrez comment les pratiques GreenOps permettent à une organisation de suivre les émissions de carbone par transaction, ce qui contribue à faire de la durabilité un indicateur clé de performance (KPI) aussi important que les KPI classiques tels que le coût et l'utilisation.
Responsables produit Le développement durable comme fonctionnalité : découvrez comment intégrer des objectifs de réduction des émissions de carbone dans les feuilles de route des produits. Montrez comment des parcours utilisateur simplifiés peuvent contribuer à réduire la consommation d'énergie des ressources cloud et des appareils des utilisateurs finaux.
Chefs d'entreprises Alignement stratégique et reporting : concentrez-vous sur la façon dont la durabilité du cloud affecte les scores environnementaux, sociaux et de gouvernance (ESG) et la réputation publique. Illustrez comment les choix en matière de développement durable contribuent à réduire les risques liés à la réglementation et à respecter les engagements envers la communauté et le secteur.

Promouvoir le développement durable et reconnaître les réussites

Pour progresser à long terme, vous devez aller au-delà des corrections techniques internes et commencer à influencer vos partenaires et le secteur.

Permettre aux responsables de promouvoir le développement durable

Fournissez aux responsables les données et les autorisations dont ils ont besoin pour donner la priorité à l'impact environnemental, comme ils le font pour d'autres métriques métier telles que le délai de mise sur le marché et les coûts. Lorsque les responsables disposent de ces données, ils commencent à considérer le développement durable comme une norme de qualité et d'efficacité plutôt que comme une capacité agréable à avoir, mais qui ralentit la production. Ils militent activement pour de nouvelles fonctionnalités de fournisseurs de services cloud, comme des données sur les émissions de carbone plus précises et des processeurs plus récents et plus écologiques dans des régions spécifiques.

S'aligner sur les normes et les frameworks du secteur

Pour que vos efforts en matière de développement durable soient crédibles et mesurables, alignez vos pratiques internes sur les normes mondiales et régionales reconnues. Pour en savoir plus, consultez Aligner les pratiques de durabilité sur les consignes du secteur.

Encourager les efforts en faveur du développement durable

Pour que le développement durable devienne une partie intégrante de la culture d'ingénierie, les équipes doivent comprendre l'intérêt de le privilégier. Passez d'objectifs généraux à des KPI spécifiques et mesurables qui récompensent l'amélioration et l'efficacité.

Définir les KPI et les exigences non financières liés au carbone

Considérez la durabilité comme une exigence technique fondamentale. Lorsque vous définissez des KPI liés au carbone, tels que les grammes d'équivalent CO2 par million de requêtes ou l'intensité carbone par exécution d'entraînement de l'IA, vous rendez l'impact sur la durabilité visible et exploitable. Par exemple, intégrez la durabilité dans les exigences non fonctionnelles de chaque nouveau projet. En d'autres termes, tout comme un système doit respecter une latence ou une disponibilité cible spécifiques, il doit également rester dans un budget d'émissions de carbone défini.

Mesurer le retour sur effort

Aidez vos équipes à identifier les gains de durabilité à fort impact et à faible effort (par exemple, en déplaçant un job par lot vers une autre région) par rapport à un exercice complexe de refactoring de code qui pourrait apporter des gains minimes. Fournissez une visibilité sur le retour sur effort (ROE). Lorsqu'une équipe choisit une famille de processeurs plus efficace, elle doit savoir exactement la quantité d'émissions de carbone qu'elle a évitée par rapport au temps et aux efforts nécessaires pour migrer vers le nouveau processeur.

Reconnaître et célébrer la réduction des émissions de carbone

L'impact sur la durabilité est souvent masqué en arrière-plan de l'infrastructure. Pour susciter l'enthousiasme en faveur du développement durable, mettez en avant les réussites auprès de l'ensemble de l'organisation. Par exemple, utilisez des annotations dans les tableaux de bord de surveillance pour indiquer quand une équipe a déployé une optimisation spécifique de la durabilité. Cette visibilité permet aux équipes de mettre en avant les données du tableau de bord et de faire reconnaître leurs réussites.

Aligner les pratiques de développement durable sur les consignes du secteur

Ce principe du pilier de durabilité du Google Cloud Well-Architected Framework présente les consignes et frameworks du secteur que vous devez suivre pour vos efforts de durabilité.

Présentation des principes

Pour vous assurer que vos initiatives de développement durable reposent sur des méthodes de mesure, de reporting et de validation reconnues à l'échelle mondiale, nous vous recommandons de les aligner sur les consignes sectorielles suivantes :

Lorsque vous alignez vos initiatives de développement durable sur ces consignes externes communes, elles gagnent en crédibilité et en auditabilité, ce qui est exigé par les investisseurs, les organismes de réglementation et les autres parties prenantes externes. Vous favorisez également la responsabilisation des équipes d'ingénieurs, intégrez la durabilité dans la formation des employés et intégrez avec succès les opérations cloud dans les engagements à l'échelle de l'entreprise pour les rapports environnementaux, sociaux et de gouvernance (ESG).

Directives W3C sur la durabilité du Web

Les Consignes de durabilité Web (WSG) du W3C sont un framework émergent de bonnes pratiques développé par un groupe de travail du W3C pour lutter contre l'impact environnemental des produits et services numériques. Les consignes couvrent l'ensemble du cycle de vie d'une solution numérique, y compris la stratégie commerciale et produit, la conception de l'expérience utilisateur (UX), le développement Web, l'hébergement, l'infrastructure et les systèmes. L'objectif principal du WSG est de permettre aux développeurs et aux architectes de créer des sites Web et des applications Web plus économes en énergie, qui réduisent le trafic réseau, le traitement côté client et la consommation de ressources côté serveur. Ces consignes constituent un point de référence essentiel pour aligner la durabilité au niveau de l'application sur les décisions architecturales au niveau du cloud.

Green Software Foundation

La Green Software Foundation (GSF) se concentre sur la création d'un écosystème industriel autour des logiciels durables. Sa mission est de favoriser la création de logiciels conçus, développés et exploités pour minimiser l'empreinte carbone. La GSF a développé la spécification Software Carbon Intensity (SCI), qui fournit une norme commune pour mesurer le taux d'émissions de carbone de n'importe quel logiciel. L'alignement sur le GSF aide les développeurs à relier directement l'efficacité d'une application à l'impact carbone de l'environnement cloud.

Protocole sur les gaz à effet de serre

Le Protocole des gaz à effet de serre (GES) est un ensemble de normes largement utilisé pour mesurer, gérer et publier les émissions de gaz à effet de serre. Ce protocole a été développé dans le cadre d'un partenariat entre le World Resources Institute (WRI) et le World Business Council for Sustainable Development (WBCSD). Le protocole GHG fournit le cadre essentiel pour la comptabilité carbone des entreprises. Le rapport sur l'empreinte carbone fournit des données sur les scopes d'émissions qui sont pertinents pour l'utilisation du cloud. Pour en savoir plus, consultez la méthodologie de création de rapports de l'outil Empreinte carbone.

Le respect du protocole GHG permet de garantir la crédibilité de vos initiatives de développement durable et de permettre à des tiers d'auditer vos données sur les émissions de carbone. Vous contribuez également à éviter la perception de greenwashing et à satisfaire aux exigences de diligence raisonnable de vos investisseurs, des organismes de réglementation et des acteurs externes. Des données vérifiées et auditées aident votre organisation à prouver sa responsabilité et à renforcer la confiance dans ses engagements de développement durable publics.