Well-Architected Framework: Säule „Nachhaltigkeit“

Last reviewed 2026-01-28 UTC

Die Säule „Nachhaltigkeit“ im Google Cloud Well-Architected Framework bietet Empfehlungen zum Entwerfen, Erstellen und Verwalten von Arbeitslasten in Google Cloud, die energieeffizient und klimafreundlich sind.

Die Zielgruppe für dieses Dokument umfasst Entscheidungsträger, Architekten, Administratoren, Entwickler und Betreiber, die Arbeitslasten in Google Cloudentwerfen, erstellen, bereitstellen und verwalten.

Architektur- und Betriebsentscheidungen haben einen erheblichen Einfluss auf den Energieverbrauch, die Auswirkungen auf das Wasser und den CO₂-Fußabdruck, die durch Ihre Arbeitslasten in der Cloud verursacht werden. Jede Arbeitslast, sei es eine kleine Website oder ein umfangreiches ML-Modell, verbraucht Energie und trägt zu CO2-Emissionen und der Intensität der Wasserressourcen bei. Wenn Sie Nachhaltigkeit in Ihre Cloud-Architektur und Ihren Designprozess integrieren, entwickeln Sie Systeme, die effizient, kostengünstig und umweltfreundlich sind. Eine nachhaltige Architektur ist robust und optimiert. Das führt zu einem positiven Feedback-Loop mit höherer Effizienz, niedrigeren Kosten und geringerer Umweltbelastung.

Nachhaltigkeit durch Design: Ganzheitliche Geschäftsergebnisse

Nachhaltigkeit steht nicht im Widerspruch zu anderen wichtigen Geschäftszielen. Nachhaltigkeitspraktiken tragen dazu bei, dass Sie Ihre anderen Geschäftsziele schneller erreichen. Architekturentscheidungen, bei denen Ressourcen und Abläufe mit geringem CO2-Ausstoß im Vordergrund stehen, helfen Ihnen, Systeme zu entwickeln, die auch schneller, kostengünstiger und sicherer sind. Solche Systeme gelten als nachhaltig konzipiert, da die Optimierung für Nachhaltigkeit zu insgesamt positiven Ergebnissen in Bezug auf Leistung, Kosten, Sicherheit, Resilienz und Nutzerfreundlichkeit führt.

Leistungsoptimierung

Systeme, die für die Leistung optimiert sind, verwenden von Natur aus weniger Ressourcen. Eine effiziente Anwendung, die eine Aufgabe schneller erledigt, benötigt Rechenressourcen für einen kürzeren Zeitraum. Die zugrunde liegende Hardware verbraucht daher weniger Kilowattstunden (kWh) Energie. Eine optimierte Leistung führt auch zu einer geringeren Latenz und einer besseren Nutzerfreundlichkeit. Zeit und Energie werden nicht durch Ressourcen verschwendet, die auf ineffiziente Prozesse warten. Wenn Sie spezielle Hardware (z. B. GPUs und TPUs) verwenden, effiziente Algorithmen einsetzen und die parallele Verarbeitung maximieren, verbessern Sie die Leistung und reduzieren die CO₂-Bilanz Ihrer Cloud-Arbeitslast.

Kostenoptimierung

Die Betriebsausgaben für die Cloud hängen von der Ressourcennutzung ab. Aufgrund dieser direkten Korrelation senken Sie durch die kontinuierliche Kostenoptimierung auch den Energieverbrauch und die CO2-Emissionen. Wenn Sie VMs richtig dimensionieren, aggressives Autoscaling implementieren, alte Daten archivieren und inaktive Ressourcen entfernen, können Sie die Ressourcennutzung und die Cloud-Kosten senken. Außerdem verringern Sie den CO2-Fußabdruck Ihrer Systeme, da die Rechenzentren weniger Energie für die Ausführung Ihrer Arbeitslasten verbrauchen.

Sicherheit und Robustheit

Sicherheit und Zuverlässigkeit sind Voraussetzungen für eine nachhaltige Cloud-Umgebung. Ein manipuliertes System, z. B. ein System, das von einem DoS-Angriff (Denial of Service) oder einem unbefugten Datenleck betroffen ist, kann den Ressourcenverbrauch erheblich steigern. Diese Vorfälle können zu massiven Traffic-Spitzen führen, unkontrollierte Rechenzyklen für die Eindämmung verursachen und langwierige, energieintensive Vorgänge für die forensische Analyse, Bereinigung und Datenwiederherstellung erforderlich machen. Strenge Sicherheitsmaßnahmen können dazu beitragen, unnötige Spitzen bei der Ressourcennutzung zu vermeiden, damit Ihre Abläufe stabil, vorhersehbar und energieeffizient bleiben.

Nutzer

Systeme, bei denen Effizienz, Leistung, Barrierefreiheit und minimaler Datenverbrauch im Vordergrund stehen, können dazu beitragen, den Energieverbrauch der Endnutzer zu senken. Eine Anwendung, die ein kleineres Modell lädt oder weniger Daten verarbeitet, um schneller Ergebnisse zu liefern, trägt dazu bei, den Energieverbrauch von Netzwerkgeräten und Endnutzergeräten zu senken. Diese Reduzierung des Energieverbrauchs ist besonders für Nutzer mit begrenzter Bandbreite oder älteren Geräten von Vorteil. Außerdem trägt nachhaltige Architektur dazu bei, die Umweltbelastung zu minimieren, und zeigt Ihr Engagement für sozial verantwortliche Technologie.

Nachhaltigkeitsvorteile der Migration in die Cloud

Durch die Migration lokaler Arbeitslasten in die Cloud kann der ökologische Fußabdruck Ihres Unternehmens verringert werden. Durch die Umstellung auf die Cloud-Infrastruktur kann der Energieverbrauch und die damit verbundenen Emissionen im Vergleich zu typischen lokalen Bereitstellungen um das 1,4- bis 2‑Fache gesenkt werden. Cloud-Rechenzentren sind moderne, speziell entwickelte Einrichtungen, die auf eine hohe Effizienz der Stromnutzung (Power Usage Effectiveness, PUE) ausgelegt sind. Ältere lokale Rechenzentren sind oft nicht groß genug, um Investitionen in fortschrittliche Kühl- und Stromverteilungssysteme zu rechtfertigen.

Geteilte Verantwortung und Fate-Sharing

Shared responsibilities and shared fate on Google Cloud beschreibt, wie die Sicherheit für Cloud-Arbeitslasten eine gemeinsame Verantwortung zwischen Google und Ihnen, dem Kunden, ist. Dieses Modell der geteilten Verantwortung gilt auch für Nachhaltigkeit.

Google ist für die Nachhaltigkeit von Google Cloudverantwortlich, d. h. für die Energieeffizienz und den verantwortungsvollen Umgang mit Wasser in unseren Rechenzentren, unserer Infrastruktur und unseren wichtigsten Diensten. Wir investieren kontinuierlich in erneuerbare Energien, klimafreundliche Kühlung und Hardwareoptimierung. Weitere Informationen zur Nachhaltigkeitsstrategie und zu den Fortschritten von Google finden Sie im Klimaschutzbericht 2025 von Google.

Sie als Kunde sind für die Nachhaltigkeit in der Cloud verantwortlich. Das bedeutet, dass Sie Ihre Arbeitslasten so optimieren müssen, dass sie energieeffizient sind. Sie können beispielsweise Ressourcen richtig dimensionieren, serverlose Dienste verwenden, die auf null skaliert werden, und Datenlebenszyklen effektiv verwalten.

Wir setzen auch auf ein Modell der geteilten Verantwortung: Nachhaltigkeit ist nicht nur eine Aufteilung der Aufgaben, sondern eine gemeinsame Partnerschaft zwischen Ihnen und Google, um die Umweltbelastung für das gesamte Ökosystem zu reduzieren.

KI für geschäftliche Auswirkungen nutzen

Die Säule „Nachhaltigkeit“ des Well-Architected Framework (dieses Dokument) enthält Anleitungen, die Ihnen helfen, nachhaltige KI-Systeme zu entwickeln. Eine umfassende Nachhaltigkeitsstrategie geht jedoch über die Umweltauswirkungen von KI-Arbeitslasten hinaus. Die Strategie sollte Möglichkeiten zur Nutzung von KI zur Optimierung von Abläufen und zur Schaffung neuer Geschäftswerte umfassen.

KI ist ein Katalysator für Nachhaltigkeit, da sie große Datasets in umsetzbare Erkenntnisse umwandelt. Unternehmen können damit von reaktiver Compliance zu proaktiver Optimierung übergehen, z. B. in den folgenden Bereichen:

  • Betriebliche Effizienz: Optimieren Sie Abläufe durch eine verbesserte Lagerverwaltung, Optimierung der Lieferkette und intelligentes Energiemanagement.
  • Transparenz und Risiko: Nutzen Sie Daten für eine detaillierte Transparenz der Lieferkette, die Einhaltung von Vorschriften und die Modellierung von Klimarisiken.
  • Wert und Wachstum: Entwickeln Sie neue Einnahmequellen in den Bereichen nachhaltige Finanzierung und Re-Commerce.

Google bietet die folgenden Produkte und Funktionen, mit denen Sie Erkenntnisse aus Daten gewinnen und Funktionen für eine nachhaltige Zukunft entwickeln können:

  • Google Earth AI: Nutzt raumbezogene Daten im globalen Maßstab, um Umweltveränderungen zu analysieren und die Auswirkungen auf die Lieferkette zu überwachen.
  • WeatherNext: Bietet erweiterte Wettervorhersagen und Analysen von Klimarisiken, um Sie bei der Entwicklung von Resilienz gegen Klimaschwankungen zu unterstützen.
  • Raumbezogene Statistiken mit Google Earth: Hier werden raumbezogene Daten verwendet, um Standorten umfassende Kontextdaten hinzuzufügen. So können Sie fundiertere Entscheidungen bei der Standortauswahl, Ressourcenplanung und Betriebsführung treffen.
  • Routenoptimierung in Google Maps: Optimiert Logistik- und Lieferrouten, um die Effizienz zu steigern und den Kraftstoffverbrauch und die Transportemissionen zu senken.

Zusammenarbeit mit Partnern und Kunden

Google Cloud und TELUS haben sich zusammengetan, um die Nachhaltigkeit der Cloud zu verbessern. Dazu werden Arbeitslasten in die CO2-neutrale Infrastruktur von Google migriert und Datenanalysen zur Optimierung des Betriebs genutzt. Diese Zusammenarbeit bietet soziale und ökologische Vorteile durch Initiativen wie Smart-City-Technologie, die Echtzeitdaten nutzt, um Verkehrsbehinderungen und Kohlenstoffemissionen in Gemeinden in ganz Kanada zu reduzieren. Weitere Informationen zu dieser Zusammenarbeit finden Sie unter Google Cloud and TELUS collaborate for sustainability.

Grundprinzipien

Die Empfehlungen in der Säule „Nachhaltigkeit“ des Well-Architected Framework sind den folgenden Grundprinzipien zugeordnet:

Beitragende

Autor: Brett Tackaberry | Principal Architect

Weitere Beitragende:

Regionen mit geringen CO2-Emissionen nutzen

Dieses Prinzip in der Säule „Nachhaltigkeit“ des Google Cloud Well-Architected Framework enthält Empfehlungen zur Auswahl von Regionen mit geringen CO2-Emissionen für Ihre Arbeitslasten in Google Cloud.

Übersicht über die Grundsätze

Wenn Sie eine Arbeitslast in Google Cloudbereitstellen möchten, ist die Auswahl der Google Cloud -Region für die Arbeitslast eine wichtige architektonische Entscheidung. Diese Entscheidung wirkt sich auf die CO₂-Bilanz Ihrer Arbeitslast aus. Um die CO2-Bilanz zu minimieren, muss Ihre Strategie zur Auswahl von Regionen die folgenden Elemente enthalten:

  • Datengestützte Auswahl: Berücksichtigen Sie zur Identifizierung und Priorisierung von Regionen den Indikator Blattsymbol Geringer CO2 und den Messwert Versorgungsanteil an CO₂-freier Energie (CFE).
  • Richtlinienbasierte Governance: Beschränken Sie die Ressourcenerstellung auf umweltfreundliche Standorte, indem Sie die Ressourcenstandorte-Einschränkung im Organisationsrichtliniendienst verwenden.
  • Betriebliche Flexibilität: Verwenden Sie Techniken wie Zeitverschiebung und CO₂-bewusste Planung, um Batcharbeitslasten in Stunden auszuführen, in denen die CO₂-Intensität des Stromnetzes am niedrigsten ist.

Der Strom, der für den Betrieb Ihrer Anwendung und Arbeitslasten in der Cloud benötigt wird, ist ein wichtiger Faktor bei der Auswahl von Google Cloud -Regionen. Berücksichtigen Sie außerdem die folgenden Faktoren:

  • Datenstandort und ‑hoheit: Der Standort, an dem Sie Ihre Daten speichern müssen, ist ein grundlegender Faktor, der Ihre Wahl der Google Cloud-Region bestimmt. Diese Auswahl wirkt sich auf die Einhaltung der lokalen Anforderungen an den Datenstandort aus.
  • Latenz für Endnutzer: Die geografische Entfernung zwischen Ihren Endnutzern und den Regionen, in denen Sie Anwendungen bereitstellen, wirkt sich auf die Nutzerfreundlichkeit und die Anwendungsleistung aus.
  • Kosten: Die Preise für Google Cloud Ressourcen können je nach Region unterschiedlich sein.

Mit dem Tool Google Cloud Region Picker können Sie optimale Google Cloud Regionen basierend auf Ihren Anforderungen an CO₂-Bilanz, Kosten und Latenz auswählen. Sie können auch den Cloud Location Finder verwenden, um Cloud-Standorte in Google Cloud und bei anderen Anbietern zu finden, die Ihren Anforderungen in Bezug auf Nähe, Nutzung von CO2-freier Energie und andere Parameter entsprechen.

Empfehlungen

Wenn Sie Ihre Cloud-Arbeitslasten in Regionen mit geringen CO₂-Emissionen bereitstellen möchten, sollten Sie die Empfehlungen in den folgenden Abschnitten berücksichtigen. Diese Empfehlungen basieren auf den Informationen unter CO2-freie Energie für Google Cloud -Regionen.

CO2-Intensität von Cloud-Regionen verstehen

Google Cloud Rechenzentren in einer Region nutzen Energie aus dem Stromnetz, in dem sich die Region befindet. Google misst die CO2-Auswirkungen einer Region anhand des CFE-Messwerts, der stündlich berechnet wird. CFE gibt den Prozentsatz der CO2-freien Energie am Gesamtenergieverbrauch während einer Stunde an. Der Messwert für die geschätzte Anzahl der Erstkontakte hängt von zwei Faktoren ab:

  • Die Art der Kraftwerke, die das Stromnetz in einem bestimmten Zeitraum versorgen.
  • Google-zugeordnete saubere Energie, die in diesem Zeitraum ins Stromnetz eingespeist wird.

Informationen zum aggregierten durchschnittlichen stündlichen CFE% für jedeGoogle Cloud -Region finden Sie unter CO2-freie Energie für Google Cloud -Regionen. Sie können diese Daten auch in einem maschinenlesbaren Format aus dem GitHub-Repository Carbon free energy for Google Cloud regions und einem öffentlichen BigQuery-Dataset abrufen.

CFE in Ihre Strategie zur Standortauswahl einbeziehen

Beachten Sie die folgenden Empfehlungen:

  • Wählen Sie die Region aus, die für Ihre Anwendungen am besten geeignet ist. Wenn Sie eine Anwendung über einen längeren Zeitraum ausführen möchten, sollten Sie sie in der Region mit dem höchsten CFE% ausführen. Bei Batcharbeitslasten haben Sie mehr Flexibilität bei der Auswahl einer Region, da Sie vorhersagen können, wann die Arbeitslast ausgeführt werden muss.
  • Wählen Sie Regionen mit geringem CO₂-Ausstoß aus. Auf bestimmten Seiten der Google Cloud Website und in der Standortauswahl der Google Cloud Konsole wird der Indikator Blattsymbol Niedriger CO2 für Regionen mit dem niedrigsten CO2-Ausstoß angezeigt.
  • Beschränken Sie die Erstellung von Ressourcen auf bestimmte Google Cloud-Regionen mit geringem CO₂-Ausstoß, indem Sie die Organisationsrichtlinienbeschränkung Ressourcenstandorte verwenden. Wenn Sie beispielsweise das Erstellen von Ressourcen nur in kohlenstoffarmen Regionen in den USA zulassen möchten, erstellen Sie eine Einschränkung, in der die Wertgruppe in:us-low-carbon-locations angegeben wird.

Berücksichtigen Sie bei der Auswahl von Standorten für Ihre Google Cloud -Ressourcen auch die Best Practices für die Regionsauswahl, einschließlich Faktoren wie Anforderungen an den Datenspeicherort, Latenz für Endnutzer, Redundanz der Anwendung, Verfügbarkeit von Diensten und Preise.

Tageszeitabhängige Planung verwenden

Die Kohlenstoffintensität eines Stromnetzes kann im Laufe des Tages erheblich schwanken. Die Schwankungen hängen vom Mix der Energiequellen ab, die das Stromnetz speisen. Sie können Workloads, insbesondere flexible oder nicht dringende, so planen, dass sie ausgeführt werden, wenn das Stromnetz einen höheren Anteil an CFE aufweist.

Beispielsweise haben viele Stromnetze in den Nebenzeiten oder wenn erneuerbare Energiequellen wie Solar- und Windenergie mehr Strom ins Netz einspeisen, einen höheren Anteil an CFE. Wenn Sie rechenintensive Aufgaben wie das Modelltraining und die Batchinferenz im großen Maßstab für Stunden mit einem höheren CFE-Prozentsatz planen, können Sie die damit verbundenen CO2-Emissionen erheblich reduzieren, ohne die Leistung oder die Kosten zu beeinträchtigen. Dieser Ansatz wird als Zeitverschiebung bezeichnet. Dabei nutzen Sie die dynamische Natur der Kohlenstoffintensität eines Stromnetzes, um Ihre Arbeitslasten im Hinblick auf Nachhaltigkeit zu optimieren.

KI- und ML-Arbeitslasten für Energieeffizienz optimieren

Dieser Grundsatz in der Säule „Nachhaltigkeit“ des Google Cloud Well-Architected Framework enthält Empfehlungen zur Optimierung von KI- und ML-Arbeitslasten, um ihren Energieverbrauch und CO₂-Fußabdruck zu reduzieren.

Übersicht über die Grundsätze

Um KI- und ML-Arbeitslasten für Nachhaltigkeit zu optimieren, müssen Sie einen ganzheitlichen Ansatz für das Design, die Bereitstellung und den Betrieb der Arbeitslasten verfolgen. Wählen Sie geeignete Modelle und spezielle Hardware wie Tensor Processing Units (TPUs) aus, führen Sie die Arbeitslasten in Regionen mit geringem CO2-Ausstoß aus, optimieren Sie die Ressourcennutzung und wenden Sie Best Practices für den Betrieb an.

Architektur- und Betriebsverfahren, die die Kosten und Leistung von KI- und ML-Arbeitslasten optimieren, führen von Natur aus zu einem geringeren Energieverbrauch und einem geringeren CO2-Fußabdruck. Die KI- und ML-Perspektive im Well-Architected Framework beschreibt Prinzipien und Empfehlungen zum Entwerfen, Erstellen und Verwalten von KI- und ML-Arbeitslasten, die Ihren Betriebs-, Sicherheits-, Zuverlässigkeits-, Kosten- und Leistungszielen entsprechen. Darüber hinaus bietet das Cloud Architecture Center detaillierte Referenzarchitekturen und Designleitfäden für KI- und ML-Arbeitslasten in Google Cloud.

Empfehlungen

Wenn Sie KI- und ML-Arbeitslasten für Energieeffizienz optimieren möchten, sollten Sie die Empfehlungen in den folgenden Abschnitten berücksichtigen.

Energieeffizienz durch den Einsatz von TPUs verbessern

KI- und ML-Arbeitslasten können rechenintensiv sein. Der Energieverbrauch von KI- und ML-Arbeitslasten ist ein wichtiger Aspekt der Nachhaltigkeit. Mit TPUs können Sie die Energieeffizienz und Nachhaltigkeit Ihrer KI- und ML-Arbeitslasten deutlich verbessern.

TPUs sind speziell entwickelte Beschleuniger, die für KI- und ML-Arbeitslasten konzipiert sind. Die spezielle Architektur von TPUs macht sie sehr effektiv für die Matrixmultiplikation im großen Maßstab, die die Grundlage für Deep Learning bildet. TPUs können komplexe Aufgaben in großem Maßstab effizienter ausführen als Allzweckprozessoren wie CPUs oder GPUs.

TPUs bieten die folgenden direkten Vorteile für die Nachhaltigkeit:

  • Geringerer Energieverbrauch: TPUs sind für optimale Energieeffizienz konzipiert. Sie bieten mehr Berechnungen pro verbrauchtem Watt. Ihre spezielle Architektur reduziert den Strombedarf von umfangreichen Trainings- und Inferenzaufgaben erheblich, was zu geringeren Betriebskosten und einem niedrigeren Energieverbrauch führt.
  • Schnelleres Training und schnellere Inferenz: Dank der außergewöhnlichen Leistung von TPUs können Sie komplexe KI-Modelle in Stunden statt in Tagen trainieren. Diese erhebliche Reduzierung der gesamten Rechenzeit trägt direkt zu einem geringeren ökologischen Fußabdruck bei.
  • Geringerer Kühlbedarf: TPUs sind mit einer fortschrittlichen Flüssigkeitskühlung ausgestattet, die für ein effizientes Wärmemanagement sorgt und den Energieverbrauch für die Kühlung des Rechenzentrums erheblich reduziert.
  • Optimierung des KI-Lebenszyklus: Durch die Integration von Hardware und Software bieten TPUs eine optimierte Lösung für den gesamten KI-Lebenszyklus, von der Datenverarbeitung bis zum Bereitstellen von Modellen.

Best Practices für die Ressourcenauswahl nach den 4 Ms

Google empfiehlt eine Reihe von Best Practices, um den Energieverbrauch und den CO₂-Ausstoß für KI- und ML-Arbeitslasten erheblich zu reduzieren. Wir nennen diese Best Practices die 4Ms:

  • Modell: Wählen Sie effiziente ML-Modellarchitekturen aus. Sparse-Modelle verbessern beispielsweise die ML-Qualität und reduzieren den Berechnungsaufwand im Vergleich zu dichten Modellen um das 3- bis 10-Fache.
  • Maschine: Wählen Sie Prozessoren und Systeme aus, die für das ML-Training optimiert sind. Diese Prozessoren verbessern die Leistung und Energieeffizienz im Vergleich zu Prozessoren für allgemeine Zwecke um das 2- bis 5-Fache.
  • Mechanisierung: Stellen Sie Ihre rechenintensiven Arbeitslasten in der Cloud bereit. Ihre Arbeitslasten verbrauchen weniger Energie und verursachen 1,4- bis 2-mal weniger Emissionen als bei lokalen Bereitstellungen. In Cloud-Rechenzentren werden neuere, speziell entwickelte Lagerhallen verwendet, die auf Energieeffizienz ausgelegt sind und einen hohen PUE-Wert (Power Usage Effectiveness, Effizienz der Stromnutzung) haben. Lokale Rechenzentren sind oft älter und kleiner, weshalb sich Investitionen in energieeffiziente Kühl- und Stromverteilungssysteme möglicherweise nicht lohnen.
  • Karte: Wählen Sie Google Cloud Standorte aus, an denen die sauberste Energie verwendet wird. Mit diesem Ansatz lässt sich die Brutto-CO₂-Bilanz Ihrer Arbeitslasten um das 5- bis 10-Fache reduzieren. Weitere Informationen finden Sie unter Kohlenstofffreie Energie für Google Cloud Regionen.

Weitere Informationen zu den Best Practices für die 4 Ms und zu Effizienzmesswerten finden Sie in den folgenden Studien:

KI-Modelle und ‑Algorithmen für Training und Inferenz optimieren

Die Architektur eines KI-Modells und die Algorithmen, die für Training und Inferenz verwendet werden, haben einen erheblichen Einfluss auf den Energieverbrauch. Beachten Sie die folgenden Empfehlungen.

Effiziente KI-Modelle auswählen

Wählen Sie kleinere, effizientere KI-Modelle aus, die Ihren Leistungsanforderungen entsprechen. Wählen Sie nicht das größte verfügbare Modell als Standard aus. Ein kleineres, destilliertes Modell wie DistilBERT kann beispielsweise eine ähnliche Leistung mit deutlich geringerem Rechenaufwand und schnellerer Inferenz als ein größeres Modell wie BERT bieten.

Domainspezifische, hocheffiziente Lösungen verwenden

Wählen Sie spezielle ML-Lösungen, die eine bessere Leistung bieten und deutlich weniger Rechenleistung benötigen als ein großes Fundierungsmodell. Diese spezialisierten Lösungen sind oft vortrainiert und hyperoptimiert. Sie können den Energieverbrauch und den Forschungsaufwand für Trainings- und Inferenz-Workloads erheblich reduzieren. Hier einige Beispiele für domainspezifische Speziallösungen:

  • Earth AI ist eine energieeffiziente Lösung, die große Mengen globaler raumbezogener Daten zusammenführt, um zeitnahe, genaue und umsetzbare Informationen zu liefern.
  • WeatherNext erstellt im Vergleich zu herkömmlichen physikbasierten Methoden schnellere, effizientere und hochgenaue globale Wettervorhersagen.

Geeignete Techniken zur Modellkomprimierung anwenden

Im Folgenden finden Sie Beispiele für Techniken, die Sie für die Modellkomprimierung verwenden können:

  • Beschneiden: Entfernen unnötiger Parameter aus einem neuronalen Netzwerk. Das sind Parameter, die nicht wesentlich zur Leistung eines Modells beitragen. Durch diese Technik werden die Größe des Modells und die für die Inferenz erforderlichen Rechenressourcen reduziert.
  • Quantisierung: Reduzieren Sie die Genauigkeit von Modellparametern. Sie können beispielsweise die Genauigkeit von 32-Bit-Gleitkommazahlen auf 8-Bit-Ganzzahlen reduzieren. Mit dieser Technik lassen sich der Speicherbedarf und der Stromverbrauch erheblich senken, ohne dass die Genauigkeit merklich abnimmt.
  • Wissensdestillation: Ein kleineres Schülermodell wird trainiert, um das Verhalten eines größeren, komplexeren Lehrermodells nachzuahmen. Das Schülermodell kann mit weniger Parametern und geringerem Energieverbrauch eine hohe Leistung erzielen.

Spezialisierte Hardware verwenden

Wie unter Best Practices für die Ressourcenauswahl gemäß den 4Ms beschrieben, sollten Sie Prozessoren und Systeme auswählen, die für das ML-Training optimiert sind. Im Vergleich zu Prozessoren für allgemeine Zwecke bieten diese Prozessoren eine 2- bis 5-mal höhere Leistung und Energieeffizienz.

Parametereffiziente Feinabstimmung verwenden

Anstatt alle Milliarden von Parametern eines Modells anzupassen (vollständige Feinabstimmung), können Sie PEFT-Methoden (Parameter-Efficient Fine-Tuning) wie LoRA (Low-Rank Adaptation) verwenden. Bei dieser Technik werden die Gewichte des ursprünglichen Modells eingefroren und nur eine kleine Anzahl neuer, einfacher Ebenen trainiert. Dieser Ansatz trägt dazu bei, Kosten und Energieverbrauch zu senken.

Best Practices für KI- und ML-Vorgänge befolgen

Betriebliche Praktiken haben einen erheblichen Einfluss auf die Nachhaltigkeit Ihrer KI- und ML-Arbeitslasten. Beachten Sie die folgenden Empfehlungen.

Prozesse für das Trainieren von Modellen optimieren

Mit den folgenden Techniken können Sie Ihre Modelltrainingsprozesse optimieren:

  • Frühzeitiges Beenden: Beobachten Sie den Trainingsprozess und beenden Sie ihn, wenn sich die Modellleistung im Vergleich zum Validierungssatz nicht weiter verbessert. So können Sie unnötige Berechnungen und unnötigen Energieverbrauch vermeiden.
  • Effizientes Laden von Daten: Verwenden Sie effiziente Datenpipelines, damit die GPUs und TPUs immer genutzt werden und nicht auf Daten warten müssen. Diese Technik trägt dazu bei, die Ressourcennutzung zu maximieren und Energieverschwendung zu reduzieren.
  • Optimierte Hyperparameter-Abstimmung: Um optimale Hyperparameter effizienter zu finden, können Sie Techniken wie die Bayes'sche Optimierung oder das bestärkende Lernen verwenden. Vermeiden Sie umfassende Grid-Suchvorgänge, da diese ressourcenintensiv sein können.

Effizienz der Inferenz verbessern

Um die Effizienz von KI-Inferenzaufgaben zu verbessern, können Sie die folgenden Techniken verwenden:

  • Batching: Gruppieren Sie mehrere Inferenzanfragen in Batches und nutzen Sie die parallele Verarbeitung auf GPUs und TPUs. Diese Technik trägt dazu bei, die Energiekosten pro Vorhersage zu senken.
  • Erweitertes Caching: Implementieren Sie eine mehrschichtige Caching-Strategie, die das Schlüssel/Wert-Caching (KV) für die autoregressive Generierung und das semantische Prompt-Caching für Anwendungsantworten umfasst. Mit dieser Technik lassen sich redundante Modellberechnungen umgehen, was zu einer erheblichen Reduzierung des Energieverbrauchs und der CO2-Emissionen führen kann.

Messen und überwachen

Behalten Sie die folgenden Parameter im Blick und messen Sie sie:

  • Nutzung und Kosten: Verwenden Sie geeignete Tools, um die Tokennutzung, den Energieverbrauch und die CO₂-Bilanz Ihrer KI-Arbeitslasten zu verfolgen. Anhand dieser Daten können Sie Optimierungsmöglichkeiten ermitteln und Fortschritte bei der Erreichung von Nachhaltigkeitszielen dokumentieren.
  • Leistung: Überwachen Sie die Modellleistung in der Produktion kontinuierlich. Probleme wie Data Drift erkennen, die darauf hinweisen können, dass das Modell noch einmal optimiert werden muss. Wenn Sie das Modell neu trainieren müssen, können Sie das ursprüngliche feinabgestimmte Modell als Ausgangspunkt verwenden und so viel Zeit, Geld und Energie sparen.
    • Verwenden Sie Cloud Monitoring, um Leistungsmesswerte zu erfassen.
    • Mit Ereignis-Anmerkungen können Sie Modelländerungen mit Verbesserungen bei Leistungsmesswerten in Beziehung setzen.

Weitere Informationen zur Umsetzung kontinuierlicher Verbesserungen finden Sie unter Nachhaltigkeit kontinuierlich messen und verbessern.

Klimabewusste Planung implementieren

Entwerfen Sie Ihre ML-Pipeline-Jobs so, dass sie in Regionen mit dem saubersten Energiemix ausgeführt werden. Mithilfe des Berichts zu Carbon Footprint können Sie die Regionen mit der geringsten CO₂-Intensität ermitteln. Planen Sie ressourcenintensive Aufgaben als Batch-Jobs für Zeiten, in denen das lokale Stromnetz einen höheren Anteil an CO₂-freier Energie (CFE) hat.

Datenpipelines optimieren

Für ML-Vorgänge und das Feinabstimmen ist ein bereinigter, hochwertiger Datensatz erforderlich. Bevor Sie ML-Jobs starten, sollten Sie verwaltete Datenverarbeitungsdienste verwenden, um die Daten effizient vorzubereiten. Verwenden Sie beispielsweise Dataflow für die Streaming- und Batchverarbeitung und Dataproc für verwaltete Spark- und Hadoop-Pipelines. Eine optimierte Datenpipeline trägt dazu bei, dass Ihre Arbeitslast für das Feinabstimmen nicht auf Daten warten muss. So können Sie die Ressourcennutzung maximieren und Energieverschwendung reduzieren.

MLOps einführen

Um den gesamten ML-Lebenszyklus zu automatisieren und zu verwalten, implementieren Sie MLOps-Verfahren. Diese Praktiken tragen dazu bei, dass Modelle kontinuierlich überwacht, validiert und effizient neu bereitgestellt werden. So lassen sich unnötiges Training oder unnötige Ressourcenzuweisungen vermeiden.

Verwaltete Dienste verwenden

Verwenden Sie anstelle der Verwaltung Ihrer eigenen Infrastruktur verwaltete Cloud-Dienste wie Vertex AI. Die Cloud-Plattform übernimmt die zugrunde liegende Ressourcenverwaltung, sodass Sie sich auf den Feinabstimmungsprozess konzentrieren können. Verwenden Sie Dienste mit integrierten Tools für die Hyperparameteroptimierung, das Modellmonitoring und das Ressourcenmanagement.

Nächste Schritte

Ressourcennutzung für Nachhaltigkeit optimieren

Dieses Prinzip im Bereich „Nachhaltigkeit“ des Google Cloud Well-Architected Framework enthält Empfehlungen zur Optimierung der Ressourcennutzung durch Ihre Arbeitslasten in Google Cloud.

Übersicht über die Grundsätze

Die Optimierung der Ressourcennutzung ist entscheidend, um die Nachhaltigkeit Ihrer Cloud-Umgebung zu verbessern. Jede bereitgestellte Ressource – von Rechenzyklen bis hin zum Datenspeicher – wirkt sich direkt auf den Energieverbrauch, die Wasserintensität und die Kohlenstoffemissionen aus. Um die Umweltbelastung Ihrer Arbeitslasten zu verringern, müssen Sie fundierte Entscheidungen treffen, wenn Sie Cloud-Ressourcen bereitstellen, verwalten und verwenden.

Empfehlungen

Beachten Sie die Empfehlungen in den folgenden Abschnitten, um die Ressourcennutzung zu optimieren.

Automatisierte und dynamische Skalierung implementieren

Durch automatisches und dynamisches Skalieren wird die Ressourcennutzung optimiert. So wird Energieverschwendung durch inaktive oder überdimensionierte Infrastruktur vermieden. Die Reduzierung des Energieverlusts führt zu niedrigeren Kosten und geringeren CO₂-Emissionen.

Verwenden Sie die folgenden Techniken, um die automatische und dynamische Skalierbarkeit zu implementieren.

Horizontale Skalierung verwenden

Die horizontale Skalierung ist die bevorzugte Skalierungsmethode für die meisten Cloud-First-Anwendungen. Anstatt die Größe jeder Instanz zu erhöhen, was als vertikale Skalierung bezeichnet wird, fügen Sie Instanzen hinzu, um die Last zu verteilen. Sie können beispielsweise verwaltete Instanzgruppen (Managed Instance Groups, MIGs) verwenden, um eine Gruppe von Compute Engine-VMs automatisch zu skalieren. Horizontal skalierte Infrastruktur ist robuster, da sich der Ausfall einer Instanz nicht auf die Verfügbarkeit der Anwendung auswirkt. Die horizontale Skalierung ist auch eine ressourceneffiziente Methode für Anwendungen mit variablen Lasten.

Geeignete Skalierungsrichtlinien konfigurieren

Konfigurieren Sie die Autoscaling-Einstellungen entsprechend den Anforderungen Ihrer Arbeitslasten. Definieren Sie benutzerdefinierte Messwerte und Grenzwerte, die für das Verhalten der Anwendung spezifisch sind. Anstatt sich nur auf die CPU-Auslastung zu verlassen, sollten Sie Messwerte wie die Warteschlangentiefe für asynchrone Aufgaben, die Anfragelatenz und benutzerdefinierte Anwendungsmesswerte berücksichtigen. Um häufige, unnötige Skalierungen oder Flapping zu vermeiden, sollten Sie klare Skalierungsrichtlinien definieren. Konfigurieren Sie beispielsweise für Arbeitslasten, die Sie in Google Kubernetes Engine (GKE) bereitstellen, eine geeignete Cluster-Autoscaling-Richtlinie.

Reaktive und proaktive Skalierung kombinieren

Beim reaktiven Skalieren wird das System in Reaktion auf Echtzeit-Laständerungen skaliert. Diese Technik eignet sich für Anwendungen, bei denen es zu unvorhersehbaren Lastspitzen kommt.

Die proaktive Skalierung eignet sich für Arbeitslasten mit vorhersagbaren Mustern, z. B. feste tägliche Geschäftszeiten und wöchentliche Berichterstellung. Verwenden Sie für solche Arbeitslasten das zeitbasierte Autoscaling, um Ressourcen vorab bereitzustellen, damit sie ein erwartetes Lastniveau bewältigen können. Diese Technik verhindert, dass Ressourcen knapp werden, und sorgt für eine reibungslosere Nutzererfahrung mit höherer Effizienz. Mit dieser Technik können Sie auch proaktiv für bekannte Lastspitzen planen, z. B. bei großen Verkaufsveranstaltungen und gezielten Marketingmaßnahmen.

Google Cloud Verwaltete Dienste und Funktionen wie GKE Autopilot, Cloud Run und MIGs verwalten die proaktive Skalierung automatisch, indem sie aus Ihren Arbeitslastmustern lernen. Wenn ein Cloud Run-Dienst keinen Traffic empfängt, wird er standardmäßig auf null Instanzen skaliert.

Zustandslose Anwendungen entwerfen

Damit eine Anwendung horizontal skaliert werden kann, müssen ihre Komponenten zustandslos sein. Das bedeutet, dass die Sitzung oder Daten eines bestimmten Nutzers nicht an eine einzelne Compute-Instanz gebunden sind. Wenn Sie den Sitzungsstatus außerhalb der Compute-Instanz speichern, z. B. in Memorystore for Redis, kann jede Compute-Instanz Anfragen von jedem Nutzer verarbeiten. Dieser Designansatz ermöglicht eine nahtlose und effiziente horizontale Skalierung.

Planung und Batches verwenden

Die Batchverarbeitung eignet sich ideal für umfangreiche, nicht dringende Arbeitslasten. Batchjobs können dazu beitragen, Ihre Arbeitslasten hinsichtlich Energieeffizienz und Kosten zu optimieren.

Verwenden Sie die folgenden Techniken, um Zeitplan- und Batchjobs zu implementieren.

Planung für geringe CO₂-Intensität

Planen Sie Ihre Batchjobs so, dass sie in Regionen mit geringen CO2-Emissionen und zu Zeiten ausgeführt werden, in denen das lokale Stromnetz einen hohen Anteil an sauberer Energie hat. Mit dem CO₂-Bilanzbericht können Sie die Tageszeiten mit der geringsten CO₂-Intensität für eine Region ermitteln.

Spot-VMs für nicht kritische Arbeitslasten verwenden

Mit Spot-VMs können Sie ungenutzte Compute Engine-Kapazität zu einem erheblichen Rabatt nutzen. Spot-VMs können vorzeitig beendet werden, bieten aber eine kostengünstige Möglichkeit, große Datasets zu verarbeiten, ohne dass dedizierte, immer aktive Ressourcen erforderlich sind. Spot-VMs sind ideal für nicht kritische, fehlertolerante Batchjobs.

Jobs konsolidieren und parallelisieren

Um den Aufwand für das Starten und Beenden einzelner Jobs zu reduzieren, sollten Sie ähnliche Jobs in einem großen Batch zusammenfassen. Führen Sie diese Arbeitslasten mit hohem Volumen in Diensten wie Batch aus. Der Dienst stellt die erforderliche Infrastruktur automatisch bereit und verwaltet sie, was zu einer optimalen Ressourcennutzung beiträgt.

Verwaltete Dienste verwenden

Verwaltete Dienste wie Batch und Dataflow übernehmen automatisch die Bereitstellung, Planung und Überwachung von Ressourcen. Die Cloud-Plattform übernimmt die Ressourcenoptimierung. Sie können sich auf die Anwendungslogik konzentrieren. Dataflow skaliert die Anzahl der Worker automatisch basierend auf dem Datenvolumen in der Pipeline. Sie zahlen also nicht für inaktive Ressourcen.

VM-Maschinenfamilien an Arbeitslastanforderungen anpassen

Die Maschinentypen, die Sie für Ihre Compute Engine-VMs verwenden können, sind in Maschinenfamilien gruppiert, die für verschiedene Arbeitslasten optimiert sind. Wählen Sie geeignete Maschinenfamilien basierend auf den Anforderungen Ihrer Arbeitslasten aus.

Maschinenfamilie Empfohlene Arbeitslasttypen Anleitung zur Nachhaltigkeit
Instanzen für allgemeine Zwecke (E2, N2, N4, Tau T2A/T2D): Diese Instanzen bieten ein ausgewogenes Verhältnis von CPU zu Arbeitsspeicher. Webserver, Mikrodienste, kleine bis mittelgroße Datenbanken und Entwicklungsumgebungen. Die E2-Serie ist aufgrund der dynamischen Zuweisung von Ressourcen sehr kosteneffizient und energieeffizient. Die Tau T2A-Serie verwendet Arm-basierte Prozessoren, die bei groß angelegten Arbeitslasten oft energieeffizienter pro Leistungseinheit sind.
Computing-optimierte Instanzen (C2, C3): Diese Instanzen bieten ein hohes Verhältnis von vCPU zu Arbeitsspeicher und eine hohe Leistung pro Kern. Hochleistungs-Computing (HPC), Batchverarbeitung, Gameserver und CPU-basierte Datenanalyse. Mit einer Instanz der C-Serie können Sie CPU-intensive Aufgaben schneller erledigen. Dadurch werden die gesamte Rechenzeit und der Energieverbrauch des Jobs reduziert.
Speicheroptimierte Instanzen (M3, M2): Diese Instanzen sind für Arbeitslasten konzipiert, die viel Arbeitsspeicher benötigen. Große In-Memory-Datenbanken und Data Warehouses wie SAP HANA oder In-Memory-Analysen. Speicheroptimierte Instanzen ermöglichen die Konsolidierung speicherintensiver Arbeitslasten auf weniger physischen Knoten. Durch diese Konsolidierung wird der Gesamtenergieverbrauch im Vergleich zur Verwendung mehrerer kleinerer Instanzen reduziert. Hochleistungsspeicher reduziert die Latenz beim Datenzugriff, was die Gesamtzeit verringern kann, die die CPU in einem aktiven Zustand verbringt.
Speicheroptimierte Instanzen (Z3) : Diese Instanzen bieten lokalen SSD-Speicher mit hohem Durchsatz und geringer Latenz. Data Warehousing, Log-Analyse sowie SQL-, NoSQL- und Vektordatenbanken. Speicheroptimierte Instanzen verarbeiten große Datasets lokal. Dadurch wird der Energieverbrauch für ausgehenden Netzwerktraffic zwischen Standorten reduziert. Wenn Sie lokalen Speicher für Aufgaben mit vielen IOPS verwenden, vermeiden Sie die Überbereitstellung mehrerer Standardinstanzen.
Beschleunigungsoptimierte Instanzen (A3, A2, G2): Diese Instanzen sind für GPU- und TPU-beschleunigte Arbeitslasten wie KI, ML und HPC konzipiert. ML-Modelltraining und ‑Inferenz sowie wissenschaftliche Simulationen.

TPUs sind auf optimale Energieeffizienz ausgelegt. Sie ermöglichen mehr Berechnungen pro Watt.

Eine GPU-beschleunigte Instanz wie die A3-Serie mit NVIDIA H100-GPUs kann für das Training großer Modelle deutlich energieeffizienter sein als eine reine CPU-Alternative. Eine GPU-beschleunigte Instanz hat zwar einen höheren nominellen Stromverbrauch, die Aufgabe wird aber viel schneller erledigt.

Upgrade auf die neuesten Maschinentypen

Die Verwendung der neuesten Maschinentypen kann zur Verbesserung der Nachhaltigkeit beitragen. Wenn Maschinentypen aktualisiert werden, sind sie oft energieeffizienter und bieten eine höhere Leistung pro Watt. VMs, die die neuesten Maschinentypen verwenden, können dieselbe Menge an Arbeit mit geringerem Stromverbrauch erledigen.

CPUs, GPUs und TPUs profitieren oft von technischen Fortschritten in der Chiparchitektur, z. B.:

  • Spezialisierte Kerne: Fortschritte bei Prozessoren umfassen oft spezialisierte Kerne oder Anweisungen für häufige Arbeitslasten. CPUs können beispielsweise dedizierte Kerne für Vektoroperationen oder integrierte KI-Beschleuniger haben. Wenn diese Aufgaben von der Haupt-CPU ausgelagert werden, werden sie effizienter ausgeführt und verbrauchen weniger Energie.
  • Verbessertes Energiemanagement: Fortschritte bei Chiparchitekturen umfassen oft ausgefeiltere Energiemanagementfunktionen, z. B. die dynamische Anpassung von Spannung und Frequenz basierend auf der Arbeitslast. Diese Funktionen zur Energieverwaltung ermöglichen es den Chips, mit maximaler Effizienz zu arbeiten und in den Leerlaufphasen in den Energiesparmodus zu wechseln, wodurch der Energieverbrauch minimiert wird.

Die technischen Verbesserungen in der Chiparchitektur bieten die folgenden direkten Vorteile für Nachhaltigkeit und Kosten:

  • Höhere Leistung pro Watt: Dies ist ein wichtiger Messwert für Nachhaltigkeit. C4-VMs bieten beispielsweise ein um 40% besseres Preis-Leistungs-Verhältnis als C3-VMs bei gleichem Energieverbrauch. Der C4A-Prozessor bietet eine 60% höhere Energieeffizienz als vergleichbare x86-Prozessoren. Mit diesen Leistungsfunktionen können Sie Aufgaben schneller erledigen oder weniger Instanzen für dieselbe Last verwenden.
  • Geringerer Gesamtenergieverbrauch: Dank verbesserter Prozessoren werden Rechenressourcen für eine bestimmte Aufgabe kürzer genutzt, was den Gesamtenergieverbrauch und den CO₂-Fußabdruck reduziert. Die CO2-Belastung ist besonders hoch bei kurzlebigen, rechenintensiven Arbeitslasten wie Batchjobs und ML-Modelltraining.
  • Optimale Ressourcennutzung: Die neuesten Maschinentypen eignen sich oft besser für moderne Software und sind mit den erweiterten Funktionen von Cloud-Plattformen kompatibler. Diese Maschinentypen ermöglichen in der Regel eine bessere Ressourcennutzung, wodurch die Notwendigkeit einer Überbereitstellung verringert wird und jeder Watt Strom produktiv genutzt wird.

Containerisierte Anwendungen bereitstellen

Sie können containerbasierte, vollständig verwaltete Dienste wie GKE und Cloud Run als Teil Ihrer Strategie für nachhaltiges Cloud Computing verwenden. Diese Dienste helfen, die Ressourcennutzung zu optimieren und die Ressourcenverwaltung zu automatisieren.

Skalierung auf null in Cloud Run nutzen

Cloud Run bietet eine verwaltete serverlose Umgebung, in der Instanzen automatisch auf null skaliert werden, wenn für einen Dienst kein eingehender Traffic vorhanden ist oder ein Job abgeschlossen ist. Autoscaling trägt dazu bei, den Energieverbrauch durch inaktive Infrastruktur zu eliminieren. Ressourcen werden nur mit Strom versorgt, wenn sie Anfragen aktiv verarbeiten. Diese Strategie ist sehr effektiv für intermittierende oder ereignisgesteuerte Arbeitslasten. Für KI-Arbeitslasten können Sie GPUs mit Cloud Run verwenden. So zahlen Sie nur für GPUs, wenn sie verwendet werden.

Ressourcenoptimierung mit GKE automatisieren

GKE ist eine Plattform zur Containerorchestrierung, die dafür sorgt, dass Anwendungen nur die Ressourcen verwenden, die sie benötigen. Um die Ressourcenoptimierung zu automatisieren, bietet GKE die folgenden Techniken:

  • Bin-Packing: GKE Autopilot packt mehrere Container intelligent auf die verfügbaren Knoten. Durch Bin Packing wird die Auslastung jedes Knotens maximiert und die Anzahl der inaktiven oder unterausgelasteten Knoten reduziert, was den Energieverbrauch senkt.
  • Horizontales Pod-Autoscaling (HPA): Mit HPA wird die Anzahl der Containerreplikate (Pods) automatisch anhand vordefinierter Messwerte wie CPU-Auslastung oder benutzerdefinierter anwendungsspezifischer Messwerte angepasst. Wenn Ihre Anwendung beispielsweise einen Traffic-Anstieg verzeichnet, fügt GKE Pods hinzu, um die Nachfrage zu decken. Wenn der Traffic nachlässt, reduziert GKE die Anzahl der Pods. Durch diese dynamische Skalierung wird eine Überdimensionierung von Ressourcen verhindert, sodass Sie nicht für unnötige Rechenkapazität bezahlen oder diese mit Strom versorgen müssen.
  • Vertikales Pod-Autoscaling (VPA): Sie können GKE so konfigurieren, dass die CPU- und Arbeitsspeicherzuweisungen und ‑limits für einzelne Container automatisch angepasst werden. Mit dieser Konfiguration wird dafür gesorgt, dass einem Container nicht mehr Ressourcen zugewiesen werden, als er benötigt. So wird eine Überbereitstellung von Ressourcen verhindert.
  • Mehrdimensionales Pod-Autoscaling in GKE: Bei komplexen Arbeitslasten können Sie HPA und VPA gleichzeitig konfigurieren, um sowohl die Anzahl der Pods als auch die Größe der einzelnen Pods zu optimieren. Diese Technik trägt dazu bei, dass der Energieverbrauch für die erforderliche Leistung so gering wie möglich ist.
  • Topologiebewusste Planung (Topology-Aware Scheduling, TAS): TAS verbessert die Netzwerkeffizienz für KI- und ML-Arbeitslasten in GKE, indem Pods basierend auf der physischen Struktur der Rechenzentrumsinfrastruktur platziert werden. TAS platziert Arbeitslasten strategisch, um die Anzahl der Netzwerksprünge zu minimieren. Durch diese gemeinsame Unterbringung lassen sich die Kommunikationslatenz und der Energieverbrauch reduzieren. Durch die Optimierung der physischen Ausrichtung von Knoten und spezialisierter Hardware beschleunigt TAS die Ausführung von Aufgaben und maximiert die Energieeffizienz von umfangreichen KI- und ML-Arbeitslasten.

CO2-bewusste Planung konfigurieren

Bei Google verlagern wir unsere Arbeitslasten kontinuierlich an Standorte und zu Zeiten, an denen der sauberste Strom verfügbar ist. Außerdem verwerten wir ältere Geräte für alternative Anwendungsfälle. Mit dieser Strategie für die CO2-bewusste Planung können Sie dafür sorgen, dass für Ihre containerisierten Arbeitslasten saubere Energie verwendet wird.

Um die CO₂-bewusste Planung zu implementieren, benötigen Sie Echtzeitinformationen zum Energiemix, der die Rechenzentren in einer Region mit Strom versorgt. Sie können diese Informationen in einem maschinenlesbaren Format aus dem Repository Carbon free energy for Google Cloud regions auf GitHub oder aus einem öffentlichen BigQuery-Dataset abrufen. Die stündlichen Daten zum Stromnetzmix und zur Kohlenstoffintensität, die zur Berechnung des jährlichen CO₂-Datensatzes von Google verwendet werden, stammen von Electricity Maps.

Für die Implementierung von CO2-bewusster Planung empfehlen wir die folgenden Techniken:

  • Geografische Verlagerung: Planen Sie Ihre Arbeitslasten so, dass sie in Regionen ausgeführt werden, in denen ein höherer Anteil an erneuerbaren Energiequellen verwendet wird. Mit diesem Ansatz können Sie sauberere Stromnetze nutzen.
  • Zeitliche Verlagerung: Konfigurieren Sie nicht kritische, flexible Arbeitslasten wie die Batchverarbeitung so, dass sie außerhalb der Spitzenzeiten oder dann ausgeführt werden, wenn erneuerbare Energien am häufigsten verfügbar sind. Dieses Verfahren wird als zeitliche Verlagerung bezeichnet und trägt dazu bei, die gesamte CO2-Bilanz zu verbessern, indem sauberere Energiequellen genutzt werden, wenn sie verfügbar sind.

Energieeffiziente Notfallwiederherstellung entwickeln

Die Vorbereitung auf die Notfallwiederherstellung (Disaster Recovery, DR) umfasst oft die Vorab-Bereitstellung redundanter Ressourcen in einer sekundären Region. Im Leerlauf befindliche oder unterausgelastete Ressourcen können jedoch zu erheblichem Energieverbrauch führen. Wählen Sie DR-Strategien aus, mit denen die Ressourcennutzung maximiert und die CO2-Belastung minimiert wird, ohne dass Ihre Recovery Time Objectives (RTO) beeinträchtigt werden.

Für effiziente Kaltstarts optimieren

Mit den folgenden Ansätzen können Sie aktive Ressourcen in Ihrer sekundären (DR-)Region minimieren oder eliminieren:

  • Cold-DR priorisieren: Ressourcen in der DR-Region bleiben deaktiviert oder im Status „Auf null skaliert“. So lässt sich die CO₂-Bilanz von inaktiven Computing-Ressourcen verbessern.
  • Serverloses Failover nutzen: Verwenden Sie verwaltete serverlose Dienste wie Cloud Run für DR-Endpunkte. Cloud Run wird auf null skaliert, wenn es nicht verwendet wird. So können Sie eine DR-Topologie aufrechterhalten, die keinen Strom verbraucht, bis der Traffic in die DR-Region umgeleitet wird.
  • Wiederherstellung mit Infrastructure-as-Code (IaC) automatisieren: Anstatt Ressourcen auf der DR-Website (warm) auszuführen, verwenden Sie ein IaC-Tool wie Terraform, um Umgebungen nur bei Bedarf schnell bereitzustellen.

Gleichgewicht zwischen Redundanz und Auslastung

Ressourcenredundanz ist ein Hauptgrund für Energieverschwendung. So können Sie Redundanz reduzieren:

  • Aktiv/Aktiv-Konfiguration gegenüber Aktiv/Passiv-Konfiguration bevorzugen: Bei einer Aktiv/Passiv-Konfiguration sind die Ressourcen am passiven Standort inaktiv, was zu Energieverschwendung führt. Eine Aktiv-Aktiv-Architektur, die optimal dimensioniert ist, sorgt dafür, dass alle bereitgestellten Ressourcen in beiden Regionen aktiv Traffic verarbeiten. So können Sie die Energieeffizienz Ihrer Infrastruktur maximieren.
  • Redundanz richtig dimensionieren: Daten und Dienste nur dann über Regionen hinweg replizieren, wenn die Replikation erforderlich ist, um die Anforderungen an Hochverfügbarkeit oder Notfallwiederherstellung zu erfüllen. Jedes zusätzliche Replikat erhöht die Energiekosten für persistenten Speicher und ausgehenden Netzwerktraffic.

Energieeffiziente Software entwickeln

Dieses Prinzip in der Säule „Nachhaltigkeit“ des Google Cloud Well-Architected Framework enthält Empfehlungen zum Schreiben von Software, die den Energieverbrauch und die Serverlast minimiert.

Übersicht über die Grundsätze

Wenn Sie Best Practices zum Erstellen Ihrer Cloud-Anwendungen befolgen, optimieren Sie die Energie, die von den Cloud-Infrastrukturressourcen genutzt wird: KI, Computing, Speicher und Netzwerk. Außerdem tragen Sie dazu bei, den Wasserbedarf der Rechenzentren und den Energieverbrauch der Endnutzergeräte beim Zugriff auf Ihre Anwendungen zu senken.

Um energieeffiziente Software zu entwickeln, müssen Sie Nachhaltigkeitsaspekte in den gesamten Softwarelebenszyklus integrieren, vom Design und der Entwicklung über die Bereitstellung und Wartung bis hin zur Archivierung. Eine detaillierte Anleitung zur Verwendung von KI zum Entwickeln von Software, die die Umweltauswirkungen von Cloud-Arbeitslasten minimiert, finden Sie im Google Cloud E-Book Build Software Sustainably.

Empfehlungen

Die Empfehlungen in diesem Abschnitt sind in die folgenden Schwerpunktbereiche unterteilt:

  • Rechenaufwand minimieren: Verwenden Sie schlanken, fokussierten Code, der redundante Logik vermeidet und unnötige Berechnungen oder Funktionsüberfrachtung verhindert.
  • Effiziente Algorithmen und Datenstrukturen verwenden: Wählen Sie zeiteffiziente und speichereffiziente Algorithmen aus, die die CPU-Last reduzieren und die Arbeitsspeichernutzung minimieren.
  • Compute- und Datenvorgänge optimieren: Entwickeln Sie mit dem Ziel, alle verfügbaren Ressourcen effizient zu nutzen, einschließlich CPU, Arbeitsspeicher, Laufwerk-E/A und Netzwerk. Wenn Sie beispielsweise Busy-Loops durch ereignisgesteuerte Logik ersetzen, vermeiden Sie unnötiges Polling.
  • Frontend-Optimierung implementieren: Um den Stromverbrauch von Endnutzergeräten zu senken, sollten Sie Strategien wie Minimierung, Komprimierung und Lazy Loading für Bilder und Assets verwenden.

Rechenaufwand minimieren

Um energieeffiziente Software zu schreiben, müssen Sie die Gesamtzahl der Rechenvorgänge, die Ihre Anwendung ausführt, minimieren. Jede unnötige Anweisung, jede redundante Schleife und jede zusätzliche Funktion verbraucht Energie, Zeit und Ressourcen. Mit den folgenden Empfehlungen können Sie Software entwickeln, die nur minimale Berechnungen ausführt.

Schlanken, fokussierten Code schreiben

Um nur den Code zu schreiben, der für die gewünschten Ergebnisse erforderlich ist, können Sie so vorgehen:

  • Redundante Logik und Funktionsüberfrachtung vermeiden: Schreiben Sie Code, der nur die wesentlichen Funktionen ausführt. Vermeiden Sie Funktionen, die den Rechenaufwand und die Komplexität erhöhen, aber Ihren Nutzern keinen messbaren Mehrwert bieten.
  • Refaktorieren: Um die Energieeffizienz im Laufe der Zeit zu verbessern, sollten Sie Ihre Anwendungen regelmäßig prüfen, um ungenutzte Funktionen zu identifizieren. Ergreifen Sie Maßnahmen, um solche Funktionen nach Bedarf zu entfernen oder umzugestalten.
  • Unnötige Vorgänge vermeiden: Berechnen Sie einen Wert oder führen Sie eine Aktion erst aus, wenn das Ergebnis benötigt wird. Verwenden Sie Techniken wie die verzögerte Auswertung, bei der Berechnungen erst dann ausgeführt werden, wenn eine abhängige Komponente in der Anwendung die Ausgabe benötigt.
  • Lesbarkeit und Wiederverwendbarkeit von Code priorisieren: Schreiben Sie Code, der lesbar und wiederverwendbar ist. Dieser Ansatz minimiert Duplikate und folgt dem DRY-Prinzip (Don't Repeat Yourself), das dazu beitragen kann, die CO2-Emissionen bei der Softwareentwicklung und ‑wartung zu reduzieren.

Backend-Caching verwenden

Durch Backend-Caching wird sichergestellt, dass eine Anwendung nicht wiederholt dieselben Aufgaben ausführt. Eine hohe Cache-Trefferquote führt zu einer fast linearen Reduzierung des Energieverbrauchs pro Anfrage. Verwenden Sie die folgenden Techniken, um das Backend-Caching zu implementieren:

  • Häufig verwendete Daten im Cache speichern: Speichern Sie häufig verwendete Daten an einem temporären, leistungsstarken Speicherort. Verwenden Sie beispielsweise einen In-Memory-Caching-Dienst wie Memorystore. Wenn eine Anwendung Daten aus einem Cache abruft, wird die Anzahl der Datenbankabfragen und Datenträger-E/A-Vorgänge reduziert. Dadurch wird die Last auf die Datenbanken und Server im Backend verringert.
  • API-Antworten im Cache speichern: Um redundante und kostspielige Netzwerkaufrufe zu vermeiden, sollten Sie die Ergebnisse häufiger API-Anfragen im Cache speichern.
  • In-Memory-Caching priorisieren: Um langsame Festplatten-E/A-Vorgänge und komplexe Datenbankabfragen zu vermeiden, sollten Sie Daten im schnellen Arbeitsspeicher (RAM) speichern.
  • Wählen Sie geeignete Cache-Schreibstrategien aus.:
    • Die Write-Through-Strategie sorgt dafür, dass Daten synchron in den Cache und den persistenten Speicher geschrieben werden. Diese Strategie erhöht die Wahrscheinlichkeit von Cache-Treffern, sodass der persistente Speicher weniger energieintensive Leseanfragen erhält.
    • Die Write-Back-Strategie (Write-Behind) verbessert die Leistung von schreibintensiven Anwendungen. Daten werden zuerst in den Cache geschrieben und die Datenbank wird später asynchron aktualisiert. Diese Strategie reduziert die unmittelbare Schreiblast auf langsameren Datenbanken.
  • Intelligente Richtlinien zum Entfernen verwenden: Halten Sie den Cache schlank und effizient. Um veraltete oder wenig genutzte Daten zu entfernen und den für häufig angeforderte Daten verfügbaren Speicherplatz zu maximieren, verwenden Sie Richtlinien wie Gültigkeitsdauer (TTL), zuletzt verwendet (LRU) und am wenigsten verwendet (LFU).

Effiziente Algorithmen und Datenstrukturen verwenden

Die von Ihnen ausgewählten Algorithmen und Datenstrukturen bestimmen die rohe Rechenkomplexität Ihrer Software. Wenn Sie geeignete Algorithmen und Datenstrukturen auswählen, minimieren Sie die Anzahl der CPU-Zyklen und Speichervorgänge, die zum Ausführen einer Aufgabe erforderlich sind. Weniger CPU-Zyklen und Arbeitsspeicheroperationen führen zu einem geringeren Energieverbrauch.

Algorithmen für optimale Zeitkomplexität auswählen

Priorisieren Sie Algorithmen, die das erforderliche Ergebnis in der kürzesten Zeit erzielen. So lässt sich die Dauer der Ressourcennutzung verkürzen. So wählen Sie Algorithmen aus, die die Ressourcennutzung optimieren:

  • Komplexität reduzieren: Um die Komplexität zu bewerten, sollten Sie nicht nur Laufzeitmesswerte, sondern auch die theoretische Komplexität des Algorithmus berücksichtigen. Im Vergleich zum Bubblesort reduziert Mergesort beispielsweise den Rechenaufwand und den Energieverbrauch für große Datasets erheblich.
  • Redundante Arbeit vermeiden: Verwenden Sie integrierte, optimierte Funktionen in der von Ihnen gewählten Programmiersprache oder dem Framework. Diese Funktionen werden oft in einer Low-Level- und energieeffizienteren Sprache wie C oder C++ implementiert. Sie sind also besser für die zugrunde liegende Hardware optimiert als benutzerdefinierte Funktionen.

Datenstrukturen für Effizienz auswählen

Die von Ihnen ausgewählten Datenstrukturen bestimmen, wie schnell Daten abgerufen, eingefügt oder verarbeitet werden können. Diese Geschwindigkeit wirkt sich auf die CPU- und Arbeitsspeichernutzung aus. So wählen Sie effiziente Datenstrukturen aus:

  • Für Suche und Abruf optimieren: Verwenden Sie für häufige Vorgänge wie das Prüfen, ob ein Element vorhanden ist, oder das Abrufen eines bestimmten Werts Datenstrukturen, die für Geschwindigkeit optimiert sind. Hashmaps oder Hashsets ermöglichen beispielsweise Suchvorgänge in nahezu konstanter Zeit, was energieeffizienter ist als die lineare Suche in einem Array.
  • Arbeitsspeicherbedarf minimieren: Effiziente Datenstrukturen tragen dazu bei, den gesamten Arbeitsspeicherbedarf einer Anwendung zu reduzieren. Durch den geringeren Arbeitsspeicherzugriff und die geringere Arbeitsspeicherverwaltung wird der Stromverbrauch gesenkt. Außerdem können Prozesse mit einem schlankeren Speicherprofil effizienter ausgeführt werden, sodass Sie Ressourcenupgrades aufschieben können.
  • Spezialisierte Strukturen verwenden: Verwenden Sie Datenstrukturen, die speziell für ein bestimmtes Problem entwickelt wurden. Verwenden Sie beispielsweise eine Trie-Datenstruktur für die schnelle Suche nach Stringpräfixen und eine Prioritätswarteschlange, wenn Sie effizient nur auf den höchsten oder niedrigsten Wert zugreifen müssen.

Compute- und Datenvorgänge optimieren

Achten Sie bei der Softwareentwicklung auf eine effiziente und angemessene Ressourcennutzung im gesamten Technologie-Stack. Behandeln Sie CPU, Arbeitsspeicher, Festplatte und Netzwerk als begrenzte und gemeinsam genutzte Ressourcen. Erkennen Sie, dass eine effiziente Nutzung von Ressourcen zu spürbaren Senkungen der Kosten und des Energieverbrauchs führt.

CPU-Auslastung und Leerlaufzeit optimieren

Um die Zeit zu minimieren, die die CPU in einem aktiven, energieverbrauchenden Zustand verbringt, ohne sinnvolle Arbeit zu verrichten, können Sie die folgenden Ansätze verwenden:

  • Ereignisgesteuerte Logik gegenüber Polling bevorzugen: Ersetzen Sie ressourcenintensive Busy-Loops oder konstantes Prüfen (Polling) durch ereignisgesteuerte Logik. Eine ereignisgesteuerte Architektur sorgt dafür, dass die Komponenten einer Anwendung nur dann ausgeführt werden, wenn sie durch relevante Ereignisse ausgelöst werden. Dieser Ansatz ermöglicht die Verarbeitung auf Abruf, wodurch ressourcenintensive Abrufe entfallen.
  • Konstant hohe Frequenz verhindern: Schreiben Sie Code, der die CPU nicht zwingt, ständig mit der höchsten Frequenz zu arbeiten. Um den Energieverbrauch zu minimieren, sollten Systeme, die sich im Leerlauf befinden, in den Energiesparmodus oder in den Ruhemodus wechseln können.
  • Asynchrone Verarbeitung verwenden: Verwenden Sie die asynchrone Verarbeitung, um zu verhindern, dass Threads während Leerlaufzeiten gesperrt werden. Dieser Ansatz setzt Ressourcen frei und führt zu einer höheren Gesamtressourcennutzung.

Speicher und Laufwerk-E/A effizient verwalten

Eine ineffiziente Arbeitsspeicher- und Laufwerksnutzung führt zu unnötiger Verarbeitung und einem erhöhten Stromverbrauch. Verwenden Sie die folgenden Techniken, um Arbeitsspeicher und E/A effizient zu verwalten:

  • Strenge Speicherverwaltung: Ergreifen Sie Maßnahmen, um nicht verwendete Speicherressourcen proaktiv freizugeben. Vermeiden Sie es, große Objekte länger als nötig im Arbeitsspeicher zu halten. Dieser Ansatz verhindert Leistungsengpässe und reduziert den Stromverbrauch für den Speicherzugriff.
  • Laufwerk-E/A optimieren: Reduzieren Sie die Häufigkeit der Lese- und Schreibvorgänge Ihrer Anwendung auf Ressourcen für nichtflüchtigen Speicher. Verwenden Sie beispielsweise einen Zwischenspeicherpuffer zum Speichern von Daten. Schreiben Sie die Daten in festen Intervallen oder wenn der Puffer eine bestimmte Größe erreicht in den nichtflüchtigen Speicher.
  • Batchvorgänge: Fassen Sie häufige, kleine Laufwerkvorgänge in weniger, größeren Batchvorgängen zusammen. Ein Batchvorgang verbraucht weniger Energie als viele einzelne, kleine Transaktionen.
  • Komprimierung verwenden: Reduzieren Sie die Menge der Daten, die auf Festplatten geschrieben oder von Festplatten gelesen werden, indem Sie geeignete Datenkomprimierungstechniken anwenden. Wenn Sie beispielsweise Daten komprimieren möchten, die Sie in Cloud Storage speichern, können Sie dekompressives Transcodieren verwenden.

Netzwerktraffic minimieren

Netzwerkressourcen verbrauchen bei der Datenübertragung viel Energie. Verwenden Sie die folgenden Techniken, um die Netzwerkkommunikation zu optimieren:

  • Nutzlastgröße minimieren: Entwickeln Sie Ihre APIs und Anwendungen so, dass nur die für eine Anfrage erforderlichen Daten übertragen werden. Vermeiden Sie das Abrufen oder Zurückgeben großer JSON- oder XML-Strukturen, wenn nur wenige Felder erforderlich sind. Achten Sie darauf, dass die zurückgegebenen Datenstrukturen prägnant sind.
  • Roundtrips reduzieren: Verwenden Sie intelligentere Protokolle, um die Anzahl der Netzwerk-Roundtrips zu reduzieren, die zum Ausführen einer Nutzeraktion erforderlich sind. Verwenden Sie beispielsweise HTTP/3 anstelle von HTTP/1.1, GraphQL anstelle von REST, binäre Protokolle und fassen Sie API-Aufrufe zusammen. Wenn Sie die Anzahl der Netzwerkaufrufe reduzieren, senken Sie den Energieverbrauch sowohl für Ihre Server als auch für die Geräte der Endnutzer.

Frontend-Optimierung implementieren

Durch die Frontend-Optimierung wird die Datenmenge minimiert, die Ihre Endnutzer herunterladen und verarbeiten müssen. Dadurch wird die Belastung der Ressourcen von Endnutzergeräten verringert.

Code und Assets minimieren

Wenn Endnutzer kleinere und effizienter strukturierte Ressourcen herunterladen und verarbeiten müssen, verbrauchen ihre Geräte weniger Strom. Um das Downloadvolumen und die Verarbeitungslast auf Endnutzergeräten zu minimieren, können Sie die folgenden Techniken verwenden:

  • Minimierung und Komprimierung: Entfernen Sie bei JavaScript-, CSS- und HTML-Dateien unnötige Zeichen wie Leerzeichen und Kommentare mit geeigneten Minimierungstools. Achten Sie darauf, dass Dateien wie Bilder komprimiert und optimiert sind. Sie können die Minimierung und Komprimierung von Web-Assets mit einer CI/CD-Pipeline automatisieren.
  • Lazy Loading: Bilder, Videos und nicht kritische Assets werden erst geladen, wenn sie tatsächlich benötigt werden, z. B. wenn diese Elemente in den sichtbaren Bereich einer Webseite gescrollt werden. Dieser Ansatz reduziert das Volumen des ersten Datentransfers und die Verarbeitungslast auf Endnutzergeräten.
  • Kleinere JavaScript-Bundles: Entfernen Sie nicht verwendeten Code aus Ihren JavaScript-Bundles, indem Sie moderne Modul-Bundler und Techniken wie Tree Shaking verwenden. So entstehen kleinere Dateien, die schneller geladen werden und weniger Serverressourcen verbrauchen.
  • Browser-Caching: Verwenden Sie HTTP-Caching-Header, um den Browser des Nutzers anzuweisen, statische Assets lokal zu speichern. Browser-Caching trägt dazu bei, dass bei nachfolgenden Besuchen wiederholte Downloads und unnötiger Netzwerkverkehr vermieden werden.

Leichte Benutzeroberfläche (UX) priorisieren

Das Design Ihrer Benutzeroberfläche kann sich erheblich auf die Rechenkomplexität für das Rendern von Frontend-Inhalten auswirken. Verwenden Sie die folgenden Techniken, um Front-End-Oberflächen mit einer einfachen Benutzeroberfläche zu erstellen:

  • Effizientes Rendern: Vermeiden Sie ressourcenintensive, häufige DOM-Manipulationen (Document Object Model). Schreiben Sie Code, der die Rendering-Komplexität minimiert und unnötiges erneutes Rendern vermeidet.
  • Leichte Designmuster: Verwenden Sie nach Möglichkeit statische Websites oder progressive Web-Apps (PWAs). Solche Websites und Apps werden schneller geladen und benötigen weniger Serverressourcen.
  • Barrierefreiheit und Leistung: Responsive Websites, die schnell geladen werden, sind oft nachhaltiger und barrierefreier. Ein optimiertes, übersichtliches Design reduziert die Ressourcen, die beim Rendern von Inhalten verbraucht werden. Websites, die für Leistung und Geschwindigkeit optimiert sind, können zu höheren Umsätzen führen. Laut der Studie Milliseconds Make Millions von Deloitte und Google führt eine um 0,1 Sekunden (100 ms) verbesserte Websitegeschwindigkeit zu einer Steigerung der Conversion-Raten um 8,4 % bei Einzelhandelswebsites und zu einer Steigerung des durchschnittlichen Bestellwerts um 9,2 %.

Daten und Speicher für Nachhaltigkeit optimieren

Dieses Prinzip im Bereich „Nachhaltigkeit“ des Google Cloud Well-Architected Framework enthält Empfehlungen zur Optimierung der Energieeffizienz und des CO2-Fußabdrucks Ihrer Speicherressourcen in Google Cloud.

Übersicht über die Grundsätze

Gespeicherte Daten sind keine passive Ressource. Während des gesamten Datenlebenszyklus wird Energie verbraucht und es entstehen CO2-Emissionen. Für jedes Gigabyte gespeicherter Daten ist eine physische Infrastruktur erforderlich, die kontinuierlich mit Strom versorgt, gekühlt und verwaltet werden muss. Um eine nachhaltige Cloud-Architektur zu erreichen, sollten Sie Daten als wertvolles, aber umweltbelastendes Asset betrachten und proaktive Data Governance priorisieren.

Ihre Entscheidungen in Bezug auf Datenaufbewahrung, ‑qualität und ‑standort können Ihnen helfen, die Cloud-Kosten und den Energieverbrauch erheblich zu senken. Minimieren Sie die Daten, die Sie speichern, optimieren Sie, wo und wie Sie Daten speichern, und implementieren Sie Strategien für das automatische Löschen und Archivieren. Wenn Sie Datenmüll reduzieren, verbessern Sie die Systemleistung und verringern langfristig die Umweltbelastung durch Ihre Daten.

Empfehlungen

Wenn Sie den Datenlebenszyklus und die Speicherressourcen im Hinblick auf Nachhaltigkeit optimieren möchten, sollten Sie die Empfehlungen in den folgenden Abschnitten berücksichtigen.

Hochwertige Daten priorisieren

Gespeicherte Daten, die nicht verwendet werden, dupliziert oder veraltet sind, verbrauchen weiterhin Energie für die zugrunde liegende Infrastruktur. Mit den folgenden Techniken können Sie den CO2-Fußabdruck im Zusammenhang mit dem Speicherplatz reduzieren.

Duplikate identifizieren und entfernen

Legen Sie Richtlinien fest, um die unnötige Replikation von Datasets in mehreren Google Cloud Projekten oder ‑Diensten zu verhindern. Verwenden Sie zentrale Datenrepositories wie BigQuery-Datasets oder Cloud Storage-Buckets als Single Source of Truth und gewähren Sie entsprechenden Zugriff auf diese Repositories.

Schatten- und Dark Data entfernen

Dark Data sind Daten, deren Nutzen oder Eigentümer unbekannt ist. Schattenkopien sind unautorisierte Kopien von Daten. Scannen Sie Ihre Speichersysteme und suchen Sie mit einer Lösung zur Datenermittlung und ‑katalogisierung wie Dataplex Universal Catalog nach Dark Data und Shadow Data. Prüfen Sie diese Ergebnisse regelmäßig und implementieren Sie gegebenenfalls ein Verfahren zum Archivieren oder Löschen von Dark und Shadow Data.

Datenvolumen für KI-Arbeitslasten minimieren

Speichern Sie nur die Features und verarbeiteten Daten, die für das Modelltraining und die Bereitstellung erforderlich sind. Verwenden Sie nach Möglichkeit Techniken wie Data Sampling, Aggregation und Generierung synthetischer Daten, um eine gute Modellleistung zu erzielen, ohne auf riesige Rohdatensätze angewiesen zu sein.

Datenqualitätsprüfungen einbinden

Implementieren Sie automatische Pipelines für die Datenvalidierung und ‑bereinigung mit Diensten wie Dataproc, Dataflow oder Dataplex Universal Catalog bei der Datenaufnahme. Daten von niedriger Qualität führen zu verschwendetem Speicherplatz. Außerdem führt es zu unnötigem Energieverbrauch, wenn die Daten später für Analysen oder KI-Training verwendet werden.

Wertdichte von Daten prüfen

Überprüfen Sie regelmäßig Datasets mit hohem Volumen wie Protokolle und IoT-Streams. Prüfen Sie, ob Daten zusammengefasst, aggregiert oder downsampled werden können, um die erforderliche Informationsdichte beizubehalten und das physische Speichervolumen zu reduzieren.

Bedarf an Sicherungen kritisch bewerten

Prüfen Sie, ob Backups von Daten erforderlich sind, die Sie mit minimalem Aufwand neu generieren können. Beispiele für solche Daten sind Zwischenergebnisse von ETL-Prozessen, kurzlebige Caches und Trainingsdaten, die aus einer stabilen, permanenten Quelle stammen. Sichern Sie nur Daten, die einzigartig sind oder deren Neuerstellung kostspielig ist.

Verwaltung des Speicherlebenszyklus optimieren

Automatisieren Sie den Speicherlebenszyklus, sodass Daten, wenn ihr Nutzen abnimmt, in eine energieeffiziente Speicherklasse verschoben oder entsprechend entfernt werden. Gehen Sie dazu so vor:

Geeignete Cloud Storage-Klasse auswählen

Sie können den Übergang von Daten in Cloud Storage zu Speicherklassen mit geringerem CO2-Ausstoß basierend auf der Zugriffshäufigkeit mithilfe der Verwaltung des Objektlebenszyklus automatisieren.

  • Verwenden Sie Standard-Speicher nur für aktiv verwendete Datasets, z. B. aktuelle Produktionsmodelle.
  • Verschieben Sie Übergangsdaten wie ältere KI-Trainingsdatensätze oder weniger häufig aufgerufene Sicherungen in Nearline- oder Coldline-Speicher.
  • Verwenden Sie für die langfristige Aufbewahrung Archive Storage, das für Energieeffizienz im großen Maßstab optimiert ist.

Aggressive Richtlinien für den Datenlebenszyklus implementieren

Definieren Sie klare, automatisierte Richtlinien zur Gültigkeitsdauer (Time-to-Live, TTL) für nicht essenzielle Daten wie Logdateien, temporäre Modellartefakte und veraltete Zwischenergebnisse. Verwenden Sie Lebenszyklusregeln, um solche Daten nach einem bestimmten Zeitraum automatisch zu löschen.

Ressourcen-Tagging erzwingen

Schreiben Sie die Verwendung einheitlicher Ressourcentags und ‑labels für alle Ihre Cloud Storage-Buckets, BigQuery-Datasets und persistenten Datenträger vor. Erstellen Sie Tags, die den Dateninhaber, den Zweck der Daten und den Aufbewahrungszeitraum angeben. Verwenden Sie Einschränkungen für den Organisationsrichtliniendienst, um sicherzustellen, dass erforderliche Tags wie der Aufbewahrungszeitraum auf Ressourcen angewendet werden. Mit Tags können Sie die Lebenszyklusverwaltung automatisieren, detaillierte FinOps-Berichte erstellen und Berichte zu CO2-Emissionen erstellen.

Computing-Speicher bedarfsgerecht anpassen und bereitstellen

Prüfen Sie regelmäßig nichtflüchtige Speicher, die an Compute Engine-Instanzen angehängt sind, und achten Sie darauf, dass die Speicher nicht überdimensioniert sind. Verwenden Sie Snapshots nur, wenn sie für die Sicherung erforderlich sind. Löschen Sie alte, nicht verwendete Snapshots. Verwenden Sie für Datenbanken Richtlinien zur Datenaufbewahrung, um die Größe der zugrunde liegenden nichtflüchtigen Speicher zu reduzieren.

Speicherformat optimieren

Für Speicher, der für Analysearbeitslasten verwendet wird, sollten Sie komprimierte, spaltenbasierte Formate wie Parquet oder optimiertes Avro gegenüber zeilenbasierten Formaten wie JSON oder CSV bevorzugen. Durch die spaltenweise Speicherung wird der physische Speicherplatzbedarf erheblich reduziert und die Leseleistung verbessert. Diese Optimierung trägt dazu bei, den Energieverbrauch für die zugehörigen Rechen- und E/A-Vorgänge zu senken.

Regionalität und Datenübertragung optimieren

Der physische Standort und die Bewegung Ihrer Daten wirken sich auf den Verbrauch von Netzwerkressourcen und die für die Speicherung erforderliche Energie aus. Mit den folgenden Methoden können Sie die Regionalität von Daten optimieren.

Regionen mit geringen CO2-Emissionen für die Speicherung auswählen

Je nach Ihren Compliance-Anforderungen können Sie Daten in Google Cloud Regionen speichern, in denen ein höherer Anteil an CO2-freier Energie (CFE) verwendet wird oder die eine geringere CO2-Intensität des Stromnetzes aufweisen. Sie können die Erstellung von Storage-Buckets in Regionen mit hohem CO₂-Ausstoß mithilfe der Organisationsrichtlinie für Ressourcenstandorte einschränken. Informationen zu CFE- und Kohlenstoffintensitätsdaten für Google Cloud Regionen finden Sie unter CO2-freie Energie für Google Cloud Regionen.

Replikation minimieren

Daten über Regionen hinweg nur replizieren, um die obligatorischen Anforderungen an die Notfallwiederherstellung (Disaster Recovery, DR) oder Hochverfügbarkeit (High Availability, HA) zu erfüllen. Regionsübergreifende und multiregionale Replikationsvorgänge erhöhen die Energiekosten und den CO₂-Fußabdruck Ihrer Daten erheblich.

Orte der Datenverarbeitung optimieren

Um den Energieverbrauch für die Netzwerkdatenübertragung zu senken, sollten Sie rechenintensive Arbeitslasten wie KI-Training und BigQuery-Verarbeitung in derselben Region wie die Datenquelle bereitstellen.

Datenübertragung für Partner und Kunden optimieren

Wenn Sie große Datenmengen zwischen Cloud-Diensten, Standorten und Anbietern verschieben möchten, empfehlen Sie Ihren Partnern und Kunden, den Storage Transfer Service oder APIs für die gemeinsame Nutzung von Daten zu verwenden. Vermeiden Sie Massenexporte von Daten. Verwenden Sie für öffentliche Datasets Anforderer bezahlt-Buckets, um die Kosten für die Datenübertragung und -verarbeitung sowie die Umweltauswirkungen auf Endnutzer zu verlagern.

Nachhaltigkeit kontinuierlich messen und verbessern

Dieses Prinzip im Bereich „Nachhaltigkeit“ des Google Cloud Well-Architected Framework enthält Empfehlungen, mit denen Sie die Nachhaltigkeit Ihrer Arbeitslasten in Google Cloudmessen und kontinuierlich verbessern können.

Übersicht über die Grundsätze

Damit Ihre Cloud-Arbeitslasten nachhaltig bleiben, benötigen Sie genaue und transparente Messwerte. Mit überprüfbaren Messwerten können Sie Nachhaltigkeitsziele in Maßnahmen umsetzen. Jede Ressource, die Sie in der Cloud erstellen, hat einen zugehörigen CO2-Fußabdruck. Um nachhaltige Cloud-Architekturen zu entwickeln und zu pflegen, müssen Sie die Messung von CO2-Daten in Ihren operativen Feedback-Loop einbinden.

Die Empfehlungen in diesem Abschnitt bieten einen Rahmen für die Verwendung der CO₂-Bilanz, um CO₂-Emissionen zu quantifizieren, CO₂-Hotspots zu identifizieren, gezielte Workload-Optimierungen zu implementieren und die Ergebnisse der Optimierungsbemühungen zu überprüfen. Mit diesem Framework können Sie Ihre Ziele zur Kostenoptimierung effizient mit überprüfbaren Zielen zur CO2-Reduzierung in Einklang bringen.

Berichtsmethode für die CO₂-Bilanz

Carbon Footprint bietet einen transparenten, prüfbaren und global ausgerichteten Bericht über Ihre Cloud-bezogenen Emissionen. Der Bericht entspricht internationalen Standards, vor allem dem Greenhouse Gas (GHG) Protocol für die Berichterstellung und Bilanzierung von CO₂-Emissionen. Im Bericht zur CO₂-Bilanz werden standortbasierte und marktbasierte Bilanzierungsmethoden verwendet. Die standortbasierte Abrechnung basiert auf dem Emissionsfaktor des lokalen Stromnetzes. Bei der marktbasierten Abrechnung werden die Einkäufe von CO₂-freier Energie (CFE) durch Google berücksichtigt. Mit diesem dualen Ansatz können Sie sowohl die Auswirkungen auf das Stromnetz als auch die CO2-Vorteile Ihrer Arbeitslasten in Google Cloudnachvollziehen.

Weitere Informationen zur Erstellung des Berichts zu Carbon Footprint, einschließlich der verwendeten Datenquellen, der Einbeziehung von Scope 3 und des Zuweisungsmodells für Kunden, finden Sie unter Berichtsmethode für die CO₂-Bilanz.

Empfehlungen

Wenn Sie die CO2-Analyse zur kontinuierlichen Verbesserung nutzen möchten, sollten Sie die Empfehlungen in den folgenden Abschnitten berücksichtigen. Die Empfehlungen sind als Reifephasen für die Implementierung von nachhaltigen Cloud-Vorgängen strukturiert:

Phase 1: Basislinie festlegen

In dieser Phase richten Sie die erforderlichen Tools ein und sorgen dafür, dass Daten zugänglich und korrekt integriert sind.

  1. Berechtigungen erteilen: Erteilen Sie Berechtigungen für Teams wie FinOps, SecOps und Plattformtechnik, damit sie in der Google Cloud -Konsole auf das Dashboard „Carbon Footprint“ zugreifen können. Weisen Sie dem entsprechenden Rechnungskonto die Rolle „Carbon Footprint Viewer“ (roles/billing.carbonViewer) in Identity and Access Management (IAM) zu.
  2. Datenexport automatisieren: Konfigurieren Sie den automatisierten Export von Carbon Footprint-Bilanz nach BigQuery. Mit den exportierten Daten können Sie detaillierte Analysen durchführen, CO₂-Daten mit Kosten- und Nutzungsdaten in Beziehung setzen und benutzerdefinierte Berichte erstellen.
  3. CO₂-bezogene KPIs definieren: Legen Sie Messwerte fest, die CO₂-Emissionen mit dem Geschäftswert in Verbindung bringen. Die Kohlenstoffintensität ist beispielsweise ein Messwert für die Anzahl der Kilogramm CO2-Äquivalente pro Kunde, Transaktion oder Umsatzeinheit.

Phase 2: CO₂-Hotspots identifizieren

Mithilfe der detaillierten Daten im Carbon Footprint-Bericht können Sie die Bereiche mit den größten Umweltauswirkungen ermitteln. Verwenden Sie für diese Analyse die folgenden Techniken:

  • Nach Umfang priorisieren: Um die größten Brutto-CO₂-Emittenten schnell zu identifizieren, analysieren Sie die Daten im Dashboard nach Projekt, Region und Dienst.
  • Doppelte Bilanzierung verwenden: Wenn Sie die CO₂-Bilanz in einer Region bewerten, berücksichtigen Sie sowohl standortbasierte Emissionen (die Umweltauswirkungen des lokalen Stromnetzes) als auch marktbasierten Emissionen (die Vorteile der Investitionen von Google in CFE).
  • Mit Kosten in Beziehung setzen: Führen Sie die CO2-Daten in BigQuery mit Ihren Abrechnungsdaten zusammen und bewerten Sie die Auswirkungen von Optimierungsmaßnahmen auf Nachhaltigkeit und Kosten. Hohe Kosten können oft mit hohen CO2-Emissionen in Verbindung gebracht werden.
  • Daten mit Anmerkungen versehen, um den Return on Effort (ROE) zu messen: Versehen Sie die CO₂-Daten in BigQuery mit Anmerkungen zu bestimmten Ereignissen, z. B. zur Anpassung der Größe einer Ressource oder zur Stilllegung eines großen Dienstes. Mithilfe der Anmerkungen können Sie Senkungen von CO₂-Emissionen und Kosten bestimmten Optimierungsinitiativen zuordnen, um die Ergebnisse der einzelnen Initiativen zu messen und zu präsentieren.

Phase 3: Gezielte Optimierung implementieren

Dies ist die Ausführungsphase für die Implementierung von nachhaltigen Cloud-Vorgängen. Mit den folgenden Strategien können Sie bestimmte Ressourcen optimieren, die Sie als wichtige Faktoren für Kosten und CO2-Emissionen identifizieren:

  • Unbeaufsichtigte Projekte deaktivieren: Prüfen Sie regelmäßig den Recommender für unbeaufsichtigte Projekte, der in die Carbon Footprint-Daten eingebunden ist. Um sofortige, nachgewiesene Reduzierungen von CO₂-Emissionen und Kosten zu erzielen, sollten Sie die Überprüfung und das eventuelle Entfernen nicht verwendeter Projekte automatisieren.
  • Ressourcen richtig dimensionieren: Passen Sie die bereitgestellte Ressourcenkapazität an die tatsächliche Nutzung an. Verwenden Sie dazu Active Assist-Recommenders zur Größenanpassung, z. B. Empfehlungen für Maschinentypen für Compute Engine-VMs. Verwenden Sie für rechenintensive Aufgaben und KI-Arbeitslasten die effizientesten Maschinentypen und KI-Modelle.
  • CO2-bewusste Planung einführen: Integrieren Sie für Batch-Arbeitslasten, die nicht zeitkritisch sind, regionale CFE-Daten in die Planungslogik. Beschränken Sie, sofern möglich, die Erstellung neuer Ressourcen auf Regionen mit geringen CO2-Emissionen, indem Sie die Einschränkung Ressourcenstandorte im Organisationsrichtliniendienst verwenden.
  • Datenwildwuchs reduzieren: Implementieren Sie Richtlinien zur Datenverwaltung, um sicherzustellen, dass selten aufgerufene Daten in eine geeignete Cold-Storage-Klasse (Nearline, Coldline oder Archive) verschoben oder dauerhaft gelöscht werden. Mit dieser Strategie können Sie die Energiekosten Ihrer Speicherressourcen senken.
  • Anwendungscode optimieren: Beheben Sie Ineffizienzen auf Codeebene, die zu übermäßigem Ressourcenverbrauch oder unnötigen Berechnungen führen.

Hier finden Sie weitere Informationen:

Phase 4: Nachhaltigkeitspraktiken und ‑berichte institutionalisieren

In dieser Phase binden Sie die CO2-Messung in Ihr Governance-Framework ein. Dieser Ansatz trägt dazu bei, dass Ihre Organisation über die Fähigkeiten und Kontrollen verfügt, die für kontinuierliche Nachhaltigkeitsverbesserungen und überprüfbare Berichte erforderlich sind.

  • GreenOps-Governance implementieren: Richten Sie eine formelle GreenOps-Funktion oder Arbeitsgruppe ein, um Daten zu Carbon Footprint in Cloud Billing-Daten zu integrieren. Diese Funktion muss die Verantwortlichkeit für die Ziele zur Reduzierung von CO2-Emissionen in allen Projekten festlegen, die Kostenoptimierung mit Nachhaltigkeitszielen in Einklang bringen und Berichte implementieren, um die CO2-Effizienz im Vergleich zu den Ausgaben zu verfolgen.
  • CO₂-Bilanzdaten für Berichte und Compliance verwenden: Mit den geprüften, prüfbaren CO₂-Bilanzdaten in BigQuery können Sie formelle Offenlegungen zu Umwelt, Gesellschaft und Unternehmensführung (Environmental, Social, and Governance, ESG) erstellen. So können Sie die Anforderungen der Stakeholder an die Transparenz erfüllen und die Einhaltung verbindlicher und freiwilliger Vorschriften sicherstellen.
  • In Schulungen und Sensibilisierung investieren: Führen Sie obligatorische Nachhaltigkeitsschulungen für relevante technische und nicht technische Teams ein. Ihre Teams müssen wissen, wie sie auf die Daten zu Carbon Footprint zugreifen und sie interpretieren können und wie sie Optimierungsempfehlungen in ihre täglichen Arbeitsabläufe und Designentscheidungen einbeziehen. Weitere Informationen finden Sie unter Rollenbasierte Nachhaltigkeitsschulungen anbieten.
  • CO2-Anforderungen definieren: Nehmen Sie CO2-Emissionsmesswerte als nicht funktionale Anforderungen (NFR) in die Akzeptanzkriterien Ihrer Anwendung für neue Bereitstellungen auf. So wird sichergestellt, dass Architekten und Entwickler von Anfang an Designoptionen mit geringem CO2-Ausstoß priorisieren.
  • GreenOps automatisieren: Automatisieren Sie die Implementierung von Active Assist-Empfehlungen mithilfe von Scripts, Vorlagen und IaC-Pipelines (Infrastructure-as-Code). So wird sichergestellt, dass Teams Empfehlungen im gesamten Unternehmen einheitlich und schnell umsetzen.

Eine Kultur der Nachhaltigkeit fördern

Dieses Prinzip in der Säule „Nachhaltigkeit“ des Google Cloud Well-Architected Framework enthält Empfehlungen, mit denen Sie eine Kultur schaffen können, in der Teams in Ihrer Organisation sich der Nachhaltigkeitspraktiken bewusst sind und diese beherrschen.

Übersicht über die Grundsätze

Um Nachhaltigkeit in der Praxis umzusetzen, benötigen Sie mehr als nur Tools und Techniken. Sie brauchen einen kulturellen Wandel, der durch Bildung und Rechenschaftspflicht vorangetrieben wird. Ihre Teams müssen sich der Nachhaltigkeitsprobleme bewusst sein und praktische Kenntnisse in Bezug auf Nachhaltigkeit haben.

  • Bewusstsein für Nachhaltigkeit ist das Kontextwissen, dass jede architektonische und betriebliche Entscheidung konkrete Auswirkungen auf die Nachhaltigkeit hat. Teams müssen sich bewusst sein, dass die Cloud keine abstrakte Sammlung virtueller Ressourcen ist, sondern von physischen Ressourcen angetrieben wird, die Energie verbrauchen und CO2-Emissionen verursachen.
  • Kenntnisse in Bezug auf Nachhaltigkeit umfassen die Fähigkeit, Daten zu CO2-Emissionen zu interpretieren, Erfahrung mit der Implementierung von Cloud-Nachhaltigkeitsrichtlinien und technische Fähigkeiten, um Code für Energieeffizienz zu refaktorieren.

Damit Nachhaltigkeitspraktiken mit den Organisationszielen übereinstimmen, müssen Ihre Teams wissen, wie der Energieverbrauch von Cloud-Infrastruktur und Software zum CO2-Fußabdruck der Organisation beiträgt. Gut geplante Schulungen tragen dazu bei, dass alle Ihre Stakeholder – von Entwicklern und Architekten bis hin zu Finanzexperten und Betriebsingenieuren – den Nachhaltigkeitskontext ihrer täglichen Arbeit verstehen. Dieses gemeinsame Verständnis ermöglicht es Teams, über die passive Compliance hinauszugehen und eine aktive Optimierung vorzunehmen, wodurch Ihre Cloud-Arbeitslasten von vornherein nachhaltig sind. Nachhaltigkeit wird zu einer wichtigen nicht funktionalen Anforderung (NFR) wie andere Anforderungen für Sicherheit, Kosten, Leistung und Zuverlässigkeit.

Empfehlungen

Um das Bewusstsein für Nachhaltigkeitsprobleme und die Kompetenz in Bezug auf Nachhaltigkeitspraktiken zu schärfen, sollten Sie die Empfehlungen in den folgenden Abschnitten berücksichtigen.

Geschäftskontext und Abstimmung mit Unternehmenszielen angeben

Nachhaltigkeit ist nicht nur eine technische Aufgabe, sondern erfordert einen kulturellen Wandel, der individuelle Maßnahmen mit der Umweltmission Ihrer Organisation in Einklang bringt. Wenn Teams das Warum hinter Nachhaltigkeitsinitiativen verstehen, ist es wahrscheinlicher, dass sie die Initiativen als Kernprinzipien und nicht als optionale Aufgaben betrachten.

Den großen Zusammenhang erkennen

Helfen Sie Ihren Teams, zu verstehen, wie einzelne Architekturentscheidungen – z. B. die Auswahl einer Region mit geringen CO2-Emissionen oder die Optimierung einer Datenpipeline – zu den allgemeinen Nachhaltigkeitsverpflichtungen der Organisation beitragen. Machen Sie deutlich, wie sich diese Entscheidungen auf die lokale Gemeinschaft und die Branche auswirken. Abstrakte CO2-Messwerte in konkrete Indikatoren für den Fortschritt bei der Erreichung der Ziele für die soziale Verantwortung von Unternehmen (Corporate Social Responsibility, CSR) umwandeln.

Eine Nachricht wie die folgende informiert Teams über das positive Ergebnis und die Anerkennung durch die Führungsebene einer Entscheidung, eine Arbeitslast in eine Region mit geringen CO2-Emissionen zu migrieren und einen energieeffizienten Maschinentyp zu verwenden. In der Meldung wird auf das CO2-Äquivalent verwiesen, damit Ihr Team die Auswirkungen von Maßnahmen zur Reduzierung von CO2-Emissionen besser einordnen kann.

„Durch die Migration unserer Datenanalyse-Engine in die Region Low CO2 Blattsymbol Low CO2 und die Aktualisierung unserer Cluster auf C4A-Axion-basierte Instanzen haben wir unser CO₂-Profil grundlegend verändert. Diese Umstellung führte zu einer Reduzierung der CO2-Intensität unserer Datenanalyse-Engine um 75 %, was in diesem Quartal einer Reduzierung von 12 Tonnen CO2-Äquivalent entspricht. Diese Migration hatte einen erheblichen Einfluss auf unsere Geschäftsziele und wurde in den Newsletter für das vierte Quartal an unseren Vorstand aufgenommen.“

Finanzielle und Nachhaltigkeitsziele kommunizieren

Transparenz ist entscheidend, um Nachhaltigkeitsmaßnahmen mit den Zielen in Einklang zu bringen. Teilen Sie Nachhaltigkeitsziele und Fortschritte nach Möglichkeit in der gesamten Organisation. Nachhaltigkeitsfortschritte im Jahresabschluss hervorheben Durch diese Kommunikation wird sichergestellt, dass technische Teams ihre Arbeit als wichtigen Teil der öffentlichen Verpflichtungen und der finanziellen Gesundheit der Organisation betrachten.

Fate-Sharing-Mentalität annehmen

Teams über die kollaborative Natur von Cloud-Nachhaltigkeit informieren Google ist für die Nachhaltigkeit der Cloud verantwortlich, einschließlich der Effizienz der Infrastruktur und der Rechenzentren. Sie (der Kunde) sind für die Nachhaltigkeit Ihrer Ressourcen und Arbeitslasten in der Cloud verantwortlich. Wenn Sie diese Zusammenarbeit als Partnerschaft mit gemeinsamem Schicksal darstellen, unterstreichen Sie, dass Ihre Organisation und Google zusammenarbeiten, um optimale Umweltergebnisse zu erzielen.

Rollenbasierte Nachhaltigkeitsschulungen anbieten

Damit Nachhaltigkeit eine praktische Fähigkeit und kein theoretisches Konzept ist, sollten Sie die Nachhaltigkeitsschulungen auf bestimmte Jobrollen zuschneiden. Die Nachhaltigkeitstools und ‑techniken, die ein Data Scientist verwenden kann, unterscheiden sich stark von denen, die einem FinOps-Analysten zur Verfügung stehen. Das wird in der folgenden Tabelle beschrieben:

Rolle Trainingsfokus
Data Scientists und ML-Entwickler CO₂-Intensität von Rechenleistung: Zeigen Sie die Unterschiede zwischen der Ausführung von KI-Trainingsjobs auf Legacy-Systemen und auf speziell entwickelten KI-Beschleunigern auf. Stellen Sie heraus, wie ein Modell mit weniger Parametern die erforderliche Genauigkeit bei deutlich geringerem Energieverbrauch erreichen kann.
Entwickler Code-Effizienz und Ressourcenverbrauch: Veranschaulichen Sie, wie sich Code mit hoher Latenz oder ineffiziente Schleifen direkt auf die CPU-Laufzeit und den Energieverbrauch auswirken. Betonen Sie die Bedeutung von schlanken Containern und die Notwendigkeit, die Anwendungsleistung zu optimieren, um die Umweltbelastung durch Software zu verringern.
Architekten Nachhaltigkeit durch Design: Konzentrieren Sie sich auf die Auswahl der Region und die Platzierung der Arbeitslast. Zeigen Sie, wie sich durch die Auswahl einer Blattsymbol-Region mit niedrigen CO2-Emissionen und einem hohen Anteil an erneuerbaren Energien (z. B. northamerica-northeast1) das CO2-Profil Ihres gesamten Anwendungsstacks grundlegend ändert, bevor Sie eine einzige Zeile Code schreiben.
Plattform- und Betriebsingenieure Nutzung maximieren: Betonen Sie die Umweltkosten von inaktiven Ressourcen und Überbereitstellung. Stellen Sie Szenarien für die automatisierte Skalierung und Größenanpassung vor, um sicherzustellen, dass Cloud-Ressourcen effizient genutzt werden. Erklären Sie, wie Sie nachhaltigkeitsbezogene Messwerte wie die Auslastung erstellen und nachverfolgen und wie Sie Messwerte wie die Rechenzeit in entsprechende Messwerte für Kohlenstoffemissionen umwandeln.
FinOps Einheitsökonomie von CO2: Konzentrieren Sie sich auf das Verhältnis zwischen finanziellen Ausgaben und Umweltauswirkungen. Zeigen Sie, wie GreenOps-Praktiken es einem Unternehmen ermöglichen, den CO2-Ausstoß pro Transaktion zu erfassen. So wird Nachhaltigkeit zu einem KPI, der genauso wichtig ist wie herkömmliche KPIs wie Kosten und Nutzung.
Produktmanager Nachhaltigkeit als Funktion: Hier wird gezeigt, wie Sie Ziele zur Reduzierung von CO2-Emissionen in Produkt-Roadmaps integrieren. Zeigen Sie, wie vereinfachte Nutzeraktionen den Energieverbrauch von Cloud-Ressourcen und Endnutzergeräten reduzieren können.
Führungskräfte Strategische Ausrichtung und Berichterstellung: Hier geht es darum, wie sich die Nachhaltigkeit der Cloud auf die ESG-Bewertungen (Environmental, Social, and Governance) und den öffentlichen Ruf auswirkt. Veranschaulichen Sie, wie Nachhaltigkeitsentscheidungen dazu beitragen, gesetzliche Risiken zu verringern und Verpflichtungen gegenüber der Community und der Branche zu erfüllen.

Nachhaltigkeit fördern und Erfolge anerkennen

Um langfristige Fortschritte zu erzielen, müssen Sie über interne technische Korrekturen hinausgehen und Ihre Partner und die Branche beeinflussen.

Führungskräfte in die Lage versetzen, sich für Nachhaltigkeit einzusetzen

Managern die Daten und Berechtigungen zur Verfügung stellen, die sie benötigen, um die Umweltauswirkungen ähnlich wie andere Geschäftsmesswerte wie Markteinführungszeit und Kosten zu priorisieren. Wenn Führungskräfte diese Daten haben, betrachten sie Nachhaltigkeit als Qualitäts- und Effizienzstandard und nicht als eine nette Funktion, die die Produktion verlangsamt. Sie setzen sich aktiv für neue Funktionen von Cloud-Anbietern ein, z. B. für detailliertere CO2-Daten und neuere, umweltfreundlichere Prozessoren in bestimmten Regionen.

An Branchenstandards und Frameworks ausrichten

Damit Ihre Nachhaltigkeitsbemühungen glaubwürdig und messbar sind, sollten Sie interne Praktiken anerkannte globale und regionale Standards anpassen. Weitere Informationen finden Sie unter Nachhaltigkeitspraktiken an Branchenrichtlinien ausrichten.

Nachhaltigkeitsbemühungen fördern

Damit Nachhaltigkeit zu einem dauerhaften Bestandteil der Engineering-Kultur wird, müssen Teams den Wert der Priorisierung von Nachhaltigkeit erkennen. Von allgemeinen Zielen zu spezifischen, messbaren KPIs übergehen, die Verbesserungen und Effizienz belohnen.

KPIs für CO2-Emissionen und nicht funktionale Anforderungen definieren

Nachhaltigkeit als zentrale technische Anforderung betrachten Wenn Sie KPIs für CO2-Emissionen definieren, z. B. Gramm CO2-Äquivalent pro Million Anfragen oder Kohlenstoffintensität pro KI-Trainingslauf, machen Sie die Auswirkungen auf die Nachhaltigkeit sichtbar und umsetzbar. Integrieren Sie beispielsweise Nachhaltigkeit in die nicht funktionalen Anforderungen für jedes neue Projekt. Genauso wie ein System ein bestimmtes Latenz- oder Verfügbarkeitsziel erreichen muss, muss es auch ein definiertes Budget für Kohlenstoffemissionen einhalten.

Return on Effort messen

Unterstützen Sie Ihre Teams dabei, Nachhaltigkeitsvorteile mit geringem Aufwand und hoher Wirkung zu erkennen, z. B. die Verlagerung eines Batchjobs in eine andere Region, im Gegensatz zu einer komplexen Code-Refactoring-Übung, die möglicherweise nur minimale Vorteile bietet. Transparenz hinsichtlich des Return on Effort (ROE) schaffen. Wenn ein Team eine effizientere Prozessorfamilie auswählt, muss es genau wissen, wie viel CO2-Emissionen es im Vergleich zu dem Zeit- und Arbeitsaufwand für die Migration zum neuen Prozessor vermieden hat.

CO₂-Reduktionen anerkennen und feiern

Die Auswirkungen auf die Nachhaltigkeit sind oft im Hintergrund der Infrastruktur verborgen. Um die Dynamik für Nachhaltigkeitsfortschritte zu steigern, sollten Sie Erfolge für die gesamte Organisation sichtbar machen. Verwenden Sie beispielsweise Anmerkungen in Monitoring-Dashboards, um zu markieren, wann ein Team eine bestimmte Nachhaltigkeitsoptimierung bereitgestellt hat. So können Teams auf Daten im Dashboard verweisen und Anerkennung für ihre Erfolge fordern.

Nachhaltigkeitspraktiken an Branchenrichtlinien ausrichten

Dieses Prinzip in der Säule „Nachhaltigkeit“ des Google Cloud Well-Architected Framework bietet einen Überblick über Branchenrichtlinien und ‑frameworks, an denen Sie Ihre Nachhaltigkeitsbemühungen ausrichten sollten.

Übersicht über die Grundsätze

Damit Ihre Nachhaltigkeitsinitiativen auf weltweit anerkannten Methoden für Messung, Berichterstellung und Überprüfung basieren, empfehlen wir Ihnen, sie an den folgenden Branchenrichtlinien auszurichten:

Wenn Sie Ihre Nachhaltigkeitsinitiativen an diesen gemeinsamen externen Richtlinien ausrichten, erhalten sie die Glaubwürdigkeit und Prüfbarkeit, die Investoren, Aufsichtsbehörden und andere externe Stakeholder fordern. Außerdem fördern Sie die Verantwortlichkeit in den Entwicklungsteams, integrieren Nachhaltigkeit in Mitarbeiterschulungen und integrieren Cloud-Vorgänge erfolgreich in unternehmensweite Verpflichtungen für die Berichterstattung zu Umwelt, Soziales und Unternehmensführung (Environmental, Social, and Governance, ESG).

W3C Web Sustainability Guidelines

Die W3C Web Sustainability Guidelines (WSG) sind ein aufstrebendes Framework mit Best Practices, das von einer W3C-Arbeitsgruppe entwickelt wurde, um die Umweltauswirkungen digitaler Produkte und Dienste zu minimieren. Die Richtlinien decken den gesamten Lebenszyklus einer digitalen Lösung ab, einschließlich Geschäfts- und Produktstrategie, UX-Design (User Experience), Webentwicklung, Hosting, Infrastruktur und Systeme. Das Hauptziel der WSG ist es, Entwicklern und Architekten die Möglichkeit zu geben, Websites und Webanwendungen zu erstellen, die energieeffizienter sind und den Netzwerkverkehr, die clientseitige Verarbeitung und den serverseitigen Ressourcenverbrauch reduzieren. Diese Richtlinien sind ein wichtiger Bezugspunkt, um die Nachhaltigkeit auf Anwendungsebene mit architektonischen Entscheidungen auf Cloud-Ebene in Einklang zu bringen.

Green Software Foundation

Die Green Software Foundation (GSF) konzentriert sich auf den Aufbau eines Branchenökosystems für nachhaltige Software. Ziel ist es, die Entwicklung von Software voranzutreiben, die so konzipiert, entwickelt und betrieben wird, dass die CO2-Bilanz minimiert wird. Die GSF hat die Spezifikation „Software Carbon Intensity“ (SCI) entwickelt, die einen gemeinsamen Standard für die Messung der Kohlenstoffemissionsrate von Software bietet. Die Ausrichtung an den GSF hilft Entwicklern, die Effizienz einer Anwendung direkt mit den Kohlenstoffemissionen der Cloud-Umgebung in Verbindung zu bringen.

Greenhouse Gas Protocol

Das Greenhouse Gas Protocol ist ein weit verbreiteter Satz von Standards für die Messung, Verwaltung und öffentliche Berichterstattung von Treibhausgasemissionen. Das Protokoll wurde in Zusammenarbeit zwischen dem World Resources Institute (WRI) und dem World Business Council for Sustainable Development (WBCSD) entwickelt. Das GHG-Protokoll bietet den wesentlichen Rahmen für die Klimabilanzierung von Unternehmen. Der Bericht zu Carbon Footprint enthält Daten zu Emissionsbereichen, die für die Cloud-Nutzung relevant sind. Weitere Informationen finden Sie unter Berichtsmethode für die CO₂-Bilanz.

Die Einhaltung des GHG-Protokolls trägt dazu bei, dass Ihre Nachhaltigkeitsinitiativen glaubwürdig sind und dass externe Parteien Ihre Daten zu Kohlenstoffemissionen prüfen können. Außerdem tragen Sie dazu bei, den Eindruck von Greenwashing zu vermeiden, und erfüllen die Sorgfaltspflichtanforderungen Ihrer Investoren, Aufsichtsbehörden und externen Stakeholder. Mithilfe von verifizierten und geprüften Daten kann Ihre Organisation Rechenschaftspflicht nachweisen und Vertrauen in öffentlich zugängliche Nachhaltigkeitsverpflichtungen aufbauen.