Well-Architected Framework: pilar de sustentabilidade

Last reviewed 2026-01-28 UTC

O pilar de sustentabilidade no Google Cloud Well-Architected Framework fornece recomendações para projetar, criar e gerenciar cargas de trabalho no Google Cloud que sejam eficientes em termos de energia e conscientes das emissões de carbono.

O público-alvo deste documento inclui tomadores de decisão, arquitetos, administradores, desenvolvedores e operadores que projetam, criam, implantam e mantêm cargas de trabalho no Google Cloud.

As decisões arquitetônicas e operacionais têm um impacto significativo no uso de energia, no impacto na água e na pegada de carbono gerados pelas cargas de trabalho na nuvem. Toda carga de trabalho, seja um pequeno site ou um modelo de ML em grande escala, consome energia e contribui para as emissões de carbono e a intensidade dos recursos hídricos. Ao integrar a sustentabilidade à arquitetura de nuvem e ao processo de design, você cria sistemas eficientes, econômicos e ambientalmente sustentáveis. Uma arquitetura sustentável é resiliente e otimizada, o que cria um ciclo de feedback positivo de maior eficiência, menor custo e menor impacto ambiental.

Sustentabilidade por design: resultados de negócios holísticos

A sustentabilidade não é uma troca por outros objetivos comerciais principais. As práticas de sustentabilidade ajudam a acelerar seus outros objetivos de negócios. As escolhas de arquitetura que priorizam recursos e operações de baixo carbono ajudam a criar sistemas mais rápidos, baratos e seguros. Esses sistemas são considerados sustentáveis por design, em que a otimização para sustentabilidade leva a resultados positivos gerais para desempenho, custo, segurança, resiliência e experiência do usuário.

Otimização de desempenho

Sistemas otimizados para desempenho usam menos recursos. Um aplicativo eficiente que conclui uma tarefa mais rápido exige recursos de computação por um período mais curto. Portanto, o hardware subjacente consome menos quilowatts-hora (kWh) de energia. O desempenho otimizado também leva a uma latência menor e a uma experiência do usuário melhor. Tempo e energia não são desperdiçados por recursos que aguardam processos ineficientes. Ao usar hardware especializado (por exemplo, GPUs e TPUs), adotar algoritmos eficientes e maximizar o processamento paralelo, você melhora o desempenho e reduz a pegada de carbono da sua carga de trabalho na nuvem.

Otimização de custos

As despesas operacionais da nuvem dependem do uso de recursos. Devido a essa correlação direta, quando você otimiza o custo de forma contínua, também reduz o consumo de energia e as emissões de carbono. Ao dimensionar corretamente as VMs, implementar o escalonamento automático agressivo, arquivar dados antigos e eliminar recursos ociosos, você reduz o uso de recursos e os custos da nuvem. Você também reduz a pegada de carbono dos seus sistemas, porque os data centers consomem menos energia para executar suas cargas de trabalho.

Segurança e resiliência

Segurança e confiabilidade são pré-requisitos para um ambiente de nuvem sustentável. Um sistema comprometido, por exemplo, afetado por um ataque de negação de serviço (DoS) ou uma violação de dados não autorizada, pode aumentar muito o consumo de recursos. Esses incidentes podem causar picos enormes de tráfego, criar ciclos de computação descontrolados para mitigação e exigir operações longas e de alta energia para análise forense, limpeza e restauração de dados. Medidas de segurança eficientes podem ajudar a evitar picos desnecessários no uso de recursos para que suas operações permaneçam estáveis, previsíveis e eficientes em termos de energia.

Experiência do usuário

Sistemas que priorizam eficiência, performance, acessibilidade e uso mínimo de dados podem ajudar a reduzir o consumo de energia pelos usuários finais. Um aplicativo que carrega um modelo menor ou processa menos dados para fornecer resultados mais rápidos ajuda a reduzir a energia consumida por dispositivos de rede e dispositivos do usuário final. Essa redução no uso de energia beneficia principalmente usuários com largura de banda limitada ou que usam dispositivos mais antigos. Além disso, a arquitetura sustentável ajuda a minimizar os danos ao planeta e demonstra seu compromisso com a tecnologia socialmente responsável.

Valor da sustentabilidade da migração para a nuvem

A migração de cargas de trabalho locais para a nuvem pode ajudar a reduzir a pegada ambiental da sua organização. A transição para infraestrutura em nuvem pode reduzir o uso de energia e as emissões associadas em 1,4 a 2 vezes em comparação com implantações locais típicas. Os data centers na nuvem são instalações modernas e projetadas sob medida para alta eficiência no uso de energia (PUE). Os data centers locais mais antigos geralmente não têm a escala necessária para justificar investimentos em sistemas avançados de resfriamento e distribuição de energia.

Responsabilidade compartilhada e destino compartilhado

Responsabilidades compartilhadas e destino compartilhado no Google Cloud descreve como a segurança para cargas de trabalho na nuvem é uma responsabilidade compartilhada entre o Google e você, o cliente. Esse modelo de responsabilidade compartilhada também se aplica à sustentabilidade.

O Google é responsável pela sustentabilidade de Google Cloud, o que significa a eficiência energética e a gestão da água dos nossos data centers, infraestrutura e serviços principais. Investimos continuamente em energia renovável, resfriamento com consciência climática e otimização de hardware. Para mais informações sobre a estratégia e o progresso de sustentabilidade do Google, consulte o Relatório ambiental de sustentabilidade do Google de 2025.

Você, o cliente, é responsável pela sustentabilidade na nuvem, o que significa otimizar suas cargas de trabalho para serem eficientes em termos de energia. Por exemplo, é possível dimensionar corretamente os recursos, usar serviços sem servidor que escalonam para zero e gerenciar os ciclos de vida dos dados de maneira eficaz.

Também defendemos um modelo de destino compartilhado: a sustentabilidade não é apenas uma divisão de tarefas, mas uma parceria colaborativa entre você e o Google para reduzir a pegada ambiental de todo o ecossistema.

Use a IA para gerar impacto nos negócios

O pilar de sustentabilidade do framework bem arquitetado (este documento) inclui orientações para ajudar você a projetar sistemas de IA sustentáveis. No entanto, uma estratégia de sustentabilidade abrangente vai além do impacto ambiental das cargas de trabalho de IA. A estratégia precisa incluir maneiras de usar a IA para otimizar operações e criar novo valor comercial.

A IA serve como um catalisador para a sustentabilidade, transformando grandes conjuntos de dados em insights úteis. Ele permite que as organizações façam a transição de uma conformidade reativa para uma otimização proativa, como nas seguintes áreas:

  • Eficiência operacional: otimize as operações com melhor gerenciamento de inventário, otimização da cadeia de suprimentos e gerenciamento inteligente de energia.
  • Transparência e risco: use dados para ter transparência granular na cadeia de suprimentos, conformidade regulatória e modelagem de risco climático.
  • Valor e crescimento: desenvolva novas fontes de receita em finanças sustentáveis e recomércio.

O Google oferece os seguintes produtos e recursos para ajudar você a extrair insights dos dados e criar recursos para um futuro sustentável:

  • IA do Google Earth: usa dados geoespaciais em escala planetária para analisar mudanças ambientais e monitorar os impactos na cadeia de suprimentos.
  • WeatherNext: fornece previsões meteorológicas avançadas e análises de risco climático para ajudar você a criar resiliência contra a volatilidade climática.
  • Insights geoespaciais com o Google Earth: usa dados geoespaciais para adicionar dados contextuais relevantes a locais, o que permite uma seleção de sites, um planejamento de recursos e operações mais inteligentes.
  • Otimização de rotas do Google Maps: otimiza a logística e as rotas de entrega para aumentar a eficiência e reduzir o consumo de combustível e as emissões de transporte.

Colaborações com parceiros e clientes

Google Cloud e a TELUS fizeram uma parceria para promover a sustentabilidade na nuvem migrando cargas de trabalho para a infraestrutura neutra em carbono do Google e usando a análise de dados para otimizar as operações. Essa colaboração oferece benefícios sociais e ambientais por meio de iniciativas como a tecnologia de cidades inteligentes, que usa dados em tempo real para reduzir o congestionamento do trânsito e as emissões de carbono em municípios do Canadá. Para mais informações sobre essa colaboração, consulte Google Cloud e TELUS colaboram para a sustentabilidade.

Princípios básicos

As recomendações no pilar de sustentabilidade do framework Well-Architected são mapeadas para os seguintes princípios básicos:

Colaboradores

Autor: Brett Tackaberry | Arquiteto principal

Outros colaboradores:

Use regiões que consomem energia de baixo carbono

Esse princípio no pilar de sustentabilidade do Google Cloud Well-Architected Framework fornece recomendações para ajudar você a selecionar regiões de baixo carbono para suas cargas de trabalho no Google Cloud.

Visão geral do princípio

Ao planejar a implantação de uma carga de trabalho em Google Cloud, uma decisão arquitetônica importante é a escolha da região Google Cloud para a carga de trabalho. Essa decisão afeta a pegada de carbono da sua carga de trabalho. Para minimizar a pegada de carbono, sua estratégia de seleção de região precisa incluir os seguintes elementos:

  • Seleção orientada por dados: para identificar e priorizar regiões, considere o indicador ícone de folha Baixo CO2 e a métrica energia livre de carbono (CFE).
  • Governança baseada em políticas: restrinja a criação de recursos a locais ambientalmente ideais usando a restrição de locais de recursos no Serviço de políticas da organização.
  • Flexibilidade operacional: use técnicas como mudança de horário e programação com reconhecimento de carbono para executar cargas de trabalho em lote durante as horas em que a intensidade de carbono da rede elétrica é menor.

A eletricidade usada para alimentar seu aplicativo e as cargas de trabalho na nuvem é um fator importante que afeta sua escolha de regiões do Google Cloud . Além disso, considere os seguintes fatores:

  • Residência e soberania de dados: o local onde você precisa armazenar seus dados é um fator fundamental que determina sua escolha de região do Google Cloud. Essa escolha afeta a conformidade com os requisitos locais de residência de dados.
  • Latência para usuários finais: a distância geográfica entre os usuários finais e as regiões em que você implanta aplicativos afeta a experiência do usuário e o desempenho do aplicativo.
  • Custo: os preços dos recursos do Google Cloud podem variar de acordo com a região.

A ferramenta Google Cloud Seletor de região ajuda você a escolher as regiões Google Cloud ideais com base nos seus requisitos de pegada de carbono, custo e latência. Você também pode usar o Localizador de locais na nuvem para encontrar locais na nuvem no Google Cloud e em outros provedores com base nos seus requisitos de proximidade, uso de energia livre de carbono (CFE) e outros parâmetros.

Recomendações

Para implantar suas cargas de trabalho na nuvem em regiões de baixa emissão de carbono, considere as recomendações nas seções a seguir. Essas recomendações são baseadas nas orientações em Energia livre de carbono para regiões de Google Cloud .

Entender a intensidade de carbono das regiões de nuvem

Google Cloud data centers em uma região usam energia da rede elétrica onde a região está localizada. O Google mede o impacto de carbono de uma região usando a métrica CFE, que é calculada a cada hora. A CFE indica a porcentagem de energia livre de carbono do total consumido durante uma hora. A métrica CFE depende de dois fatores:

  • O tipo de usinas de geração de energia que abastecem a rede durante um determinado período.
  • Energia limpa atribuída ao Google fornecida à rede elétrica durante esse período.

Para informações sobre a CFE% média agregada por hora de cada regiãoGoogle Cloud , consulte Energia livre de carbono para regiões Google Cloud . Você também pode acessar esses dados em um formato legível por máquina no repositório Carbon free energy for Google Cloud regions no GitHub e em um conjunto de dados públicos do BigQuery.

Incorpore o CFE na sua estratégia de seleção de locais

Considere as seguintes recomendações:

  • Selecione a região mais limpa para seus aplicativos. Se você planeja executar um aplicativo por um longo período, faça isso na região com a maior porcentagem de CFE. Para cargas de trabalho em lote, você tem mais flexibilidade na escolha de uma região porque é possível prever quando a carga de trabalho precisa ser executada.
  • Selecione regiões de baixa emissão de carbono. Algumas páginas do site Google Cloud e seletores de local no console Google Cloud mostram o indicadorícone de folha Baixo CO2 para regiões com o menor impacto de carbono.
  • Restrinja a criação de recursos a regiões específicas de baixo carbono Google Cloudusando a restrição de política da organização de locais de recursos. Por exemplo, para permitir a criação de recursos apenas em regiões de baixo carbono nos EUA, crie uma restrição que especifique o grupo de valores in:us-low-carbon-locations.

Ao selecionar locais para seus recursos do Google Cloud , considere também as práticas recomendadas para a seleção de regiões, incluindo fatores como requisitos de residência de dados, latência para usuários finais, redundância do aplicativo, disponibilidade de serviços e preços.

Usar a programação por horário do dia

A intensidade de carbono de uma rede elétrica pode variar muito ao longo do dia. A variação depende da combinação de fontes de energia que abastecem a rede. É possível programar cargas de trabalho, principalmente as flexíveis ou não urgentes, para serem executadas quando a rede é abastecida por uma proporção maior de CFE.

Por exemplo, muitas redes têm porcentagens de CFE mais altas durante horários de menor demanda ou quando fontes renováveis, como energia solar e eólica, fornecem mais energia à rede. Ao programar tarefas com uso intensivo de computação, como treinamento de modelo e inferência em lote em grande escala, durante as horas de maior CFE, é possível reduzir significativamente as emissões de carbono associadas sem afetar o desempenho ou o custo. Essa abordagem é conhecida como mudança de horário, em que você usa a natureza dinâmica da intensidade de carbono de uma rede para otimizar suas cargas de trabalho em prol da sustentabilidade.

Otimizar cargas de trabalho de IA e ML para eficiência energética

Esse princípio no pilar de sustentabilidade do Google Cloud Well-Architected Framework fornece recomendações para otimizar as cargas de trabalho de IA e ML e reduzir o uso de energia e a pegada de carbono.

Visão geral do princípio

Para otimizar as cargas de trabalho de IA e ML para a sustentabilidade, é necessário adotar uma abordagem holística para projetar, implantar e operar as cargas de trabalho. Selecione modelos adequados e hardware especializado, como unidades de processamento de tensor (TPUs), execute as cargas de trabalho em regiões de baixa emissão de carbono, otimize para reduzir o uso de recursos e aplique as práticas recomendadas operacionais.

Práticas arquitetônicas e operacionais que otimizam o custo e a performance das cargas de trabalho de IA e ML levam naturalmente à redução do consumo de energia e da pegada de carbono. A perspectiva de IA e ML do framework Well-Architected descreve princípios e recomendações para projetar, criar e gerenciar cargas de trabalho de IA e ML que atendam às suas metas operacionais, de segurança, confiabilidade, custo e performance. Além disso, o Centro de Arquitetura do Cloud oferece arquiteturas de referência detalhadas e guias de design para cargas de trabalho de IA e ML em Google Cloud.

Recomendações

Para otimizar as cargas de trabalho de IA e ML em termos de eficiência energética, considere as recomendações nas seções a seguir.

Projete para eficiência energética usando TPUs

As cargas de trabalho de IA e ML podem exigir muito poder de computação. O consumo de energia pelas cargas de trabalho de IA e ML é uma consideração importante para a sustentabilidade. Com as TPUs, é possível melhorar significativamente a eficiência energética e a sustentabilidade das cargas de trabalho de IA e ML.

As TPUs são aceleradores personalizados criados especificamente para cargas de trabalho de IA e ML. A arquitetura especializada das TPUs as torna altamente eficazes para multiplicação de matrizes em grande escala, que é a base do aprendizado profundo. As TPUs podem realizar tarefas complexas em grande escala com mais eficiência do que processadores de uso geral, como CPUs ou GPUs.

As TPUs oferecem os seguintes benefícios diretos para a sustentabilidade:

  • Menor consumo de energia: as TPUs são projetadas para eficiência energética ideal. Elas oferecem mais computações por watt de energia consumida. A arquitetura especializada reduz significativamente as demandas de energia de tarefas de treinamento e inferência em grande escala, o que leva à redução dos custos operacionais e do consumo de energia.
  • Treinamento e inferência mais rápidos: o desempenho excepcional das TPUs permite treinar modelos complexos de IA em horas, em vez de dias. Essa redução significativa no tempo total de computação contribui diretamente para uma pegada ambiental menor.
  • Menor necessidade de resfriamento: as TPUs incorporam resfriamento líquido avançado, que oferece gerenciamento térmico eficiente e reduz significativamente a energia usada para resfriar o data center.
  • Otimização do ciclo de vida da IA: ao integrar hardware e software, as TPUs oferecem uma solução otimizada em todo o ciclo de vida da IA, desde o processamento de dados até a disponibilização de modelos.

Siga as práticas recomendadas dos 4Ms para seleção de recursos

O Google recomenda um conjunto de práticas recomendadas para reduzir significativamente o uso de energia e as emissões de carbono em cargas de trabalho de IA e ML. Chamamos essas práticas recomendadas de 4Ms:

  • Modelo: selecione arquiteturas de modelos de ML eficientes. Por exemplo, os modelos esparsos melhoram a qualidade do ML e reduzem a computação de 3 a 10 vezes em comparação com os modelos densos.
  • Máquina: escolha processadores e sistemas otimizados para treinamento de ML. Esses processadores melhoram o desempenho e a eficiência energética de duas a cinco vezes em comparação com os de uso geral.
  • Mecanização: implante suas cargas de trabalho de computação intensiva na nuvem. Suas cargas de trabalho usam menos energia e causam emissões de 1,4 a 2 vezes menores em comparação com implantações locais. Os data centers na nuvem usam warehouses mais novos e projetados sob medida, criados para eficiência energética e com uma alta taxa de eficiência no uso de energia (PUE). Os data centers locais costumam ser mais antigos e menores, portanto, os investimentos em sistemas de resfriamento e distribuição de energia com eficiência energética podem não ser econômicos.
  • Mapa: selecione Google Cloud locais que usam a energia mais limpa. Essa abordagem ajuda a reduzir a pegada de carbono bruta das suas cargas de trabalho em 5 a 10 vezes. Para mais informações, consulte Energia livre de carbono para regiões Google Cloud .

Para mais informações sobre as práticas recomendadas e as métricas de eficiência dos 4Ms, consulte os seguintes artigos de pesquisa:

Otimizar modelos e algoritmos de IA para treinamento e inferência

A arquitetura de um modelo de IA e os algoritmos usados para treinamento e inferência têm um impacto significativo no consumo de energia. Considere as recomendações a seguir.

Selecionar modelos de IA eficientes

Escolha modelos de IA menores e mais eficientes que atendam aos seus requisitos de desempenho. Não selecione o maior modelo disponível como opção padrão. Por exemplo, uma versão menor e destilada de um modelo, como o DistilBERT, pode oferecer desempenho semelhante com uma sobrecarga computacional significativamente menor e inferência mais rápida do que um modelo maior, como o BERT.

Usar soluções hiper eficientes e específicas do domínio

Escolha soluções especializadas de ML que ofereçam melhor desempenho e exijam muito menos poder de computação do que um modelo de base grande. Essas soluções especializadas costumam ser pré-treinadas e hiperotimizadas. Elas podem reduzir significativamente o consumo de energia e o esforço de pesquisa para cargas de trabalho de treinamento e inferência. Confira alguns exemplos de soluções especializadas específicas do domínio:

  • O Earth AI é uma solução eficiente em termos de energia que sintetiza grandes quantidades de dados geoespaciais globais para fornecer insights oportunos, precisos e úteis.
  • O WeatherNext produz previsões climáticas globais mais rápidas, eficientes e altamente precisas em comparação com os métodos convencionais baseados em física.

Aplicar técnicas adequadas de compactação de modelos

Confira a seguir exemplos de técnicas que podem ser usadas para compactação de modelos:

  • Poda: remoção de parâmetros desnecessários de uma rede neural. São parâmetros que não contribuem de forma significativa para a performance de um modelo. Essa técnica reduz o tamanho do modelo e os recursos computacionais necessários para a inferência.
  • Quantização: reduz a precisão dos parâmetros do modelo. Por exemplo, reduza a precisão de ponto flutuante de 32 bits para números inteiros de 8 bits. Essa técnica pode ajudar a diminuir significativamente a ocupação de memória e o consumo de energia sem uma redução perceptível na acurácia.
  • Destilação de conhecimento: treine um modelo estudante menor para imitar o comportamento de um modelo professor maior e mais complexo. O modelo do estudante pode alcançar um alto nível de performance com menos parâmetros e usando menos energia.

Usar hardware especializado

Como mencionado em Siga as práticas recomendadas dos 4Ms para seleção de recursos, escolha processadores e sistemas otimizados para treinamento de ML. Esses processadores melhoram o desempenho e a eficiência energética de duas a cinco vezes em comparação com processadores de uso geral.

Usar ajustes finos com eficiência de parâmetros

Em vez de ajustar todos os bilhões de parâmetros de um modelo (ajuste fino completo), use métodos de ajuste fino com eficiência de parâmetros (PEFT), como adaptação de classificação baixa (LoRA). Com essa técnica, você congela os pesos do modelo original e treina apenas um pequeno número de camadas novas e leves. Essa abordagem ajuda a reduzir o custo e o consumo de energia.

Siga as práticas recomendadas para operações de IA e ML

As práticas operacionais afetam significativamente a sustentabilidade das suas cargas de trabalho de IA e ML. Considere as recomendações a seguir.

Otimizar processos de treinamento de modelo

Use as técnicas a seguir para otimizar os processos de treinamento de modelo:

  • Parada antecipada: monitore o processo de treinamento e interrompa-o quando não houver mais melhorias no desempenho do modelo em relação ao conjunto de validação. Essa técnica ajuda a evitar cálculos e uso de energia desnecessários.
  • Carregamento eficiente de dados: use pipelines de dados eficientes para garantir que as GPUs e TPUs sejam sempre utilizadas e não esperem por dados. Essa técnica ajuda a maximizar o uso de recursos e reduzir o desperdício de energia.
  • Ajuste otimizado de hiperparâmetros: para encontrar hiperparâmetros ideais com mais eficiência, use técnicas como otimização bayesiana ou aprendizado por reforço. Evite pesquisas exaustivas em grade, que podem ser operações com uso intenso de recursos.

Melhorar a eficiência da inferência

Para melhorar a eficiência das tarefas de inferência de IA, use as seguintes técnicas:

  • Loteamento: agrupe várias solicitações de inferência em lotes e aproveite o processamento paralelo em GPUs e TPUs. Essa técnica ajuda a reduzir o custo de energia por previsão.
  • Cache avançado: implemente uma estratégia de cache de várias camadas, que inclui cache de chave-valor (KV) para geração autorregressiva e cache de solicitação semântica para respostas de aplicativos. Essa técnica ajuda a evitar cálculos redundantes do modelo e pode gerar reduções significativas no uso de energia e nas emissões de carbono.

Medir e monitorar

Monitore e meça os seguintes parâmetros:

  • Uso e custo: use as ferramentas adequadas para acompanhar o uso de tokens, o consumo de energia e a pegada de carbono das suas cargas de trabalho de IA. Esses dados ajudam você a identificar oportunidades de otimização e informar o progresso em relação às metas de sustentabilidade.
  • Performance: monitore continuamente a performance do modelo em produção. Identifique problemas como a deriva de dados, que pode indicar que o modelo precisa ser ajustado novamente. Se precisar treinar o modelo de novo, use o modelo refinado original como ponto de partida e economize tempo, dinheiro e energia significativos nas atualizações.

Para mais informações sobre como operacionalizar a melhoria contínua, consulte Medir e melhorar continuamente a sustentabilidade.

Implementar o agendamento com reconhecimento de carbono

Projete seus jobs de pipeline de ML para serem executados em regiões com a combinação de energia mais limpa. Use o relatório de Pegada de carbono para identificar as regiões com menor intensidade de carbono. Programe tarefas que exigem muitos recursos como jobs em lote durante períodos em que a rede elétrica local tem uma porcentagem maior de energia livre de carbono (CFE).

Otimize os pipelines de dados

As operações de ML e o ajuste fino exigem um conjunto de dados limpo e de alta qualidade. Antes de iniciar jobs de ML, use serviços gerenciados de tratamento de dados para preparar os dados de maneira eficiente. Por exemplo, use o Dataflow para processamento em lote e de streaming e o Dataproc para pipelines gerenciados do Spark e do Hadoop. Um pipeline de dados otimizado ajuda a garantir que sua carga de trabalho de ajuste fino não espere pelos dados. Assim, você pode maximizar a utilização de recursos e reduzir o desperdício de energia.

Adotar o MLOps

Para automatizar e gerenciar todo o ciclo de vida do ML, implemente práticas de operações de ML (MLOps). Essas práticas ajudam a garantir que os modelos sejam monitorados, validados e reimplantados continuamente de maneira eficiente, o que ajuda a evitar treinamento ou alocação de recursos desnecessários.

Usar serviços gerenciados

Em vez de gerenciar sua própria infraestrutura, use serviços de nuvem gerenciados, como a Vertex AI. A plataforma de nuvem processa o gerenciamento de recursos subjacente, permitindo que você se concentre no processo de ajuste. Use serviços que incluem ferramentas integradas para ajuste de hiperparâmetros, monitoramento de modelos e gerenciamento de recursos.

A seguir

Otimizar o uso de recursos para sustentabilidade

Esse princípio no pilar de sustentabilidade do Google Cloud Well-Architected Framework fornece recomendações para ajudar você a otimizar o uso de recursos pelas cargas de trabalho no Google Cloud.

Visão geral do princípio

Otimizar o uso de recursos é fundamental para aumentar a sustentabilidade do seu ambiente de nuvem. Cada recurso provisionado, desde ciclos de computação até armazenamento de dados, afeta diretamente o uso de energia, a intensidade da água e as emissões de carbono. Para reduzir o impacto ambiental das suas cargas de trabalho, é necessário fazer escolhas conscientes ao provisionar, gerenciar e usar recursos da nuvem.

Recomendações

Para otimizar o uso de recursos, considere as recomendações nas seções a seguir.

Implementar o escalonamento automático e dinâmico

O escalonamento automático e dinâmico garante que o uso de recursos seja ideal, o que ajuda a evitar o desperdício de energia de infraestruturas ociosas ou provisionadas em excesso. A redução no desperdício de energia se traduz em custos e emissões de carbono menores.

Use as técnicas a seguir para implementar a escalonabilidade automática e dinâmica.

Usar o escalonamento horizontal

O escalonamento horizontal é a técnica preferida para a maioria dos aplicativos prioritários para a nuvem. Em vez de aumentar o tamanho de cada instância, o que é conhecido como escalonamento vertical, você adiciona instâncias para distribuir a carga. Por exemplo, você pode usar grupos gerenciados de instâncias (MIGs) para escalonar horizontalmente automaticamente um grupo de VMs do Compute Engine. A infraestrutura escalonada horizontalmente é mais resiliente porque a falha de uma instância não afeta a disponibilidade do aplicativo. O escalonamento horizontal também é uma técnica eficiente em termos de recursos para aplicativos com níveis de carga variáveis.

Configurar políticas de escalonamento adequadas

Configure as opções de escalonamento automático com base nos requisitos das cargas de trabalho. Defina métricas e limites personalizados específicos para o comportamento do aplicativo. Em vez de depender apenas da utilização da CPU, considere métricas como profundidade da fila para tarefas assíncronas, latência de solicitação e métricas personalizadas de aplicativos. Para evitar escalonamento frequente e desnecessário ou oscilação, defina políticas de escalonamento claras. Por exemplo, para cargas de trabalho implantadas no Google Kubernetes Engine (GKE), configure uma política de escalonamento automático de cluster adequada.

Combinar o dimensionamento reativo e proativo

Com o escalonamento reativo, o sistema é escalonado em resposta a mudanças de carga em tempo real. Essa técnica é adequada para aplicativos com picos imprevisíveis de carga.

O escalonamento proativo é adequado para cargas de trabalho com padrões previsíveis, como horário comercial diário fixo e geração de relatórios semanais. Para essas cargas de trabalho, use o escalonamento automático programado para provisionar recursos antecipadamente para que eles possam lidar com um nível de carga previsto. Essa técnica evita uma disputa por recursos e garante uma experiência do usuário mais tranquila e com maior eficiência. Essa técnica também ajuda você a planejar de forma proativa picos conhecidos de carga, como grandes eventos de vendas e esforços de marketing focados.

Google Cloud serviços e recursos gerenciados, como o Autopilot do GKE, o Cloud Run e os MIGs, gerenciam automaticamente o escalonamento proativo aprendendo com seus padrões de carga de trabalho. Por padrão, quando um serviço do Cloud Run não recebe tráfego, ele é escalonado para zero instâncias.

Projetar aplicativos sem estado

Para que um aplicativo seja escalonado horizontalmente, os componentes precisam ser sem estado. Isso significa que a sessão ou os dados de um usuário específico não estão vinculados a uma única instância de computação. Quando você armazena o estado da sessão fora da instância de computação, como no Memorystore para Redis, qualquer instância de computação pode processar solicitações de qualquer usuário. Essa abordagem de design permite um escalonamento horizontal eficiente e sem interrupções.

Usar programação e lotes

O processamento em lote é ideal para cargas de trabalho em grande escala e não urgentes. Os jobs em lote podem ajudar a otimizar suas cargas de trabalho para eficiência energética e custo.

Use as técnicas a seguir para implementar o agendamento e os trabalhos em lote.

Programação para baixa intensidade de carbono

Programe a execução dos seus jobs em lote em regiões de baixa emissão de carbono e durante períodos em que a rede elétrica local tem uma alta porcentagem de energia limpa. Para identificar os horários do dia com menos emissão de carbono em uma região, use o relatório de Pegada de carbono.

Usar VMs do Spot para cargas de trabalho não essenciais

As VMs spot permitem aproveitar a capacidade não utilizada do Compute Engine com um grande desconto. As VMs spot podem ser interrompidas, mas oferecem uma maneira econômica de processar grandes conjuntos de dados sem a necessidade de recursos dedicados e sempre ativos. As VMs do Spot são ideais para jobs em lote não críticos e tolerantes a falhas.

Consolidar e paralelizar jobs

Para reduzir a sobrecarga de iniciar e encerrar jobs individuais, agrupe jobs semelhantes em um único lote grande. Execute essas cargas de trabalho de alto volume em serviços como o Batch. O serviço provisiona e gerencia automaticamente a infraestrutura necessária, o que ajuda a garantir a utilização ideal dos recursos.

Usar serviços gerenciados

Serviços gerenciados, como o Batch e o Dataflow, processam automaticamente o provisionamento, o agendamento e o monitoramento de recursos. A plataforma de nuvem processa a otimização de recursos. Você pode se concentrar na lógica do aplicativo. Por exemplo, o Dataflow escalona automaticamente o número de workers com base no volume de dados no pipeline, para que você não pague por recursos ociosos.

Corresponder famílias de máquinas de VM aos requisitos de carga de trabalho

Os tipos de máquinas que podem ser usados nas VMs do Compute Engine são agrupados em famílias de máquinas, que são otimizadas para diferentes cargas de trabalho. Escolha as famílias de máquinas adequadas com base nos requisitos das suas cargas de trabalho.

Família de máquinas Recomendado para tipos de carga de trabalho Orientação sobre sustentabilidade
Instâncias de uso geral (E2, N2, N4, Tau T2A/T2D): Essas instâncias oferecem uma proporção equilibrada de CPU para memória. Servidores da Web, microsserviços, bancos de dados pequenos a médios e ambientes de desenvolvimento. A série E2 é altamente econômica e eficiente em termos de energia devido à alocação dinâmica de recursos. A série Tau T2A usa processadores baseados em Arm, que costumam ser mais eficientes em termos de energia por unidade de desempenho para cargas de trabalho em grande escala.
Instâncias com otimização para computação (C2, C3): essas instâncias oferecem uma alta proporção de vCPU para memória e alto desempenho por núcleo. Computação de alto desempenho (HPC), processamento em lote, servidores de jogos e análise de dados com base em CPU. Uma instância da série C permite concluir tarefas com uso intensivo de CPU mais rapidamente, o que reduz o tempo total de computação e o consumo de energia do job.
Instâncias com otimização de memória (M3, M2): essas instâncias são projetadas para cargas de trabalho que exigem uma grande quantidade de memória. Grandes bancos de dados e data warehouses na memória, como SAP HANA ou análise na memória. As instâncias com otimização de memória permitem a consolidação de cargas de trabalho com uso intensivo de memória em menos nós físicos. Essa consolidação reduz a energia total necessária em comparação com o uso de várias instâncias menores. A memória de alto desempenho reduz a latência de acesso a dados, o que pode diminuir o tempo total que a CPU passa em um estado ativo.
Instâncias otimizadas para armazenamento (Z3) : essas instâncias oferecem armazenamento SSD local de alta capacidade de processamento e baixa latência. Armazenamento em data warehouse, análise de registros e bancos de dados SQL, NoSQL e vetoriais. As instâncias otimizadas para armazenamento processam grandes conjuntos de dados localmente, o que ajuda a eliminar a energia usada para a saída de dados de rede entre locais. Ao usar o armazenamento local para tarefas de alta IOPS, você evita o provisionamento excessivo de várias instâncias padrão.
Instâncias otimizadas para acelerador (A3, A2, G2): essas instâncias são criadas para cargas de trabalho aceleradas por GPU e TPU, como IA, ML e HPC. Treinamento e inferência de modelos de ML e simulações científicas.

As TPUs são projetadas para oferecer eficiência energética ideal. Elas oferecem mais computações por watt.

Uma instância acelerada por GPU, como a série A3 com GPUs NVIDIA H100, pode ser muito mais eficiente em termos de energia para treinar modelos grandes do que uma alternativa somente com CPU. Embora uma instância acelerada por GPU tenha um uso de energia nominal maior, a tarefa é concluída muito mais rápido.

Fazer upgrade para os tipos de máquinas mais recentes

O uso dos tipos de máquina mais recentes pode ajudar a melhorar a sustentabilidade. Quando os tipos de máquinas são atualizados, eles geralmente são projetados para serem mais eficientes em termos de energia e oferecerem maior desempenho por watt. As VMs que usam os tipos de máquina mais recentes podem concluir a mesma quantidade de trabalho com menor consumo de energia.

CPUs, GPUs e TPUs geralmente se beneficiam de avanços técnicos na arquitetura de chips, como:

  • Núcleos especializados: os avanços nos processadores geralmente incluem núcleos ou instruções especializados para cargas de trabalho comuns. Por exemplo, as CPUs podem ter núcleos dedicados para operações de vetor ou aceleradores de IA integrados. Quando essas tarefas são descarregadas da CPU principal, elas são concluídas de maneira mais eficiente e consomem menos energia.
  • Gerenciamento de energia aprimorado: os avanços nas arquiteturas de chips geralmente incluem recursos de gerenciamento de energia mais sofisticados, como ajuste dinâmico de tensão e frequência com base na carga de trabalho. Esses recursos de gerenciamento de energia permitem que os chips funcionem com eficiência máxima e entrem em estados de baixo consumo quando estão ociosos, o que minimiza o consumo de energia.

As melhorias técnicas na arquitetura do chip oferecem os seguintes benefícios diretos para sustentabilidade e custo:

  • Maior desempenho por watt: essa é uma métrica fundamental para a sustentabilidade. Por exemplo, as VMs C4 demonstram um custo-benefício 40% maior quando comparadas às VMs C3 para o mesmo consumo de energia. O processador C4A oferece 60% mais eficiência energética em comparação com processadores x86 semelhantes. Com esses recursos, você pode concluir tarefas mais rápido ou usar menos instâncias para a mesma carga.
  • Menor consumo total de energia: com processadores aprimorados, os recursos de computação são usados por um período mais curto para uma determinada tarefa, o que reduz o uso geral de energia e a pegada de carbono. O impacto de carbono é particularmente alto para cargas de trabalho de curta duração e com uso intensivo de computação, como jobs em lote e treinamento de modelo de ML.
  • Utilização ideal de recursos: os tipos de máquinas mais recentes geralmente são mais adequados para softwares modernos e mais compatíveis com recursos avançados de plataformas de nuvem. Esses tipos de máquinas geralmente permitem melhor utilização de recursos, o que reduz a necessidade de provisionamento excessivo e ajuda a garantir que cada watt de energia seja usado de forma produtiva.

Implantar aplicativos conteinerizados

É possível usar serviços totalmente gerenciados e baseados em contêineres, como o GKE e o Cloud Run, como parte da sua estratégia de computação em nuvem sustentável. Esses serviços ajudam a otimizar a utilização de recursos e automatizar o gerenciamento deles.

Aproveite o recurso de escalonamento até zero do Cloud Run

O Cloud Run oferece um ambiente sem servidor gerenciado que dimensiona automaticamente as instâncias para zero quando não há tráfego de entrada para um serviço ou quando um job é concluído. O escalonamento automático ajuda a eliminar o consumo de energia da infraestrutura ociosa. Os recursos são ativados somente quando processam solicitações ativamente. Essa estratégia é altamente eficaz para cargas de trabalho intermitentes ou orientadas a eventos. Para cargas de trabalho de IA, use GPUs com o Cloud Run, que permite consumir e pagar por GPUs apenas quando elas são usadas.

Automatizar a otimização de recursos usando o GKE

O GKE é uma plataforma de orquestração de contêineres que garante que os aplicativos usem apenas os recursos de que precisam. Para ajudar você a automatizar a otimização de recursos, o GKE oferece as seguintes técnicas:

  • Empacotamento por classes: o GKE Autopilot empacota de maneira inteligente vários contêineres nos nós disponíveis. O bin packing maximiza a utilização de cada nó e reduz o número de nós ociosos ou subutilizados, o que ajuda a reduzir o consumo de energia.
  • Escalonamento automático horizontal de pods (HPA): com o HPA, o número de réplicas de contêiner (pods) é ajustado automaticamente com base em métricas predefinidas, como uso da CPU ou métricas personalizadas específicas do aplicativo. Por exemplo, se o aplicativo tiver um pico de tráfego, o GKE vai adicionar pods para atender à demanda. Quando o tráfego diminui, o GKE reduz o número de pods. Esse escalonamento dinâmico evita o provisionamento excessivo de recursos, para que você não pague nem ative capacidade de computação desnecessária.
  • Escalonamento automático vertical de pods (VPA): é possível configurar o GKE para ajustar automaticamente as alocações e os limites de CPU e memória para contêineres individuais. Essa configuração garante que um contêiner não receba mais recursos do que precisa, o que ajuda a evitar o provisionamento excessivo de recursos.
  • Escalonamento automático multidimensional de pods do GKE: para cargas de trabalho complexas, é possível configurar o HPA e o VPA simultaneamente para otimizar o número de pods e o tamanho de cada um deles. Essa técnica ajuda a garantir o menor consumo de energia possível para a performance necessária.
  • Programação com reconhecimento de topologia (TAS): a TAS melhora a eficiência da rede para cargas de trabalho de IA e ML no GKE ao posicionar pods com base na estrutura física da infraestrutura do data center. O TAS aloca estrategicamente as cargas de trabalho para minimizar os saltos de rede. Essa colocalização ajuda a reduzir a latência de comunicação e o consumo de energia. Ao otimizar o alinhamento físico dos nós e do hardware especializado, o TAS acelera a conclusão de tarefas e maximiza a eficiência energética de cargas de trabalho de IA e ML em grande escala.

Configurar o agendamento com reconhecimento de emissões de carbono

No Google, mudamos continuamente nossas cargas de trabalho para locais e horários que oferecem a eletricidade mais limpa. Também reutilizamos ou coletamos equipamentos mais antigos para casos de uso alternativos. Use essa estratégia de programação com reconhecimento de carbono para garantir que suas cargas de trabalho em contêineres usem energia limpa.

Para implementar o agendamento com reconhecimento de carbono, você precisa de informações em tempo real sobre o mix de energia que alimenta os data centers em uma região. Você pode acessar essas informações em um formato legível por máquina no repositório Energia livre de carbono para regiões de Google Cloud no GitHub ou em um conjunto de dados público do BigQuery. Os dados de intensidade de carbono e mistura de rede por hora usados para calcular o conjunto de dados anual de carbono do Google são provenientes do Electricity Maps.

Para implementar o agendamento com reconhecimento de carbono, recomendamos as seguintes técnicas:

  • Mudança geográfica: programe suas cargas de trabalho para serem executadas em regiões que usam uma proporção maior de fontes de energia renovável. Essa abordagem permite usar redes elétricas mais limpas.
  • Mudança temporal: para cargas de trabalho não críticas e flexíveis, como o processamento em lote, configure as cargas de trabalho para serem executadas durante horários de menor movimento ou quando a energia renovável estiver mais disponível. Essa abordagem é conhecida como mudança temporal e ajuda a reduzir a pegada de carbono geral aproveitando fontes de energia mais limpas quando elas estão disponíveis.

Projetar uma recuperação de desastres com eficiência energética

A preparação para a recuperação de desastres (DR, na sigla em inglês) geralmente envolve o pré-provisionamento de recursos redundantes em uma região secundária. No entanto, recursos ociosos ou subutilizados podem causar um desperdício significativo de energia. Escolha estratégias de DR que maximizem a utilização de recursos e minimizem o impacto de carbono sem comprometer os objetivos de tempo de recuperação (RTO).

Otimizar para eficiência de inicialização a frio

Use as abordagens a seguir para minimizar ou eliminar recursos ativos na região secundária (DR):

  • Priorize a DR fria: mantenha os recursos na região de DR desligados ou em um estado de escalonamento para zero. Essa abordagem ajuda a eliminar a pegada de carbono dos recursos de computação ociosos.
  • Aproveite o failover sem servidor: use serviços gerenciados sem servidor como o Cloud Run para endpoints de DR. O Cloud Run é escalonado para zero quando não está em uso. Assim, é possível manter uma topologia de DR que não consome energia até que o tráfego seja desviado para a região de DR.
  • Automatize a recuperação com infraestrutura como código (IaC): em vez de manter os recursos em execução (quente) no site de DR, use uma ferramenta de IaC, como o Terraform, para provisionar ambientes rapidamente apenas quando necessário.

Equilibrar redundância e utilização

A redundância de recursos é um dos principais fatores do desperdício de energia. Para reduzir a redundância, use as seguintes abordagens:

  • Prefira ativo-ativo em vez de ativo-passivo: em uma configuração ativo-passivo, os recursos no site passivo ficam ociosos, o que resulta em desperdício de energia. Uma arquitetura ativa-ativa com tamanho ideal garante que todos os recursos provisionados nas duas regiões atendam ativamente ao tráfego. Essa abordagem ajuda a maximizar a eficiência energética da sua infraestrutura.
  • Redundância adequada: replique dados e serviços em regiões somente quando a replicação for necessária para atender aos requisitos de alta disponibilidade ou de DR. Cada réplica adicional aumenta o custo de energia do armazenamento persistente e da saída de rede.

Desenvolver software com eficiência energética

Esse princípio no pilar de sustentabilidade do Google Cloud Framework bem arquitetado fornece recomendações para escrever softwares que minimizem o consumo de energia e a carga do servidor.

Visão geral do princípio

Ao seguir as práticas recomendadas para criar aplicativos na nuvem, você otimiza a energia utilizada pelos recursos infraestrutura em nuvem: IA, computação, armazenamento e rede. Você também ajuda a reduzir os requisitos de água dos data centers e a energia que os dispositivos do usuário final consomem ao acessar seus aplicativos.

Para criar um software com eficiência energética, é preciso integrar considerações de sustentabilidade em todo o ciclo de vida do software, desde o design e o desenvolvimento até a implantação, a manutenção e o arquivamento. Para orientações detalhadas sobre como usar a IA para criar software que minimize o impacto ambiental das cargas de trabalho na nuvem, consulte o e-book Google Cloud , Crie software de forma sustentável.

Recomendações

As recomendações nesta seção são agrupadas nas seguintes áreas de foco:

Minimizar o trabalho computacional

Para escrever um software com eficiência energética, é preciso minimizar a quantidade total de trabalho computacional realizado pelo aplicativo. Cada instrução desnecessária, loop redundante e recurso extra consome energia, tempo e recursos. Use as recomendações a seguir para criar um software que execute cálculos mínimos.

Escrever código simples e focado

Para escrever o mínimo de código essencial para alcançar os resultados necessários, use as seguintes abordagens:

  • Elimine a lógica redundante e o excesso de recursos: escreva um código que execute apenas as funções essenciais. Evite recursos que aumentam a sobrecarga e a complexidade computacionais, mas não oferecem valor mensurável aos usuários.
  • Refatorar: para melhorar a eficiência energética ao longo do tempo, audite regularmente seus aplicativos para identificar recursos não utilizados. Tome medidas para remover ou refatorar esses recursos conforme apropriado.
  • Evite operações desnecessárias: não calcule um valor nem execute uma ação até que o resultado seja necessário. Use técnicas como a avaliação preguiçosa, que atrasa os cálculos até que um componente dependente no aplicativo precise da saída.
  • Priorize a legibilidade e a reutilização do código: escreva um código legível e reutilizável. Essa abordagem minimiza a duplicação e segue o princípio de não se repita (DRY), que pode ajudar a reduzir as emissões de carbono do desenvolvimento e da manutenção de software.

Usar o armazenamento em cache de back-end

O armazenamento em cache no back-end garante que um aplicativo não execute o mesmo trabalho repetidamente. Uma alta proporção de ocorrência em cache leva a uma redução quase linear no consumo de energia por solicitação. Para implementar o armazenamento em cache no back-end, use as seguintes técnicas:

  • Armazenar dados frequentes em cache: armazene dados acessados com frequência em um local de armazenamento temporário e de alta performance. Por exemplo, use um serviço de armazenamento em cache na memória, como o Memorystore. Quando um aplicativo recupera dados de um cache, o volume de consultas de banco de dados e operações de E/S de disco é reduzido. Consequentemente, a carga nos bancos de dados e servidores no back-end diminui.
  • Armazenar respostas da API em cache: para evitar chamadas de rede redundantes e caras, armazene em cache os resultados de solicitações frequentes da API.
  • Priorize o armazenamento em cache na memória: para eliminar operações lentas de E/S de disco e consultas complexas de banco de dados, armazene dados em memória de alta velocidade (RAM).
  • Selecione as estratégias de gravação em cache adequadas:
    • A estratégia de gravação direta garante que os dados sejam gravados de forma síncrona no cache e no armazenamento permanente. Essa estratégia aumenta a probabilidade de ocorrências em cache, para que o armazenamento persistente receba menos solicitações de leitura que consomem muita energia.
    • A estratégia de write-back (write-behind) melhora o desempenho de aplicativos com muitas gravações. Os dados são gravados primeiro no cache, e o banco de dados é atualizado de forma assíncrona mais tarde. Essa estratégia reduz a carga de gravação imediata em bancos de dados mais lentos.
  • Use políticas de remoção inteligentes: mantenha o cache eficiente e com poucos dados. Para remover dados desatualizados ou de baixa utilidade e maximizar o espaço disponível para dados solicitados com frequência, use políticas como time to live (TTL), menos recentemente usado (LRU) e menos frequentemente usado (LFU).

Usar algoritmos e estruturas de dados eficientes

Os algoritmos e as estruturas de dados escolhidos determinam a complexidade computacional bruta do seu software. Ao selecionar algoritmos e estruturas de dados adequados, você minimiza o número de ciclos de CPU e operações de memória necessárias para concluir uma tarefa. Menos ciclos de CPU e operações de memória levam a um menor consumo de energia.

Escolher algoritmos para complexidade de tempo ideal

Priorize algoritmos que alcançam o resultado necessário no menor tempo possível. Essa abordagem ajuda a reduzir a duração do uso de recursos. Para selecionar algoritmos que otimizam o uso de recursos, use as seguintes abordagens:

  • Foco na redução da complexidade: para avaliar a complexidade, vá além das métricas de tempo de execução e considere a complexidade teórica do algoritmo. Por exemplo, quando comparada à ordenação por bolha, a ordenação por fusão reduz significativamente a carga computacional e o consumo de energia em grandes conjuntos de dados.
  • Evite trabalho redundante: use funções integradas e otimizadas na linguagem de programação ou no framework escolhido. Essas funções geralmente são implementadas em uma linguagem de nível mais baixo e mais eficiente em termos de energia, como C ou C++. Assim, elas são mais bem otimizadas para o hardware subjacente em comparação com funções codificadas de maneira personalizada.

Selecionar estruturas de dados para eficiência

As estruturas de dados escolhidas determinam a velocidade com que os dados podem ser recuperados, inseridos ou processados. Essa velocidade afeta o uso da CPU e da memória. Para selecionar estruturas de dados eficientes, use as seguintes abordagens:

  • Otimize para pesquisa e recuperação: para operações comuns, como verificar se um item existe ou recuperar um valor específico, prefira estruturas de dados otimizadas para velocidade. Por exemplo, mapas ou conjuntos de hash permitem pesquisas em tempo quase constante, o que é uma abordagem mais eficiente em termos de energia do que pesquisar linearmente em uma matriz.
  • Minimizar a pegada de memória: estruturas de dados eficientes ajudam a reduzir a pegada de memória geral de um aplicativo. O acesso e o gerenciamento reduzidos da memória levam a um menor consumo de energia. Além disso, um perfil de memória mais eficiente permite que os processos sejam executados com mais eficiência, o que possibilita adiar upgrades de recursos.
  • Use estruturas especializadas: use estruturas de dados criadas especificamente para um determinado problema. Por exemplo, use uma estrutura de dados trie para pesquisa rápida de prefixos de string e uma fila de prioridade quando precisar acessar apenas o valor mais alto ou mais baixo de maneira eficiente.

Otimizar operações de computação e dados

Ao desenvolver software, concentre-se no uso eficiente e proporcional de recursos em toda a pilha de tecnologia. Trate CPU, memória, disco e rede como recursos limitados e compartilhados. Reconheça que o uso eficiente de recursos leva a reduções tangíveis nos custos e no consumo de energia.

Otimizar a utilização da CPU e o tempo ocioso

Para minimizar o tempo que a CPU passa em um estado ativo e de consumo de energia sem realizar um trabalho significativo, use as seguintes abordagens:

  • Prefira a lógica orientada a eventos em vez da pesquisa: substitua loops ocupados ou verificação constante (pesquisa) que consomem muitos recursos por uma lógica orientada a eventos. Uma arquitetura orientada a eventos garante que os componentes de um aplicativo operem apenas quando são acionados por eventos relevantes. Essa abordagem permite o processamento sob demanda, o que elimina a necessidade de sondagem com uso intensivo de recursos.
  • Evite alta frequência constante: escreva um código que não force a CPU a operar constantemente na frequência mais alta. Para minimizar o consumo de energia, os sistemas inativos precisam entrar em estados de baixo consumo de energia ou modos de suspensão.
  • Use o processamento assíncrono: para evitar que as linhas de execução sejam bloqueadas durante tempos de espera ociosos, use o processamento assíncrono. Essa abordagem libera recursos e leva a uma maior utilização geral de recursos.

Gerenciar a memória e a E/S de disco com eficiência

O uso ineficiente da memória e do disco leva a um processamento desnecessário e a um aumento no consumo de energia. Para gerenciar a memória e a E/S de maneira eficiente, use as seguintes técnicas:

  • Gerenciamento estrito de memória: tome medidas para liberar proativamente recursos de memória não utilizados. Evite manter objetos grandes na memória por mais tempo do que o necessário. Essa abordagem evita gargalos de desempenho e reduz a energia consumida para acesso à memória.
  • Otimize a E/S do disco: reduza a frequência das interações de leitura e gravação do aplicativo com recursos de armazenamento permanente. Por exemplo, use um buffer de memória intermediário para armazenar dados. Grave os dados no armazenamento permanente em intervalos fixos ou quando o buffer atingir um determinado tamanho.
  • Operações em lote: consolide operações de disco pequenas e frequentes em operações em lote maiores e em menor número. Uma operação em lote consome menos energia do que muitas transações individuais e pequenas.
  • Use a compactação: reduza a quantidade de dados gravados ou lidos dos discos aplicando técnicas adequadas de compactação de dados. Por exemplo, para compactar dados armazenados no Cloud Storage, use a transcodificação descompactadora.

Minimizar o tráfego de rede

Os recursos de rede consomem muita energia durante as operações de transferência de dados. Para otimizar a comunicação de rede, use as seguintes técnicas:

  • Minimizar o tamanho da carga útil: crie APIs e aplicativos para transferir apenas os dados necessários para uma solicitação. Evite buscar ou retornar estruturas JSON ou XML grandes quando apenas alguns campos são necessários. Verifique se as estruturas de dados retornadas são concisas.
  • Reduza as viagens de ida e volta: para diminuir o número de viagens de ida e volta da rede necessárias para concluir uma ação do usuário, use protocolos mais inteligentes. Por exemplo, prefira HTTP/3 em vez de HTTP/1.1, escolha GraphQL em vez de REST, use protocolos binários e consolide chamadas de API. Ao reduzir o volume de chamadas de rede, você diminui o consumo de energia dos servidores e dos dispositivos do usuário final.

Implementar a otimização de front-end

A otimização de front-end minimiza os dados que os usuários finais precisam baixar e processar, o que ajuda a reduzir a carga nos recursos dos dispositivos deles.

Minimizar código e recursos

Quando os usuários finais precisam fazer o download e processar recursos menores e mais eficientes estruturados, os dispositivos consomem menos energia. Para minimizar o volume de download e a carga de processamento nos dispositivos dos usuários finais, use as seguintes técnicas:

  • Minimização e compactação: para arquivos JavaScript, CSS e HTML, remova caracteres desnecessários, como espaços em branco e comentários, usando ferramentas de minimização adequadas. Verifique se arquivos como imagens estão compactados e otimizados. É possível automatizar a minimização e a compressão de recursos da Web usando um pipeline de CI/CD.
  • Carregamento lento: carregue imagens, vídeos e recursos não essenciais somente quando eles forem realmente necessários, como quando esses elementos rolam para a janela de visualização de uma página da Web. Essa abordagem reduz o volume de transferência de dados inicial e a carga de processamento nos dispositivos dos usuários finais.
  • Pacotes JavaScript menores: elimine o código não usado dos pacotes JavaScript usando agrupadores de módulos modernos e técnicas como tree shaking. Essa abordagem resulta em arquivos menores que carregam mais rápido e usam menos recursos do servidor.
  • Cache do navegador: use cabeçalhos de cache HTTP para instruir o navegador do usuário a armazenar recursos estáticos localmente. O cache do navegador ajuda a evitar downloads repetidos e tráfego de rede desnecessário em visitas subsequentes.

Priorizar uma experiência do usuário (UX) leve

O design da interface do usuário pode ter um impacto significativo na complexidade computacional para renderizar o conteúdo do front-end. Para criar interfaces de front-end que ofereçam uma UX leve, use as seguintes técnicas:

  • Renderização eficiente: evite manipulação frequente e com uso intensivo de recursos do Modelo de objeto de documentos (DOM). Escreva um código que minimize a complexidade de renderização e elimine a nova renderização desnecessária.
  • Padrões de design leves: quando apropriado, prefira sites estáticos ou Progressive Web Apps (PWAs). Esses sites e apps carregam mais rápido e exigem menos recursos do servidor.
  • Acessibilidade e performance: sites responsivos e de carregamento rápido costumam ser mais sustentáveis e acessíveis. Um design otimizado e sem poluição visual reduz os recursos consumidos quando o conteúdo é renderizado. Sites otimizados para performance e velocidade podem ajudar a gerar mais receita. De acordo com um estudo da Deloitte e do Google, Milliseconds Make Millions, uma melhoria de 0,1 segundo (100 ms) na velocidade do site leva a um aumento de 8,4% nas conversões para sites de varejo e de 9,2% no valor médio do pedido.

Otimizar dados e armazenamento para sustentabilidade

Esse princípio no pilar de sustentabilidade do Google Cloud Framework bem arquitetado fornece recomendações para ajudar você a otimizar a eficiência energética e a pegada de carbono dos seus recursos de armazenamento no Google Cloud.

Visão geral do princípio

Os dados armazenados não são um recurso passivo. O consumo de energia e as emissões de carbono ocorrem durante todo o ciclo de vida dos dados. Cada gigabyte de dados armazenados exige uma infraestrutura física que é continuamente alimentada, resfriada e gerenciada. Para criar uma arquitetura de nuvem sustentável, trate os dados como um ativo valioso, mas ambientalmente caro, e priorize a governança de dados proativa.

Suas decisões sobre retenção, qualidade e localização de dados podem ajudar você a reduzir significativamente os custos de nuvem e o consumo de energia. Minimize os dados armazenados, otimize onde e como eles são armazenados e implemente estratégias automatizadas de exclusão e arquivamento. Ao reduzir a desordem de dados, você melhora o desempenho do sistema e reduz fundamentalmente a pegada ambiental de longo prazo dos seus dados.

Recomendações

Para otimizar o ciclo de vida dos dados e os recursos de armazenamento para sustentabilidade, considere as recomendações nas seções a seguir.

Priorizar dados de alto valor

Os dados armazenados que não são usados, estão duplicados ou obsoletos continuam consumindo energia para alimentar a infraestrutura subjacente. Para reduzir a pegada de carbono relacionada ao armazenamento, use as técnicas a seguir.

Identificar e eliminar a duplicação

Estabeleça políticas para evitar a replicação desnecessária de conjuntos de dados em vários projetos ou serviços do Google Cloud . Use repositórios de dados centrais, como conjuntos de dados do BigQuery ou buckets do Cloud Storage, como fontes únicas de verdade e conceda acesso adequado a esses repositórios.

Remover dados obscuros e de sombra

Dados ocultos são dados cuja utilidade ou proprietário é desconhecido. Dados secundários são cópias não autorizadas de dados. Verifique seus sistemas de armazenamento e encontre dados desconhecidos e secundários usando uma solução de descoberta e catalogação de dados como o Dataplex Universal Catalog. Audite regularmente essas descobertas e implemente um processo de arquivamento ou exclusão de dados invisíveis e secundários, conforme apropriado.

Minimizar o volume de dados para cargas de trabalho de IA

Armazene apenas os recursos e os dados processados necessários para o treinamento e a disponibilização do modelo. Sempre que possível, use técnicas como amostragem, agregação e geração de dados sintéticos para alcançar a performance do modelo sem depender de conjuntos de dados brutos enormes.

Integrar verificações de qualidade de dados

Implemente pipelines automáticos de validação e limpeza de dados usando serviços como Dataproc, Dataflow ou Dataplex Universal Catalog no momento da ingestão de dados. Dados de baixa qualidade causam desperdício de espaço de armazenamento. Além disso, causa consumo desnecessário de energia quando os dados são usados posteriormente para análises ou treinamento de IA.

Analisar a densidade de valor dos dados

Revise periodicamente conjuntos de dados de alto volume, como registros e streams de IoT. Determine se é possível resumir, agregar ou reduzir a amostragem de dados para manter a densidade de informações necessária e reduzir o volume de armazenamento físico.

Avalie criticamente a necessidade de backups

Avalie a necessidade de backups de dados que podem ser regenerados com o mínimo de esforço. Exemplos desses dados incluem resultados intermediários de ETL, caches efêmeros e dados de treinamento derivados de uma fonte estável e permanente. Mantenha backups apenas dos dados exclusivos ou caros de recriar.

Otimizar o gerenciamento do ciclo de vida de armazenamento

Automatize o ciclo de vida do armazenamento para que, quando a utilidade dos dados diminuir, eles sejam movidos para uma classe de armazenamento eficiente em termos de energia ou desativados, conforme apropriado. Use as seguintes técnicas.

Selecione uma classe adequada do Cloud Storage

Automatize a transição de dados no Cloud Storage para classes de armazenamento de menor emissão de carbono com base na frequência de acesso usando o Gerenciamento do ciclo de vida de objetos.

  • Use o Standard Storage apenas para conjuntos de dados usados ativamente, como modelos de produção atuais.
  • Migre dados, como conjuntos de dados de treinamento de IA mais antigos ou backups acessados com menos frequência, para o armazenamento Nearline ou Coldline.
  • Para retenção de longo prazo, use o Archive Storage, que é otimizado para eficiência energética em grande escala.

Implementar políticas agressivas de ciclo de vida de dados

Defina políticas de time to live (TTL) claras e automatizadas para dados não essenciais, como arquivos de registros, artefatos de modelos temporários e resultados intermediários desatualizados. Use regras de ciclo de vida para excluir automaticamente esses dados após um período definido.

Exigir inclusão de tags de recursos

Exija o uso de tags e rótulos de recursos consistentes para todos os buckets do Cloud Storage, conjuntos de dados do BigQuery e discos permanentes. Crie tags que indiquem o proprietário dos dados, a finalidade deles e o período de armazenamento. Use as restrições do serviço de política da organização para garantir que as tags necessárias, como o período de armazenamento, sejam aplicadas aos recursos. Com as tags, é possível automatizar o gerenciamento do ciclo de vida, criar relatórios detalhados de FinOps e gerar relatórios de emissões de carbono.

Dimensionar e desprovisionar o armazenamento de computação

Audite regularmente os discos permanentes anexados às instâncias do Compute Engine e verifique se eles não estão superprovisionados. Use snapshots somente quando eles forem necessários para backup. Exclua snapshots antigos e não usados. Para bancos de dados, use políticas de retenção de dados para reduzir o tamanho dos discos permanentes subjacentes.

Otimizar o formato de armazenamento

Para armazenamento que atende a cargas de trabalho de análise, prefira formatos colunares compactados, como Parquet ou Avro otimizado, em vez de formatos baseados em linhas, como JSON ou CSV. O armazenamento em colunas reduz significativamente os requisitos de espaço em disco físico e melhora a eficiência de leitura. Essa otimização ajuda a reduzir o consumo de energia das operações de computação e E/S associadas.

Otimizar a regionalidade e a movimentação de dados

A localização física e a movimentação dos seus dados afetam o consumo de recursos de rede e a energia necessária para o armazenamento. Otimize a regionalidade dos dados usando as técnicas a seguir.

Selecionar regiões de armazenamento com baixa emissão de carbono

Dependendo dos seus requisitos de compliance, armazene dados em regiões Google Cloud que usam uma porcentagem maior de energia livre de carbono (CFE) ou que têm menor intensidade de carbono na rede. Restrinja a criação de buckets de armazenamento em regiões de alta emissão de carbono usando a restrição de política da organização de locais de recursos. Para informações sobre CFE e dados de intensidade de carbono para regiões de Google Cloud , consulte Energia livre de carbono para regiões de Google Cloud .

Minimizar a replicação

Replique dados entre regiões apenas para atender aos requisitos obrigatórios de recuperação de desastres (DR) ou alta disponibilidade (HA). As operações de replicação entre regiões e multirregionais aumentam significativamente o custo de energia e a pegada de carbono dos seus dados.

Otimizar locais de tratamento de dados

Para reduzir o consumo de energia na transferência de dados de rede, implante cargas de trabalho com uso intensivo de computação, como treinamento de IA e processamento do BigQuery, na mesma região da fonte de dados.

Otimizar a movimentação de dados para parceiros e clientes

Para mover grandes volumes de dados entre serviços, locais e provedores de nuvem, incentive seus parceiros e clientes a usar o Serviço de transferência do Cloud Storage ou APIs de compartilhamento de dados. Evite despejos de dados em massa. Para conjuntos de dados públicos, use buckets Pagamento pelo solicitante para transferir os custos de transferência e tratamento de dados e o impacto ambiental para os usuários finais.

Medir e melhorar continuamente a sustentabilidade

Esse princípio no pilar de sustentabilidade do Google Cloud Well-Architected Framework fornece recomendações para ajudar você a medir e melhorar continuamente a sustentabilidade das suas cargas de trabalho no Google Cloud.

Visão geral do princípio

Para garantir que suas cargas de trabalho na nuvem permaneçam sustentáveis, você precisa de métricas precisas e transparentes. Com as métricas verificáveis, é possível transformar metas de sustentabilidade em ações. Todo recurso criado na nuvem tem uma pegada de carbono associada. Para criar e manter arquiteturas de nuvem sustentáveis, é preciso integrar a medição de dados de carbono ao seu ciclo de feedback operacional.

As recomendações nesta seção fornecem uma estrutura para usar a Emissão de carbono e quantificar as emissões, identificar pontos críticos, implementar otimizações direcionadas de carga de trabalho e verificar os resultados dos esforços de otimização. Com essa estrutura, é possível alinhar de forma eficiente suas metas de otimização de custos com metas verificáveis de redução de carbono.

Metodologia de relatórios da Pegada de carbono

A Pegada de carbono oferece um relatório transparente, auditável e alinhado globalmente das suas emissões relacionadas à nuvem. O relatório segue os padrões internacionais, principalmente o Protocolo de Gases de Efeito Estufa (GEE) para contabilidade e relatórios de carbono. O relatório da Pegada de carbono usa métodos de contabilidade com base no local e no mercado. A contabilidade baseada em localização se baseia no fator de emissão da rede local. A contabilidade baseada no mercado considera as compras de energia livre de carbono (CFE) do Google. Essa abordagem dupla ajuda você a entender o impacto na rede física e o benefício de carbono das suas cargas de trabalho no Google Cloud.

Para mais informações sobre como o relatório da Pegada de carbono é preparado, incluindo as fontes de dados usadas, as inclusões do Escopo 3 e o modelo de alocação de clientes, consulte Metodologia de relatórios da Pegada de carbono.

Recomendações

Para usar a medição de carbono na melhoria contínua, considere as recomendações nas seções a seguir. As recomendações são estruturadas como fases de maturidade para implementar operações de nuvem sustentáveis por design:

Fase 1: estabelecer um valor de referência

Nesta fase, você configura as ferramentas necessárias e garante que os dados estejam acessíveis e integrados corretamente.

  1. Conceder permissões: conceda permissões a equipes como FinOps, SecOps e engenharia de plataforma para que elas possam acessar o painel de pegada de carbono no console Google Cloud . Conceda o papel de leitor de pegada de carbono (roles/billing.carbonViewer) no Identity and Access Management (IAM) para a conta de faturamento adequada.
  2. Automatizar a exportação de dados: configure a exportação automática do Pegada de carbono Footprint para o BigQuery. Com os dados exportados, é possível fazer análises detalhadas, correlacionar dados de carbono com dados de custo e uso e gerar relatórios personalizados.
  3. Defina indicadores principais de desempenho (KPIs) relacionados ao carbono: estabeleça métricas que conectem as emissões de carbono ao valor comercial. Por exemplo, a intensidade de carbono é uma métrica para o número de quilogramas de equivalente de CO2 por cliente, transação ou unidade de receita.

Fase 2: identificar pontos críticos de carbono

Identifique as áreas com maior impacto ambiental analisando os dados granulares no relatório de Pegada de Carbono. Use as seguintes técnicas para essa análise:

  • Priorizar por escopo: para identificar rapidamente os maiores emissores brutos de carbono, analise os dados no painel por projeto, região e serviço.
  • Use a contabilidade dupla: ao avaliar o impacto do carbono em uma região, considere as emissões baseadas na localização (o impacto ambiental da rede elétrica local) e as emissões baseadas no mercado (o benefício dos investimentos do Google em energia sem emissão de carbono).
  • Correlacione com o custo: combine os dados de carbono no BigQuery com seus dados de faturamento e avalie o impacto das ações de otimização na sustentabilidade e no custo. Um custo alto geralmente está relacionado a emissões de carbono altas.
  • Anotar dados para medir o retorno do esforço (ROE): anote os dados de carbono no BigQuery com eventos específicos, como dimensionar corretamente um recurso ou desativar um serviço grande. Com as anotações, é possível atribuir reduções de emissão de carbono e custo a iniciativas de otimização específicas, medindo e demonstrando o resultado de cada uma delas.

Fase 3: implementar a otimização segmentada

Esta é a fase de execução para implementar operações de nuvem sustentáveis por design. Use as seguintes estratégias para otimizar recursos específicos que você identifica como fatores significativos de custo e emissões de carbono:

  • Desative projetos autônomos: verifique regularmente o recomendador de projetos autônomos integrado aos dados do Pegada de carbono. Para alcançar reduções imediatas e verificadas nas emissões de carbono e nos custos, automatize a revisão e a possível remoção de projetos não utilizados.
  • Redimensione os recursos: combine a capacidade de recursos provisionada com a utilização real usando os recomendadores de redimensionamento do Active Assist, como recomendações de tipo de máquina para VMs do Compute Engine. Para tarefas com uso intenso de computação e cargas de trabalho de IA, use os tipos de máquinas e modelos de IA mais eficientes.
  • Adote o agendamento com reconhecimento de carbono: para cargas de trabalho em lote que não são críticas em relação ao tempo, integre dados regionais de CFE à lógica de agendamento. Sempre que possível, limite a criação de novos recursos a regiões de baixa emissão de carbono usando a restrição de locais de recursos no Serviço de políticas da organização.
  • Reduza a proliferação de dados: implemente políticas de governança de dados para garantir que os dados acessados com pouca frequência sejam transferidos para uma classe de armazenamento frio adequada (Nearline, Coldline ou Archive) ou sejam excluídos permanentemente. Essa estratégia ajuda a reduzir o custo de energia dos recursos de armazenamento.
  • Refine o código do aplicativo: corrija ineficiências no nível do código que causam uso excessivo de recursos ou computação desnecessária.

Para ver mais informações, consulte os seguintes tópicos:

Fase 4: institucionalizar suas práticas e relatórios de sustentabilidade

Nesta fase, você incorpora a medição de carbono ao seu framework de governança. Essa abordagem ajuda a garantir que sua organização tenha os recursos e controles necessários para melhorias contínuas de sustentabilidade e relatórios verificáveis.

  • Implemente a governança de GreenOps: estabeleça uma função ou um grupo de trabalho formal de GreenOps para integrar os dados da Pegada de carbono com os dados do Cloud Billing. Essa função precisa definir a responsabilidade pelas metas de redução de carbono em todos os projetos, alinhar a otimização de custos com as metas de sustentabilidade e implementar relatórios para acompanhar a eficiência de carbono em relação aos gastos.
  • Use os dados da Pegada de carbono para relatórios e compliance: use os dados verificados e auditáveis da Pegada de carbono no BigQuery para criar divulgações formais sobre meio ambiente, sociedade e governança (ESG, na sigla em inglês). Essa abordagem permite atender às demandas de transparência dos stakeholders e ajuda a garantir a conformidade com regulamentações obrigatórias e voluntárias.
  • Invista em treinamento e conscientização: implemente um treinamento obrigatório sobre sustentabilidade para as equipes técnicas e não técnicas relevantes. Suas equipes precisam saber como acessar e interpretar os dados da Pegada de carbono e como aplicar as recomendações de otimização nos fluxos de trabalho diários e nas escolhas de design. Para mais informações, consulte Oferecer treinamento de sustentabilidade com base em papéis.
  • Defina requisitos de carbono: incorpore métricas de emissão de carbono como requisitos não funcionais (NFRs) nos critérios de aceitação do aplicativo para novas implantações. Essa prática ajuda a garantir que arquitetos e desenvolvedores priorizem opções de design de baixo carbono desde o início do ciclo de vida de desenvolvimento de aplicativos.
  • Automatizar o GreenOps: automatize a implementação das recomendações do Active Assist usando scripts, modelos e pipelines de infraestrutura como código (IaC). Essa prática garante que as equipes apliquem recomendações de forma consistente e rápida em toda a organização.

Promova uma cultura de sustentabilidade

Esse princípio no pilar de sustentabilidade do Google Cloud Well-Architected Framework fornece recomendações para ajudar você a criar uma cultura em que as equipes da sua organização conheçam e sejam proficientes em práticas de sustentabilidade.

Visão geral do princípio

Para aplicar práticas de sustentabilidade, você precisa de mais do que ferramentas e técnicas. Você precisa de uma mudança cultural impulsionada pela educação e pela responsabilidade. As equipes precisam estar cientes das questões de sustentabilidade e ter proficiência prática em práticas de sustentabilidade.

  • A consciência da sustentabilidade é o conhecimento contextual de que toda decisão arquitetônica e operacional tem efeitos tangíveis na sustentabilidade. As equipes precisam reconhecer que a nuvem não é uma coleção abstrata de recursos virtuais, mas é impulsionada por recursos físicos que consomem energia e produzem emissões de carbono.
  • A proficiência em práticas de sustentabilidade inclui conhecimento para interpretar dados de emissões de carbono, experiência com a implementação da governança de sustentabilidade na nuvem e habilidades técnicas para refatorar o código em busca de eficiência energética.

Para alinhar as práticas de sustentabilidade às metas organizacionais, suas equipes precisam entender como o uso de energia pela infraestrutura e pelo software de nuvem contribui para a pegada de carbono da organização. Um treinamento bem planejado ajuda a garantir que todos os interessados, de desenvolvedores e arquitetos a profissionais de finanças e engenheiros de operações, entendam o contexto de sustentabilidade do trabalho diário. Essa compreensão compartilhada capacita as equipes a ir além da conformidade passiva e alcançar a otimização ativa, o que torna suas cargas de trabalho na nuvem sustentáveis por design. A sustentabilidade se torna um requisito não funcional (NFR, na sigla em inglês) principal, como outros requisitos de segurança, custo, desempenho e confiabilidade.

Recomendações

Para aumentar a conscientização sobre questões de sustentabilidade e a proficiência em práticas sustentáveis, considere as recomendações nas seções a seguir.

Fornecer contexto de negócios e alinhamento com as metas organizacionais

A sustentabilidade não é apenas um exercício técnico. Ela exige uma mudança cultural que alinha as ações individuais à missão ambiental da sua organização. Quando as equipes entendem o motivo das iniciativas de sustentabilidade, é mais provável que elas as adotem como princípios básicos, e não como tarefas opcionais.

Conecte-se ao panorama geral

Ajude suas equipes a entender como as escolhas arquitetônicas individuais, como selecionar uma região de baixa emissão de carbono ou otimizar um pipeline de dados, contribuem para os compromissos gerais de sustentabilidade da organização. Comunique explicitamente como essas escolhas afetam a comunidade local e o setor. Transforme métricas de carbono abstratas em indicadores tangíveis de progresso em direção às metas de responsabilidade social corporativa (RSC).

Por exemplo, uma mensagem como a seguinte informa às equipes sobre o resultado positivo e o reconhecimento executivo de uma decisão de migrar uma carga de trabalho para uma região de baixa emissão de carbono e usar um tipo de máquina com eficiência energética. A mensagem faz referência ao equivalente de CO2, que ajuda sua equipe a contextualizar o impacto das medidas de redução de carbono.

"Ao migrar nosso mecanismo de análise de dados para a região us-central1 ícone de folha Low CO2 e fazer upgrade dos nossos clusters para instâncias baseadas em C4A Axion, mudamos fundamentalmente nosso perfil de carbono. Essa mudança resultou em uma redução de 75% na intensidade de carbono do nosso mecanismo de análise de dados, o que se traduz em uma redução de 12 toneladas métricas de equivalente de CO2 neste trimestre. Essa migração teve um impacto significativo nas nossas metas de negócios e foi incluída na newsletter do quarto trimestre para o conselho."

Comunicar metas financeiras e de sustentabilidade

A transparência é fundamental para alinhar as práticas de sustentabilidade às metas. Na medida do possível, compartilhe amplamente as metas e o progresso de sustentabilidade em toda a organização. Destaque o progresso da sustentabilidade nas demonstrações financeiras anuais. Essa comunicação garante que as equipes técnicas vejam o trabalho delas como uma parte vital dos compromissos públicos e da saúde financeira da organização.

Adote uma mentalidade de destino compartilhado

Instruir as equipes sobre a natureza colaborativa da sustentabilidade na nuvem. O Google é responsável pela sustentabilidade da nuvem, que inclui a eficiência da infraestrutura e dos data centers. Você (o cliente) é responsável pela sustentabilidade dos seus recursos e cargas de trabalho na nuvem. Ao enquadrar essa colaboração como uma parceria de destino compartilhado, você reforça o entendimento de que sua organização e o Google trabalham juntos para alcançar os melhores resultados ambientais.

Oferecer treinamento de sustentabilidade com base em funções

Para garantir que a sustentabilidade seja uma habilidade prática, e não um conceito teórico, adapte o treinamento de sustentabilidade a funções específicas. As ferramentas e técnicas de sustentabilidade que um cientista de dados pode usar são muito diferentes daquelas disponíveis para um analista de FinOps, conforme descrito na tabela a seguir:

Papel Foco do treinamento
Cientistas de dados e engenheiros de ML Intensidade de carbono da computação: mostre as diferenças entre executar jobs de treinamento de IA em sistemas legados e em aceleradores de IA criados para essa finalidade. Destaque como um modelo com menos parâmetros pode produzir a acurácia necessária com um consumo de energia significativamente menor.
Desenvolvedores Eficiência do código e consumo de recursos: mostre como um código de alta latência ou loops ineficientes se traduzem diretamente em um tempo de execução da CPU estendido e um maior consumo de energia. Enfatize a importância de contêineres leves e a necessidade de otimizar o desempenho do aplicativo para reduzir a pegada ambiental do software.
Arquitetos Sustentável por design: foco na seleção de região e no posicionamento da carga de trabalho. Mostre como escolher uma região ícone de folha Low CO2 com uma alta porcentagem de energia renovável (como northamerica-northeast1) muda fundamentalmente o perfil de carbono de toda a sua pilha de aplicativos antes de você escrever uma única linha de código.
Engenheiros de plataforma e de operações Maximizar a utilização: enfatize o custo ambiental de recursos ociosos e provisionamento excessivo. Apresentar cenários de escalonamento automático e dimensionamento adequado para garantir o uso eficiente dos recursos da nuvem. Explique como criar e rastrear métricas relacionadas à sustentabilidade, como utilização, e como traduzir métricas como tempo de computação em métricas equivalentes de emissões de carbono.
FinOps Economia unitária de carbono: foco na relação entre gastos financeiros e impacto ambiental. Demonstre como as práticas de GreenOps permitem que uma organização rastreie o carbono por transação, o que ajuda a tornar a sustentabilidade um indicador principal de desempenho (KPI) tão importante quanto os KPIs convencionais, como custo e utilização.
Gerentes de produtos Sustentabilidade como um recurso: demonstre como integrar metas de redução de carbono aos roteiros de produtos. Mostre como jornadas simplificadas do usuário podem ajudar a reduzir o consumo de energia dos recursos de nuvem e dos dispositivos do usuário final.
líderes empresariais; Alinhamento estratégico e relatórios: foco em como a sustentabilidade da nuvem afeta as pontuações ambientais, sociais e de governança (ESG) e a reputação pública. Ilustrar como as escolhas de sustentabilidade ajudam a reduzir o risco regulatório e cumprir os compromissos com a comunidade e o setor.

Promover a sustentabilidade e reconhecer o sucesso

Para manter o progresso a longo prazo, é preciso ir além das correções técnicas internas e começar a influenciar seus parceiros e o setor.

Incentivar os gerentes a defender a sustentabilidade

Forneça aos gerentes os dados e as permissões necessárias para priorizar o impacto ambiental de maneira semelhante a outras métricas de negócios, como velocidade de entrada no mercado e custo. Quando os gerentes têm esses dados, eles começam a ver a sustentabilidade como um padrão de qualidade e eficiência, em vez de um recurso interessante que diminui a produção. Eles defendem ativamente novos recursos de provedores de nuvem, como dados de carbono mais detalhados e processadores mais novos e ecológicos em regiões específicas.

Alinhar com padrões e estruturas do setor

Para garantir que suas iniciativas de sustentabilidade sejam confiáveis e mensuráveis, alinhe as práticas internas com padrões globais e regionais reconhecidos. Para mais informações, consulte Alinhar práticas de sustentabilidade com diretrizes do setor.

Incentivar iniciativas de sustentabilidade

Para garantir que a sustentabilidade se torne uma parte duradoura da cultura de engenharia, as equipes precisam entender o valor de priorizar a sustentabilidade. Faça a transição de metas de alto nível para KPIs específicos e mensuráveis que recompensam a melhoria e a eficiência.

Definir KPIs de carbono e requisitos não funcionais

Tratar a sustentabilidade como um requisito técnico essencial. Ao definir KPIs de carbono, como gramas de equivalente de CO2 por milhão de solicitações ou intensidade de carbono por execução de treinamento de IA, você torna o impacto na sustentabilidade visível e acionável. Por exemplo, integre a sustentabilidade aos requisitos não funcionais de todos os novos projetos. Em outras palavras, assim como um sistema precisa atender a uma meta específica de latência ou disponibilidade, ele também precisa ficar dentro de um orçamento definido de emissões de carbono.

Medir o retorno do esforço

Ajude suas equipes a identificar vitórias de sustentabilidade de alto impacto e baixo esforço, como mudar um job em lote para outra região, em vez de um exercício complexo de refatoração de código que pode gerar ganhos mínimos. Oferecer visibilidade do retorno do esforço (ROE). Quando uma equipe escolhe uma família de processadores mais eficiente, ela precisa saber exatamente quanto de emissão de carbono evitou em relação ao tempo e ao esforço necessários para migrar para o novo processador.

Reconhecer e celebrar a redução de carbono

O impacto da sustentabilidade geralmente fica oculto em segundo plano na infraestrutura. Para criar um impulso para o progresso da sustentabilidade, mostre os sucessos para toda a organização. Por exemplo, use anotações em painéis de monitoramento para marcar quando uma equipe implementou uma otimização de sustentabilidade específica. Essa visibilidade permite que as equipes apontem os dados no painel e reivindiquem o reconhecimento pelos sucessos.

Alinhar as práticas de sustentabilidade com as diretrizes do setor

Esse princípio no pilar de sustentabilidade do Google Cloud Well-Architected Framework fornece uma visão geral das diretrizes e estruturas do setor com que você deve alinhar seus esforços de sustentabilidade.

Visão geral do princípio

Para garantir que suas iniciativas de sustentabilidade sejam criadas com base em métodos de medição, relatórios e verificação reconhecidos globalmente, recomendamos que você alinhe suas iniciativas às seguintes diretrizes do setor:

Ao alinhar suas iniciativas de sustentabilidade com essas diretrizes externas compartilhadas, elas ganham a credibilidade e a capacidade de auditoria que investidores, órgãos reguladores e outras partes interessadas externas exigem. Você também promove a responsabilidade nas equipes de engenharia, incorpora a sustentabilidade ao treinamento de funcionários e integra com sucesso as operações de nuvem aos compromissos de toda a empresa para relatórios ambientais, sociais e de governança (ESG, na sigla em inglês).

Diretrizes de sustentabilidade da Web do W3C

As diretrizes de sustentabilidade da Web (WSG, na sigla em inglês) do W3C são um framework emergente de práticas recomendadas desenvolvido por um grupo de trabalho do W3C para abordar o impacto ambiental de produtos e serviços digitais. As diretrizes abrangem todo o ciclo de vida de uma solução digital, incluindo estratégia de negócios e produtos, design de experiência do usuário (UX), desenvolvimento da Web, hospedagem, infraestrutura e sistemas. O objetivo principal do WSG é permitir que desenvolvedores e arquitetos criem sites e aplicativos da Web mais eficientes em termos de energia e que reduzam o tráfego de rede, o processamento do lado do cliente e o consumo de recursos do lado do servidor. Essas diretrizes servem como um ponto de referência essencial para alinhar a sustentabilidade no nível do aplicativo com as decisões arquitetônicas no nível da nuvem.

Green Software Foundation

A Green Software Foundation (GSF) (link em inglês) se concentra na criação de um ecossistema do setor em torno de softwares sustentáveis. A missão é impulsionar a criação de softwares projetados, criados e operados para minimizar a pegada de carbono. O GSF desenvolveu a especificação de intensidade de carbono do software (SCI, na sigla em inglês), que fornece um padrão comum para medir a taxa de emissões de carbono de qualquer software. O alinhamento com o GSF ajuda os desenvolvedores a conectar a eficiência de um aplicativo diretamente ao impacto de carbono do ambiente de nuvem.

Protocolo de Gases do Efeito Estufa

O Protocolo de Gases de Efeito Estufa (GEE) é um conjunto de padrões amplamente usado para medir, gerenciar e divulgar publicamente as emissões de gases de efeito estufa. O protocolo foi desenvolvido por uma parceria entre o World Resources Institute (WRI) e o World Business Council for Sustainable Development (WBCSD). O protocolo de GEE fornece a estrutura essencial para a contabilidade climática corporativa. O relatório da Pegada de carbono fornece dados sobre escopos de emissão relevantes para o uso da nuvem. Para mais informações, consulte a Metodologia de relatórios da Pegada de carbono.

A adesão ao Protocolo de Gases de Efeito Estufa ajuda a garantir que suas iniciativas de sustentabilidade tenham credibilidade e que terceiros possam auditar seus dados de emissões de carbono. Você também ajuda a evitar a percepção de greenwashing e atende aos requisitos de diligência prévia dos seus investidores, reguladores e partes interessadas externas. Dados verificados e auditados ajudam sua organização a comprovar a responsabilidade e criar confiança nos compromissos de sustentabilidade voltados ao público.