Well-Architected Framework: 지속 가능성 필라

Last reviewed 2026-01-28 UTC

Google Cloud Well-Architected Framework의 지속 가능성 원칙에서는 에너지 효율적이고 탄소 배출량을 인식하는 Google Cloud워크로드를 설계, 빌드, 관리하기 위한 권장사항을 제공합니다.

이 문서의 대상에는 Google Cloud에서 워크로드를 설계, 빌드, 배포, 유지관리하는 의사결정권자, 설계자, 관리자, 개발자, 운영자가 포함됩니다.

아키텍처 및 운영 결정은 클라우드에서 워크로드로 인해 발생하는 에너지 사용량, 물 영향, 탄소 발자국에 큰 영향을 미칩니다. 소규모 웹사이트든 대규모 ML 모델이든 모든 워크로드는 에너지를 소비하고 탄소 배출 및 물 자원 집약도에 기여합니다. 지속 가능성을 클라우드 아키텍처 및 설계 프로세스에 통합하면 효율적이고 비용 효율적이며 환경적으로 지속 가능한 시스템을 구축할 수 있습니다. 지속 가능한 아키텍처는 복원력이 있고 최적화되어 있어 효율성 향상, 비용 절감, 환경에 미치는 영향 감소라는 긍정적인 피드백 루프를 만듭니다.

설계 단계부터 지속 가능성 고려: 전반적인 비즈니스 성과

지속 가능성은 다른 핵심 비즈니스 목표와 상충되지 않습니다. 지속 가능성 관행은 다른 비즈니스 목표를 가속화하는 데 도움이 됩니다. 탄소 배출량이 적은 리소스와 작업을 우선시하는 아키텍처를 선택하면 더 빠르고 저렴하며 안전한 시스템을 구축할 수 있습니다. 이러한 시스템은 설계에 의한 지속 가능성을 갖춘 것으로 간주되며, 지속 가능성을 위해 최적화하면 성능, 비용, 보안, 복원력, 사용자 환경에 전반적으로 긍정적인 결과가 나타납니다.

성능 최적화

성능에 최적화된 시스템은 기본적으로 리소스를 더 적게 사용합니다. 작업을 더 빠르게 완료하는 효율적인 애플리케이션에는 더 짧은 기간 동안 컴퓨팅 리소스가 필요합니다. 따라서 기본 하드웨어에서 소비하는 에너지의 킬로와트시 (kWh)가 적습니다. 최적화된 성능은 지연 시간을 줄이고 사용자 환경을 개선합니다. 비효율적인 프로세스를 기다리는 리소스에 시간과 에너지가 낭비되지 않습니다. 특수 하드웨어 (예: GPU 및 TPU)를 사용하고, 효율적인 알고리즘을 채택하고, 병렬 처리를 극대화하면 성능이 향상되고 클라우드 워크로드의 탄소 발자국이 줄어듭니다.

비용 최적화

클라우드 운영비는 리소스 사용량에 따라 달라집니다. 이러한 직접적인 상관관계로 인해 비용을 지속적으로 최적화하면 에너지 소비와 탄소 배출량도 줄일 수 있습니다. VM의 크기를 적절하게 조정하고, 적극적인 자동 확장 기능을 구현하고, 오래된 데이터를 보관처리하고, 유휴 리소스를 제거하면 리소스 사용량과 클라우드 비용이 줄어듭니다. 데이터 센터에서 워크로드를 실행하는 데 소비하는 에너지가 적기 때문에 시스템의 탄소 발자국도 줄일 수 있습니다.

보안 및 복원력

보안안정성은 지속 가능한 클라우드 환경을 위한 필수 요건입니다. 서비스 거부 (DoS) 공격이나 무단 데이터 유출의 영향을 받는 시스템과 같이 손상된 시스템은 리소스 소비를 크게 늘릴 수 있습니다. 이러한 사고로 인해 트래픽이 급증하고, 완화를 위해 제어할 수 없는 컴퓨팅 주기가 생성되며, 포렌식 분석, 정리, 데이터 복구를 위해 길고 고에너지 작업이 필요할 수 있습니다. 강력한 보안 조치를 통해 리소스 사용량이 불필요하게 급증하는 것을 방지하여 운영이 안정적이고 예측 가능하며 에너지 효율적으로 유지될 수 있습니다.

사용자 환경

효율성, 성능, 접근성, 데이터 최소 사용을 우선시하는 시스템은 최종 사용자의 에너지 사용량을 줄이는 데 도움이 될 수 있습니다. 더 작은 모델을 로드하거나 더 적은 데이터를 처리하여 결과를 더 빠르게 제공하는 애플리케이션은 네트워크 기기와 최종 사용자 기기에서 소비되는 에너지를 줄이는 데 도움이 됩니다. 에너지 사용량 감소는 특히 대역폭이 제한적이거나 오래된 기기를 사용하는 사용자에게 유용합니다. 또한 지속 가능한 아키텍처는 지구에 미치는 피해를 최소화하고 사회적 책임이 있는 기술에 대한 약속을 보여줍니다.

클라우드로 마이그레이션할 때의 지속 가능성 가치

온프레미스 워크로드를 클라우드로 이전하면 조직의 환경 발자국을 줄일 수 있습니다. 클라우드 인프라로 전환하면 일반적인 온프레미스 배포에 비해 에너지 사용량과 관련 배출량을 1.4~2배 줄일 수 있습니다. 클라우드 데이터 센터는 높은 전력 사용 효율 (PUE)을 위해 설계된 최신 맞춤형 시설입니다. 오래된 온프레미스 데이터 센터는 고급 냉각 및 전력 분배 시스템에 대한 투자를 정당화하는 데 필요한 규모가 부족한 경우가 많습니다.

책임 공유 및 공통된 운명

Google Cloud의 공유 책임과 공통된 운명에서는 클라우드 워크로드의 보안이 Google과 고객 간에 공유되는 책임임을 설명합니다. 이 공동 책임 모델은 지속 가능성에도 적용됩니다.

Google은 데이터 센터, 인프라, 핵심 서비스의 에너지 효율성과 물 관리 등 지속 가능성을 Google Cloud책임집니다. Google은 재생 에너지, 기후 친화적인 냉각, 하드웨어 최적화에 지속적으로 투자합니다. Google의 지속 가능성 전략 및 진행 상황에 대한 자세한 내용은 Google 지속 가능성 2025 환경 보고서를 참고하세요.

고객은 클라우드 에서 지속 가능성을 책임집니다. 즉, 에너지 효율을 높이도록 워크로드를 최적화해야 합니다. 예를 들어 리소스의 크기를 적절하게 조정하고, 0으로 확장되는 서버리스 서비스를 사용하고, 데이터 수명 주기를 효과적으로 관리할 수 있습니다.

또한 Google은 공동 운명 모델을 옹호합니다. 지속 가능성은 단순히 작업 분담이 아니라 전체 생태계의 환경 발자국을 줄이기 위한 고객과 Google 간의 협력적 파트너십입니다.

비즈니스 영향에 AI 사용하기

Well-Architected 프레임워크의 지속 가능성 분야 (이 문서)에는 지속 가능한 AI 시스템을 설계하는 데 도움이 되는 안내가 포함되어 있습니다. 하지만 포괄적인 지속 가능성 전략은 AI 워크로드의 환경적 영향을 넘어섭니다. 이 전략에는 AI를 사용하여 운영을 최적화하고 새로운 비즈니스 가치를 창출하는 방법이 포함되어야 합니다.

AI는 방대한 데이터 세트를 실행 가능한 통찰력으로 변환하여 지속 가능성을 위한 촉매제 역할을 합니다. 이를 통해 조직은 다음과 같은 영역에서 사후 대응 규정 준수에서 선제적 최적화로 전환할 수 있습니다.

  • 운영 효율성: 개선된 인벤토리 관리, 공급망 최적화, 지능형 에너지 관리를 통해 운영을 간소화합니다.
  • 투명성 및 위험: 세부적인 공급망 투명성, 규정 준수, 기후 위험 모델링을 위해 데이터를 사용합니다.
  • 가치 및 성장: 지속 가능한 금융 및 리커머스에서 새로운 수익원을 개발합니다.

Google은 데이터에서 유용한 정보를 도출하고 지속 가능한 미래를 위한 역량을 구축하는 데 도움이 되는 다음과 같은 제품과 기능을 제공합니다.

  • Google Earth AI: 전 지구적 규모의 지리 공간 데이터를 사용하여 환경 변화를 분석하고 공급망 영향을 모니터링합니다.
  • WeatherNext: 고급 날씨 예측 및 기후 위험 분석을 제공하여 기후 변동에 대한 복원력을 구축하는 데 도움을 줍니다.
  • Google 어스를 사용한 지리 공간 통계: 지리 공간 데이터를 사용하여 위치에 풍부한 컨텍스트 데이터를 추가하여 더 스마트한 사이트 선택, 리소스 계획, 운영을 지원합니다.
  • Google 지도 경로 최적화: 물류 및 배송 경로를 최적화하여 효율성을 높이고 연료 소비 및 운송 배출량을 줄입니다.

파트너 및 고객과의 공동작업

Google Cloud 와 TELUS는 워크로드를 Google의 탄소 중립 인프라로 이전하고 데이터 분석을 활용하여 운영을 최적화함으로써 클라우드 지속 가능성을 높이기 위해 파트너십을 맺었습니다. 이 협업은 실시간 데이터를 사용하여 캐나다 여러 지방 자치 단체에서 교통 체증과 탄소 배출량을 줄이는 스마트 시티 기술과 같은 이니셔티브를 통해 사회적 및 환경적 이점을 제공합니다. 이 공동작업에 대한 자세한 내용은 Google Cloud 와 TELUS가 지속 가능성을 위해 협력을 참고하세요.

핵심 원칙

Well-Architected Framework의 지속 가능성 기본 요소에 있는 권장사항은 다음 핵심 원칙에 매핑됩니다.

참여자

저자: 브렛 태커베리 | 수석 설계자

기타 참여자:

탄소 배출량이 적은 에너지를 소비하는 리전 사용

Google Cloud Well-Architected Framework의 지속 가능성 요소 원칙은 Google Cloud에서 워크로드에 탄소 배출량이 적은 리전을 선택하는 데 도움이 되는 권장사항을 제공합니다.

원칙 개요

Google Cloud에 워크로드를 배포할 때 중요한 아키텍처 결정은 워크로드의 Google Cloud 리전을 선택하는 것입니다. 이 결정은 워크로드의 탄소 발자국에 영향을 미칩니다. 탄소 배출량을 최소화하려면 리전 선택 전략에 다음 요소가 포함되어야 합니다.

  • 데이터 기반 선택: 리전을 식별하고 우선순위를 지정하려면 잎 아이콘 낮은 CO2 표시기와 무탄소 에너지 (CFE) 측정항목을 고려하세요.
  • 정책 기반 거버넌스: 조직 정책 서비스에서 리소스 위치 제약 조건을 사용하여 환경에 최적화된 위치로 리소스 생성을 제한합니다.
  • 운영 유연성: 시간 이동 및 탄소 인식 일정과 같은 기법을 사용하여 전력망의 탄소 집약도가 가장 낮은 시간에 일괄 워크로드를 실행합니다.

클라우드에서 애플리케이션과 워크로드를 실행하는 데 사용되는 전기는 Google Cloud 리전 선택에 영향을 미치는 중요한 요소입니다. 또한 다음 요소를 고려하세요.

  • 데이터 상주 및 주권: 데이터를 저장해야 하는 위치는 Google Cloud리전 선택을 결정하는 기본적인 요소입니다. 이 선택은 현지 데이터 상주 요구사항 준수에 영향을 미칩니다.
  • 최종 사용자 지연 시간: 최종 사용자와 애플리케이션을 배포하는 리전 간의 지리적 거리는 사용자 환경과 애플리케이션 성능에 영향을 미칩니다.
  • 비용: Google Cloud 리소스의 가격은 리전별로 다를 수 있습니다.

Google Cloud 리전 선택 도구를 사용하면 탄소 발자국, 비용, 지연 시간에 대한 요구사항에 따라 최적의 Google Cloud 리전을 선택할 수 있습니다. Cloud Location Finder를 사용하여 근접성, 무탄소 에너지 (CFE) 사용량, 기타 매개변수에 대한 요구사항을 기반으로 Google Cloud 및 기타 제공업체의 클라우드 위치를 찾을 수도 있습니다.

권장사항

탄소 배출량이 적은 리전에 클라우드 워크로드를 배포하려면 다음 섹션의 권장사항을 고려하세요. 이러한 권장사항은 Google Cloud 리전의 무탄소 에너지의 안내를 기반으로 합니다.

클라우드 리전의 탄소 집약도 이해하기

한 지역의Google Cloud 데이터 센터는 해당 지역에 있는 전력망의 에너지를 사용합니다. Google은 매시간 계산되는 CFE 측정항목을 사용하여 리전의 탄소 영향을 측정합니다. CFE는 1시간 동안 소비된 총 에너지 중 무탄소 에너지의 비율을 나타냅니다. CFE 측정항목은 다음 두 가지 요인에 따라 달라집니다.

  • 특정 기간 동안 그리드에 전력을 공급하는 발전소의 유형입니다.
  • Google에 귀속되는 클린 에너지가 해당 시간 동안 그리드에 공급됩니다.

각Google Cloud 리전의 집계된 시간당 평균 CFE% 에 대한 자세한 내용은 Google Cloud 리전의 무탄소 에너지를 참고하세요. GitHub의 Carbon free energy for Google Cloud regions 저장소와 BigQuery 공개 데이터 세트에서 이 데이터를 머신 리더블 형식으로 가져올 수도 있습니다.

위치 선택 전략에 CFE 통합

다음 권장사항을 고려하세요.

  • 애플리케이션에 가장 적합한 리전을 선택합니다. 애플리케이션을 장기간 실행할 계획이라면 CFE%가 가장 높은 리전에서 실행하세요. 일괄 워크로드의 경우 워크로드가 실행되어야 하는 시점을 예측할 수 있으므로 리전을 선택할 때 유연성이 더 큽니다.
  • 탄소 배출량이 적은 지역을 선택합니다. Google Cloud 웹사이트의 특정 페이지와 Google Cloud 콘솔의 위치 선택기에는 탄소 배출량이 가장 적은 리전에 잎 아이콘 낮은 CO2 표시기가 표시됩니다.
  • 리소스 위치 조직 정책 제약 조건을 사용하여 리소스 생성을 특정 탄소 배출량 Google Cloud이 낮은 리전으로 제한합니다. 예를 들어 미국 기반 저탄소 지역에서만 리소스 생성을 허용하려면 in:us-low-carbon-locations 값 그룹을 지정하는 제약 조건을 만드세요.

Google Cloud 리전의 위치를 선택할 때는 데이터 상주 요구사항, 최종 사용자 지연 시간, 애플리케이션 중복, 서비스 가용성, 가격과 같은 요소를 포함한 리전 선택 권장사항도 고려하세요.

시간대별 예약 사용

전력망의 탄소집약도는 하루 동안 크게 달라질 수 있습니다. 변동은 그리드에 공급되는 에너지원의 혼합에 따라 달라집니다. 유연하거나 긴급하지 않은 워크로드를 그리드에 CFE가 더 많이 공급될 때 실행되도록 예약할 수 있습니다.

예를 들어 많은 그리드에서 비수기 시간대나 태양광 및 풍력과 같은 재생 에너지원에서 그리드에 더 많은 전력을 공급하는 경우 CFE 비율이 더 높습니다. CFE가 높은 시간대에 모델 학습 및 대규모 배치 추론과 같은 컴퓨팅 집약적 작업을 예약하면 성능이나 비용에 영향을 주지 않고 관련 탄소 배출량을 크게 줄일 수 있습니다. 이 접근 방식을 타임 시프팅이라고 하며, 그리드의 탄소 강도 동적 특성을 사용하여 지속 가능성을 위해 워크로드를 최적화합니다.

에너지 효율성을 위해 AI 및 ML 워크로드 최적화

Google Cloud Well-Architected Framework의 지속 가능성 요소 원칙은 AI 및 ML 워크로드를 최적화하여 에너지 사용량과 탄소 발자국을 줄이기 위한 권장사항을 제공합니다.

원칙 개요

지속 가능성을 위해 AI 및 ML 워크로드를 최적화하려면 워크로드를 설계, 배포, 운영하는 데 전체적인 접근 방식을 채택해야 합니다. 적절한 모델과 Tensor Processing Unit (TPU)과 같은 전문 하드웨어를 선택하고, 탄소 배출량이 적은 지역에서 워크로드를 실행하고, 리소스 사용량을 줄이도록 최적화하고, 운영 권장사항을 적용하세요.

AI 및 ML 워크로드의 비용과 성능을 최적화하는 아키텍처 및 운영 관행은 본질적으로 에너지 소비를 줄이고 탄소 발자국을 낮춥니다. Well-Architected Framework의 AI 및 ML 관점에서는 운영, 보안, 안정성, 비용, 성능 목표를 충족하는 AI 및 ML 워크로드를 설계, 빌드, 관리하기 위한 원칙과 권장사항을 설명합니다. 또한 클라우드 아키텍처 센터에서는 Google Cloud의 AI 및 ML 워크로드에 대한 자세한 참조 아키텍처와 설계 가이드를 제공합니다.

권장사항

에너지 효율성을 위해 AI 및 ML 워크로드를 최적화하려면 다음 섹션의 권장사항을 고려하세요.

TPU를 사용하여 에너지 효율성을 위한 아키텍처 설계

AI 및 ML 워크로드는 컴퓨팅 집약적일 수 있습니다. AI 및 ML 워크로드의 에너지 소비는 지속 가능성을 위한 중요한 고려사항입니다. TPU를 사용하면 AI 및 ML 워크로드의 에너지 효율성과 지속 가능성을 크게 개선할 수 있습니다.

TPU는 AI 및 ML 워크로드를 위해 특수 제작된 맞춤 설계 가속기입니다. TPU의 전문화된 아키텍처는 딥 러닝의 기반인 대규모 행렬 곱셈에 매우 효과적입니다. TPU는 CPU나 GPU와 같은 범용 프로세서보다 더 효율적으로 복잡한 작업을 대규모로 실행할 수 있습니다.

TPU는 지속 가능성을 위해 다음과 같은 직접적인 이점을 제공합니다.

  • 낮은 에너지 소비량: TPU는 최적의 에너지 효율성을 위해 설계되었습니다. 에너지 소비량 대비 더 높은 컴퓨팅을 제공합니다. 이러한 특수 아키텍처는 대규모 학습 및 추론 작업의 전력 요구량을 크게 줄여 운영 비용을 절감하고 에너지 소비를 낮춥니다.
  • 더 빠른 학습 및 추론: TPU의 뛰어난 성능을 통해 복잡한 AI 모델을 며칠이 아닌 몇 시간 만에 학습시킬 수 있습니다. 총 컴퓨팅 시간이 크게 단축되면 환경에 미치는 영향이 직접적으로 줄어듭니다.
  • 냉각 요구사항 감소: TPU에는 고급 액체 냉각이 통합되어 있어 효율적인 열 관리를 제공하고 데이터 센터 냉각에 사용되는 에너지를 크게 줄입니다.
  • AI 수명 주기 최적화: 하드웨어와 소프트웨어를 통합하여 TPU는 데이터 처리부터 모델 제공에 이르기까지 전체 AI 수명 주기에서 최적화된 솔루션을 제공합니다.

리소스 선택을 위한 4Ms 권장사항 따르기

Google에서는 AI 및 ML 워크로드의 에너지 사용량과 탄소 배출량을 크게 줄이기 위한 권장사항을 제시합니다. 이러한 권장사항을 4M이라고 합니다.

  • 모델: 효율적인 ML 모델 아키텍처를 선택합니다. 예를 들어 희소 모델은 밀도 모델에 비해 ML 품질을 개선하고 컴퓨팅을 3~10배 줄입니다.
  • 머신: ML 학습에 최적화된 프로세서와 시스템을 선택합니다. 이러한 프로세서는 범용 프로세서에 비해 성능과 에너지 효율을 2~5배 향상합니다.
  • 자동화: 컴퓨팅 집약적인 워크로드를 클라우드에 배포합니다. 워크로드는 온프레미스 배포에 비해 에너지를 적게 사용하고 배출량을 1.4~2배 줄입니다. 클라우드 데이터 센터는 에너지 효율성을 위해 설계되고 전력 사용 효율 (PUE) 비율이 높은 최신 맞춤형 웨어하우스를 사용합니다. 온프레미스 데이터 센터는 오래되고 규모가 작기 때문에 에너지 효율이 높은 냉각 및 전력 분배 시스템에 투자하는 것이 경제적이지 않을 수 있습니다.
  • 지도: 가장 깨끗한 에너지를 사용하는 Google Cloud 위치를 선택합니다. 이 접근 방식을 사용하면 워크로드의 총 탄소 발자국을 5~10배 줄일 수 있습니다. 자세한 내용은 Google Cloud 리전의 무탄소 에너지를 참고하세요.

4Ms 권장사항 및 효율성 측정항목에 대한 자세한 내용은 다음 연구 논문을 참고하세요.

학습 및 추론을 위해 AI 모델과 알고리즘 최적화

AI 모델의 아키텍처와 학습 및 추론에 사용되는 알고리즘은 에너지 소비에 큰 영향을 미칩니다. 다음 권장사항을 고려하세요.

효율적인 AI 모델 선택

성능 요구사항을 충족하는 더 작고 효율적인 AI 모델을 선택하세요. 사용 가능한 가장 큰 모델을 기본 선택으로 선택하지 마세요. 예를 들어 DistilBERT와 같은 더 작은 정제된 모델 버전은 BERT와 같은 더 큰 모델보다 컴퓨팅 오버헤드가 훨씬 적고 추론 속도가 빠르면서도 비슷한 성능을 제공할 수 있습니다.

도메인별 초효율적인 솔루션 사용

성능이 더 우수하고 대규모 기본 모델보다 컴퓨팅 성능이 훨씬 적게 필요한 전문 ML 솔루션을 선택하세요. 이러한 전문 솔루션은 사전 학습되고 하이퍼 최적화되는 경우가 많습니다. 학습 및 추론 워크로드 모두에서 에너지 소비량과 연구 노력을 크게 줄일 수 있습니다. 다음은 도메인별 전문 솔루션의 예입니다.

  • Earth AI는 대량의 전 세계 지리 공간 데이터를 합성하여 시기적절하고 정확하며 실행 가능한 통계를 제공하는 에너지 효율적인 솔루션입니다.
  • WeatherNext는 기존의 물리 기반 방법과 비교할 때 더 빠르고 효율적이며 매우 정확한 글로벌 날씨 예측을 생성합니다.

적절한 모델 압축 기법 적용

다음은 모델 압축에 사용할 수 있는 기법의 예시입니다.

  • 가지치기: 신경망에서 불필요한 매개변수를 삭제합니다. 모델의 성능에 크게 기여하지 않는 파라미터입니다. 이 기법은 모델의 크기와 추론에 필요한 컴퓨팅 리소스를 줄입니다.
  • 양자화: 모델 매개변수의 정밀도를 줄입니다. 예를 들어 정밀도를 32비트 부동 소수점에서 8비트 정수로 줄입니다. 이 기법은 정확도를 눈에 띄게 줄이지 않고 메모리 사용 공간과 전력 소비를 크게 줄이는 데 도움이 될 수 있습니다.
  • 지식 증류: 더 크고 복잡한 교사 모델의 동작을 모방하도록 더 작은 학생 모델을 학습시킵니다. 학생 모델은 더 적은 매개변수와 더 적은 에너지를 사용하여 높은 수준의 성능을 달성할 수 있습니다.

전문 하드웨어 사용

리소스 선택을 위한 4M 권장사항 따르기에 설명된 대로 ML 학습에 최적화된 프로세서와 시스템을 선택합니다. 이러한 프로세서는 범용 프로세서에 비해 성능과 에너지 효율을 2~5배 향상합니다.

Parameter-Efficient Fine-Tuning(PEFT) 사용

모델의 수십억 개에 달하는 모든 파라미터를 조정하는 대신 (전체 미세 조정) LoRA (Low-Rank Adaptation)와 같은 파라미터 효율적 미세 조정 (PEFT) 방법을 사용하세요. 이 기법을 사용하면 원래 모델의 가중치를 고정하고 가벼운 새로운 레이어만 소수 학습합니다. 이 접근 방식은 비용과 에너지 소비량을 줄이는 데 도움이 됩니다.

AI 및 ML 운영 권장사항 준수

운영 관행은 AI 및 ML 워크로드의 지속 가능성에 큰 영향을 미칩니다. 다음 권장사항을 고려하세요.

모델 학습 프로세스 최적화

다음 기법을 사용하여 모델 학습 프로세스를 최적화하세요.

  • 조기 중단: 학습 프로세스를 모니터링하고 검증 세트에 대한 모델 성능이 더 이상 개선되지 않으면 중지합니다. 이 기법을 사용하면 불필요한 계산과 에너지 사용을 방지할 수 있습니다.
  • 효율적인 데이터 로드: 효율적인 데이터 파이프라인을 사용하여 GPU와 TPU가 항상 활용되고 데이터가 대기하지 않도록 합니다. 이 기술은 리소스 사용률을 극대화하고 에너지 낭비를 줄이는 데 도움이 됩니다.
  • 최적화된 하이퍼파라미터 조정: 최적의 하이퍼파라미터를 더 효율적으로 찾으려면 베이즈 최적화 또는 강화 학습과 같은 기법을 사용하세요. 리소스 집약적인 작업이 될 수 있는 철저한 그리드 검색을 피하세요.

추론 효율성 개선

AI 추론 작업의 효율성을 개선하려면 다음 기법을 사용하세요.

  • 일괄 처리: 여러 추론 요청을 일괄 처리로 그룹화하고 GPU 및 TPU에서 병렬 처리를 활용합니다. 이 기법은 예측당 에너지 비용을 줄이는 데 도움이 됩니다.
  • 고급 캐싱: 자동 회귀 생성용 키-값 (KV) 캐싱과 애플리케이션 응답용 시맨틱 프롬프트 캐싱을 포함하는 다층 캐싱 전략을 구현합니다. 이 기법은 중복 모델 계산을 우회하는 데 도움이 되며 에너지 사용량과 탄소 배출량을 크게 줄일 수 있습니다.

측정 및 모니터링

다음 매개변수를 모니터링하고 측정합니다.

  • 사용량 및 비용: 적절한 도구를 사용하여 AI 워크로드의 토큰 사용량, 에너지 소비량, 탄소 발자국을 추적합니다. 이 데이터를 통해 최적화 기회를 파악하고 지속 가능성 목표 달성 상황을 보고할 수 있습니다.
  • 성능: 프로덕션 환경에서 모델 성능을 지속적으로 모니터링합니다. 모델을 다시 미세 조정해야 할 수 있는 데이터 드리프트와 같은 문제를 식별합니다. 모델을 재학습해야 하는 경우 원래 미세 조정된 모델을 시작점으로 사용하여 업데이트에 드는 시간, 비용, 에너지를 크게 절약할 수 있습니다.
    • 성능 측정항목을 추적하려면 Cloud Monitoring을 사용하세요.
    • 모델 변경사항과 성능 측정항목 개선사항을 연관시키려면 이벤트 주석을 사용하세요.

지속적인 개선을 운영하는 방법에 관한 자세한 내용은 지속 가능성을 지속적으로 측정하고 개선하기를 참고하세요.

탄소 인식 스케줄링 구현

가장 깨끗한 에너지 믹스를 갖춘 지역에서 실행되도록 ML 파이프라인 작업을 설계하세요. 탄소 발자국 보고서를 사용하여 탄소 집약도가 가장 낮은 리전을 파악합니다. 지역 전력 그리드의 무탄소 에너지 (CFE) 비율이 높은 기간에 리소스 집약적인 작업을 일괄 작업으로 예약합니다.

데이터 파이프라인 최적화

ML 작업과 미세 조정에는 정제된 고품질 데이터 세트가 필요합니다. ML 작업을 시작하기 전에 관리형 데이터 처리 서비스를 사용하여 데이터를 효율적으로 준비하세요. 예를 들어 스트리밍 및 일괄 처리에는 Dataflow를 사용하고 관리형 Spark 및 Hadoop 파이프라인에는 Dataproc를 사용합니다. 최적화된 데이터 파이프라인을 사용하면 미세 조정 워크로드가 데이터를 기다리지 않으므로 리소스 사용률을 극대화하고 에너지 낭비를 줄일 수 있습니다.

MLOps 도입

전체 ML 수명 주기를 자동화하고 관리하려면 MLOps (머신러닝 운영) 방식을 구현하세요. 이러한 관행은 모델이 지속적으로 모니터링되고, 검증되고, 효율적으로 재배포되도록 지원하여 불필요한 학습이나 리소스 할당을 방지하는 데 도움이 됩니다.

관리형 서비스 사용

자체 인프라를 관리하는 대신 Vertex AI와 같은 관리형 클라우드 서비스를 사용하세요. 클라우드 플랫폼에서 기본 리소스 관리를 처리하므로 미세 조정 프로세스에 집중할 수 있습니다. 초매개변수 조정, 모델 모니터링, 리소스 관리를 위한 기본 제공 도구가 포함된 서비스를 사용합니다.

다음 단계

지속 가능성을 위해 리소스 사용량 최적화

Google Cloud Well-Architected Framework의 지속 가능성 부문에서 이 원칙을 따르면 Google Cloud에서 워크로드의 리소스 사용량을 최적화하는 데 도움이 되는 권장사항을 확인할 수 있습니다.

원칙 개요

리소스 사용량을 최적화하는 것은 클라우드 환경의 지속 가능성을 높이는 데 매우 중요합니다. 컴퓨팅 주기부터 데이터 스토리지에 이르기까지 프로비저닝된 모든 리소스는 에너지 사용량, 물 사용량, 탄소 배출량에 직접적인 영향을 미칩니다. 워크로드의 환경 영향을 줄이려면 클라우드 리소스를 프로비저닝, 관리, 사용할 때 정보에 입각한 선택을 해야 합니다.

권장사항

리소스 사용량을 최적화하려면 다음 섹션의 권장사항을 고려하세요.

자동 및 동적 확장 구현

자동화된 동적 확장으로 리소스 사용이 최적화되어 유휴 상태이거나 과도하게 프로비저닝된 인프라로 인한 에너지 낭비를 방지할 수 있습니다. 에너지 낭비가 줄어들면 비용이 절감되고 탄소 배출량이 줄어듭니다.

다음 기법을 사용하여 자동 및 동적 확장성을 구현하세요.

수평 확장 사용

수평 확장은 대부분의 클라우드 우선 애플리케이션에 선호되는 확장 기법입니다. 수직 확장이라고 하는 각 인스턴스의 크기를 늘리는 대신 인스턴스를 추가하여 부하를 분산합니다. 예를 들어 관리형 인스턴스 그룹 (MIG)을 사용하여 Compute Engine VM 그룹을 자동으로 스케일 아웃할 수 있습니다. 인스턴스 장애가 애플리케이션의 가용성에 영향을 미치지 않으므로 수평으로 확장된 인프라가 더 탄력적입니다. 수평 확장은 부하 수준이 가변적인 애플리케이션에 리소스 효율적인 기법이기도 합니다.

적절한 확장 정책 구성

워크로드의 요구사항에 따라 자동 확장 설정을 구성합니다. 애플리케이션 동작에 특화된 맞춤 측정항목과 기준을 정의합니다. CPU 사용률에만 의존하는 대신 비동기 작업의 대기열 깊이, 요청 지연 시간, 맞춤 애플리케이션 측정항목과 같은 측정항목을 고려하세요. 불필요한 확장이 자주 발생하거나 플래핑이 발생하는 것을 방지하려면 명확한 확장 정책을 정의하세요. 예를 들어 Google Kubernetes Engine (GKE)에 배포하는 워크로드의 경우 적절한 클러스터 자동 확장 정책을 구성합니다.

사후 대응적 확장과 사전 대응적 확장 결합

반응형 확장에서는 시스템이 실시간 부하 변화에 따라 확장됩니다. 이 기법은 부하가 예측할 수 없을 정도로 급증하는 애플리케이션에 적합합니다.

사전 대응형 확장 기능은 고정된 일일 영업시간 및 주간 보고서 생성과 같이 예측 가능한 패턴이 있는 워크로드에 적합합니다. 이러한 워크로드의 경우 예상 부하 수준을 처리할 수 있도록 예약된 자동 확장을 사용하여 리소스를 사전 프로비저닝하세요. 이 기술은 리소스 확보를 방지하고 효율성을 높여 사용자 환경을 더 원활하게 만듭니다. 이 기법은 주요 할인 행사 및 집중적인 마케팅 활동과 같이 알려진 부하 급증에 대비하여 사전 계획을 세우는 데도 도움이 됩니다.

Google Cloud GKE Autopilot, Cloud Run, MIG와 같은 관리형 서비스 및 기능은 워크로드 패턴을 학습하여 사전 대응적 확장을 자동으로 관리합니다. 기본적으로 Cloud Run 서비스가 트래픽을 수신하지 않으면 인스턴스 0개로 확장됩니다.

스테이트리스(Stateless) 애플리케이션 설계

애플리케이션이 수평으로 확장되려면 구성요소가 스테이트리스여야 합니다. 즉, 특정 사용자의 세션이나 데이터가 단일 컴퓨팅 인스턴스에 연결되지 않습니다. Redis용 Memorystore와 같이 컴퓨팅 인스턴스 외부에 세션 상태를 저장하면 모든 컴퓨팅 인스턴스가 모든 사용자의 요청을 처리할 수 있습니다. 이 설계 접근 방식을 사용하면 원활하고 효율적인 수평 확장이 가능합니다.

예약 및 배치 사용

일괄 처리는 대규모의 긴급하지 않은 워크로드에 적합합니다. 일괄 작업을 사용하면 에너지 효율성과 비용을 위해 워크로드를 최적화할 수 있습니다.

다음 기법을 사용하여 예약 및 일괄 작업을 구현합니다.

탄소 집약도가 낮은 시간대 예약

탄소 배출량이 적은 지역에서 현지 전력망의 청정 에너지 비율이 높은 시간대에 일괄 작업을 실행하도록 예약합니다. 리전에서 탄소 집약도가 가장 낮은 시간대를 확인하려면 탄소 발자국 보고서를 사용하세요.

중요하지 않은 워크로드에 스팟 VM 사용

스팟 VM을 사용하면 미사용 Compute Engine 용량을 대폭 할인된 가격으로 활용할 수 있습니다. 스팟 VM은 선점될 수 있지만 전용의 상시 사용 리소스 없이 대규모 데이터 세트를 처리하는 비용 효율적인 방법을 제공합니다. 스팟 VM은 중요하지 않은 내결함성 일괄 작업에 적합합니다.

작업 통합 및 병렬화

개별 작업을 시작하고 종료하는 오버헤드를 줄이려면 유사한 작업을 하나의 큰 배치로 그룹화하세요. Batch와 같은 서비스에서 이러한 대량 워크로드를 실행합니다. 이 서비스는 필요한 인프라를 자동으로 프로비저닝하고 관리하므로 최적의 리소스 활용률을 보장할 수 있습니다.

관리형 서비스 사용

Batch 및 Dataflow와 같은 관리형 서비스는 리소스 프로비저닝, 예약, 모니터링을 자동으로 처리합니다. 클라우드 플랫폼에서 리소스 최적화를 처리합니다. 애플리케이션 로직에 집중할 수 있습니다. 예를 들어 Dataflow는 파이프라인의 데이터 양에 따라 작업자 수를 자동으로 조정하므로 유휴 리소스에 대한 비용을 지불하지 않습니다.

워크로드 요구사항에 맞게 VM 머신 계열 조정

Compute Engine VM에 사용할 수 있는 머신 유형은 다양한 워크로드에 최적화된 머신 제품군으로 그룹화됩니다. 워크로드의 요구사항에 따라 적절한 머신 계열을 선택합니다.

머신 계열 워크로드 유형에 권장됨 지속 가능성 안내
범용 인스턴스 (E2, N2, N4, Tau T2A/T2D): 이러한 인스턴스는 CPU와 메모리의 균형 잡힌 비율을 제공합니다. 웹 서버, 마이크로서비스, 중소 규모 데이터베이스, 개발 환경 E2 시리즈는 리소스의 동적 할당으로 인해 비용 효율성과 에너지 효율성이 매우 높습니다. Tau T2A 시리즈는 대규모 워크로드의 성능 단위당 에너지 효율성이 더 높은 경우가 많은 Arm 기반 프로세서를 사용합니다.
컴퓨팅 최적화 인스턴스 (C2, C3): 이러한 인스턴스는 높은 vCPU-메모리 비율과 코어당 높은 성능을 제공합니다. 고성능 컴퓨팅 (HPC), 일괄 처리, 게임 서버, CPU 기반 데이터 분석 C 시리즈 인스턴스를 사용하면 CPU 집약적인 작업을 더 빠르게 완료할 수 있으므로 작업의 총 컴퓨팅 시간과 에너지 소비가 줄어듭니다.
메모리 최적화 인스턴스 (M3, M2): 이러한 인스턴스는 대량의 메모리가 필요한 워크로드용으로 설계되었습니다. SAP HANA 또는 인메모리 분석과 같은 대규모 인메모리 데이터베이스 및 데이터 웨어하우스 메모리 최적화 인스턴스를 사용하면 메모리 사용량이 많은 워크로드를 더 적은 수의 물리적 노드로 통합할 수 있습니다. 이렇게 통합하면 여러 개의 작은 인스턴스를 사용하는 것과 비교하여 필요한 총 에너지가 줄어듭니다. 고성능 메모리는 데이터 액세스 지연 시간을 줄여 CPU가 활성 상태로 있는 총 시간을 줄일 수 있습니다.
스토리지 최적화 인스턴스 (Z3): 이 인스턴스는 처리량이 많고 지연 시간이 짧은 로컬 SSD 스토리지를 제공합니다. 데이터 웨어하우징, 로그 분석, SQL, NoSQL, 벡터 데이터베이스 스토리지 최적화 인스턴스는 대규모 데이터 세트를 로컬로 처리하므로 위치 간 네트워크 데이터 이그레스에 사용되는 에너지를 절약할 수 있습니다. IOPS가 높은 작업에 로컬 스토리지를 사용하면 여러 표준 인스턴스를 과도하게 프로비저닝하지 않아도 됩니다.
가속기 최적화 인스턴스 (A3, A2, G2): 이러한 인스턴스는 AI, ML, HPC와 같은 GPU 및 TPU 가속 워크로드용으로 빌드됩니다. ML 모델 학습 및 추론, 과학 시뮬레이션

TPU는 최적의 에너지 효율성을 위해 설계되었습니다. 와트당 더 높은 컴퓨팅을 제공합니다.

NVIDIA H100 GPU가 있는 A3 시리즈와 같은 GPU 가속 인스턴스는 대규모 모델을 학습할 때 CPU 전용 대안보다 에너지 효율성이 훨씬 높을 수 있습니다. GPU 가속 인스턴스의 공칭 전력 사용량은 더 높지만 작업은 훨씬 빠르게 완료됩니다.

최신 머신 유형으로 업그레이드

최신 머신 유형을 사용하면 지속 가능성을 개선하는 데 도움이 될 수 있습니다. 머신 유형이 업데이트되면 에너지 효율성을 높이고 와트당 성능을 높이도록 설계되는 경우가 많습니다. 최신 머신 유형을 사용하는 VM은 더 적은 전력 소비로 동일한 양의 작업을 완료할 수 있습니다.

CPU, GPU, TPU는 다음과 같은 칩 아키텍처의 기술 발전으로 이점을 얻는 경우가 많습니다.

  • 특수 코어: 프로세서의 발전에는 일반적인 워크로드에 대한 특수 코어 또는 명령어가 포함되는 경우가 많습니다. 예를 들어 CPU에는 벡터 작업을 위한 전용 코어 또는 통합 AI 가속기가 있을 수 있습니다. 이러한 작업이 기본 CPU에서 오프로드되면 작업이 더 효율적으로 완료되고 에너지 소비가 줄어듭니다.
  • 전원 관리 개선: 칩 아키텍처의 발전에는 워크로드에 따라 전압과 주파수를 동적으로 조정하는 등 더 정교한 전원 관리 기능이 포함되는 경우가 많습니다. 이러한 전원 관리 기능을 통해 칩은 최고 효율로 실행되고 유휴 상태일 때는 저전력 상태로 전환되어 에너지 소비를 최소화할 수 있습니다.

칩 아키텍처의 기술적 개선사항은 지속 가능성 및 비용에 다음과 같은 직접적인 이점을 제공합니다.

  • 와트당 성능 향상: 지속 가능성을 위한 주요 측정항목입니다. 예를 들어 동일한 에너지 소비량에 대해 C4 VM은 C3 VM에 비해 40% 더 높은 가격 대비 성능을 보여줍니다. C4A 프로세서는 동급 x86 프로세서보다 에너지 효율성이 60% 더 높습니다. 이러한 성능 기능을 사용하면 작업을 더 빠르게 완료하거나 동일한 부하에 더 적은 인스턴스를 사용할 수 있습니다.
  • 총 에너지 소비량 감소: 프로세서가 개선되어 특정 작업에 컴퓨팅 리소스가 사용되는 기간이 짧아지므로 전체 에너지 사용량과 탄소 발자국이 줄어듭니다. 탄소 영향은 특히 배치 작업 및 ML 모델 학습과 같이 수명이 짧고 컴퓨팅 집약적인 워크로드에서 높습니다.
  • 최적의 리소스 활용: 최신 머신 유형은 최신 소프트웨어에 더 적합하고 클라우드 플랫폼의 고급 기능과 더 호환되는 경우가 많습니다. 이러한 머신 유형은 일반적으로 리소스 활용률을 개선하여 과도한 프로비저닝의 필요성을 줄이고 모든 와트의 전력이 생산적으로 사용되도록 지원합니다.

컨테이너화된 애플리케이션 배포

지속 가능한 클라우드 컴퓨팅 전략의 일환으로 GKE 및 Cloud Run과 같은 컨테이너 기반 완전 관리형 서비스를 사용할 수 있습니다. 이러한 서비스는 리소스 사용률을 최적화하고 리소스 관리를 자동화하는 데 도움이 됩니다.

Cloud Run의 0으로 확장 기능을 활용합니다.

Cloud Run은 서비스에 수신 트래픽이 없거나 작업이 완료되면 인스턴스를 0으로 자동 확장하는 관리형 서버리스 환경을 제공합니다. 자동 확장은 유휴 인프라의 에너지 소비를 없애는 데 도움이 됩니다. 리소스는 요청을 적극적으로 처리할 때만 전원이 공급됩니다. 이 전략은 간헐적 또는 이벤트 기반 워크로드에 매우 효과적입니다. AI 워크로드의 경우 Cloud Run에서 GPU를 사용하여 GPU가 사용될 때만 GPU를 소비하고 비용을 지불할 수 있습니다.

GKE를 사용하여 리소스 최적화 자동화

GKE는 컨테이너 조정 플랫폼으로, 애플리케이션이 필요한 리소스만 사용하도록 합니다. 리소스 최적화를 자동화할 수 있도록 GKE는 다음 기법을 제공합니다.

  • 빈 패킹: GKE Autopilot은 사용 가능한 노드에 여러 컨테이너를 지능적으로 패킹합니다. 빈 패킹은 각 노드의 활용도를 극대화하고 유휴 상태이거나 활용도가 낮은 노드의 수를 줄여 에너지 소비를 줄이는 데 도움이 됩니다.
  • 수평형 포드 자동 확장 (HPA): HPA를 사용하면 CPU 사용량이나 맞춤 애플리케이션별 측정항목과 같은 사전 정의된 측정항목을 기반으로 컨테이너 복제본 (포드) 수가 자동으로 조정됩니다. 예를 들어 애플리케이션의 트래픽이 급증하면 GKE는 수요를 충족하기 위해 포드를 추가합니다. 트래픽이 줄어들면 GKE는 포드 수를 줄입니다. 이 동적 확장 기능을 사용하면 리소스가 오버프로비저닝되지 않으므로 불필요한 컴퓨팅 용량에 대한 비용을 지불하거나 전원을 켤 필요가 없습니다.
  • 수직형 포드 자동 확장 (VPA): 개별 컨테이너의 CPU 및 메모리 할당과 한도를 자동으로 조정하도록 GKE를 구성할 수 있습니다. 이 구성을 사용하면 컨테이너에 필요한 것보다 많은 리소스가 할당되지 않으므로 리소스 초과 프로비저닝을 방지할 수 있습니다.
  • GKE 다차원 포드 자동 확장: 복잡한 워크로드의 경우 HPA와 VPA를 동시에 구성하여 포드 수와 각 포드의 크기를 모두 최적화할 수 있습니다. 이 기술은 필요한 성능에 대해 가능한 가장 작은 에너지 사용량을 보장하는 데 도움이 됩니다.
  • 토폴로지 인식 스케줄링 (TAS): TAS는 데이터 센터 인프라의 물리적 구조를 기반으로 포드를 배치하여 GKE에서 AI 및 ML 워크로드의 네트워크 효율성을 향상합니다. TAS는 네트워크 홉을 최소화하기 위해 전략적으로 워크로드를 공동 배치합니다. 이러한 공동 배치로 통신 지연 시간과 에너지 소비를 줄일 수 있습니다. 노드와 특수 하드웨어의 물리적 정렬을 최적화함으로써 TAS는 작업 완료를 가속화하고 대규모 AI 및 ML 워크로드의 에너지 효율성을 극대화합니다.

탄소 인식 예약 구성

Google은 가장 깨끗한 전기를 제공하는 위치시간으로 워크로드를 지속적으로 이동하고 있습니다. 또한 대체 사용 사례를 위해 오래된 장비를 용도 변경하거나 수확합니다. 이 탄소 인식 스케줄링 전략을 사용하여 컨테이너화된 워크로드가 청정 에너지를 사용하도록 할 수 있습니다.

탄소 인식 스케줄링을 구현하려면 지역의 데이터 센터에 전력을 공급하는 에너지 믹스에 관한 정보가 실시간으로 필요합니다. 이 정보는 GitHub의 Google Cloud 지역의 무탄소 에너지 저장소 또는 BigQuery 공개 데이터 세트에서 머신 리더블 형식으로 확인할 수 있습니다. Google 연간 탄소 데이터 세트를 계산하는 데 사용되는 시간별 그리드 믹스 및 탄소 강도 데이터는 Electricity Maps에서 제공됩니다.

탄소 인식 스케줄링을 구현하려면 다음 기법을 사용하는 것이 좋습니다.

  • 지리적 이동: 재생 에너지원 비율이 높은 리전에서 워크로드가 실행되도록 예약합니다. 이 접근 방식을 사용하면 더 깨끗한 전기 그리드를 사용할 수 있습니다.
  • 시간 이동: 배치 처리와 같은 중요하지 않고 유연한 워크로드의 경우 사용량이 적은 시간이나 재생 에너지의 양이 가장 많은 시간에 워크로드가 실행되도록 구성합니다. 이 접근 방식을 시간 이동이라고 하며, 클린 에너지원을 사용할 수 있을 때 이를 활용하여 전체 탄소 발자국을 줄이는 데 도움이 됩니다.

에너지 효율적인 재해 복구 설계

재해 복구 (DR)를 준비할 때는 보조 리전에 중복 리소스를 사전 프로비저닝하는 경우가 많습니다. 하지만 유휴 상태이거나 활용도가 낮은 리소스는 에너지 낭비를 초래할 수 있습니다. 복구 시간 목표 (RTO)를 저해하지 않으면서 리소스 활용도를 극대화하고 탄소 배출량을 최소화하는 DR 전략을 선택합니다.

콜드 스타트 효율성 최적화

다음 방법을 사용하여 보조 (DR) 리전에서 활성 리소스를 최소화하거나 제거하세요.

  • 콜드 DR 우선순위 지정: DR 리전의 리소스를 사용 중지하거나 0으로 확장된 상태로 유지합니다. 이 접근 방식은 유휴 컴퓨팅 리소스의 탄소 발자국을 제거하는 데 도움이 됩니다.
  • 서버리스 장애 조치 활용: DR 엔드포인트에 Cloud Run과 같은 관리형 서버리스 서비스를 사용합니다. Cloud Run은 사용하지 않을 때 0으로 확장되므로 트래픽이 DR 리전으로 전환될 때까지 에너지를 소비하지 않는 DR 토폴로지를 유지할 수 있습니다.
  • 코드형 인프라 (IaC)로 복구 자동화: DR 사이트에서 리소스를 실행 상태 (웜)로 유지하는 대신 Terraform과 같은 IaC 도구를 사용하여 필요할 때만 환경을 신속하게 프로비저닝합니다.

중복성과 사용률의 균형 유지

리소스 중복은 에너지 낭비의 주요 원인입니다. 중복을 줄이려면 다음 방법을 사용하세요.

  • 활성-수동보다 활성-활성 선호: 활성-수동 설정에서는 수동 사이트의 리소스가 유휴 상태이므로 에너지가 낭비됩니다. 최적의 크기로 조정된 활성-활성 아키텍처를 사용하면 두 리전의 프로비저닝된 모든 리소스가 트래픽을 적극적으로 처리합니다. 이 접근 방식을 사용하면 인프라의 에너지 효율성을 극대화할 수 있습니다.
  • 적절한 크기의 중복: 고가용성 또는 DR 요구사항을 충족하기 위해 복제가 필요한 경우에만 리전 간에 데이터와 서비스를 복제합니다. 복제본이 추가될 때마다 영구 스토리지와 네트워크 이그레스의 에너지 비용이 증가합니다.

에너지 효율적인 소프트웨어 개발

Google Cloud 잘 설계된 프레임워크의 지속 가능성 요소 원칙은 에너지 소비와 서버 부하를 최소화하는 소프트웨어를 작성하기 위한 권장사항을 제공합니다.

원칙 개요

권장사항에 따라 클라우드 애플리케이션을 빌드하면 클라우드 인프라 리소스(AI, 컴퓨팅, 스토리지, 네트워크)에서 사용하는 에너지를 최적화할 수 있습니다. 또한 데이터 센터의 물 요구량과 최종 사용자 기기가 애플리케이션에 액세스할 때 소비하는 에너지를 줄이는 데도 도움이 됩니다.

에너지 효율적인 소프트웨어를 빌드하려면 설계 및 개발부터 배포, 유지관리, 보관에 이르기까지 소프트웨어 수명 주기 전반에 걸쳐 지속 가능성 고려사항을 통합해야 합니다. AI를 사용하여 클라우드 워크로드의 환경 영향을 최소화하는 소프트웨어를 빌드하는 방법에 관한 자세한 안내는 Google Cloud eBook, 지속 가능한 소프트웨어 빌드를 참고하세요.

권장사항

이 섹션의 권장사항은 다음 중점사항으로 그룹화됩니다.

  • 계산 작업 최소화: 중복 로직을 없애고 불필요한 계산이나 기능 부풀림을 방지하는 간결하고 집중된 코드를 사용하세요.
  • 효율적인 알고리즘 및 데이터 구조 사용: CPU 부하를 줄이고 메모리 사용량을 최소화하는 시간 효율적이고 메모리 효율적인 알고리즘을 선택합니다.
  • 컴퓨팅 및 데이터 작업 최적화: CPU, 메모리, 디스크 I/O, 네트워크 등 사용 가능한 모든 리소스를 효율적으로 사용한다는 목표로 개발합니다. 예를 들어 사용 중인 루프를 이벤트 기반 논리로 대체하면 불필요한 폴링을 방지할 수 있습니다.
  • 프런트엔드 최적화 구현: 최종 사용자 기기에서 소비하는 전력을 줄이려면 이미지 및 애셋에 최소화, 압축, 지연 로딩과 같은 전략을 사용하세요.

계산 작업 최소화

에너지 효율적인 소프트웨어를 작성하려면 애플리케이션에서 실행하는 총 컴퓨팅 작업량을 최소화해야 합니다. 불필요한 명령어, 중복 루프, 추가 기능은 에너지, 시간, 리소스를 소비합니다. 다음 권장사항을 사용하여 최소한의 계산을 실행하는 소프트웨어를 빌드하세요.

간결하고 집중적인 코드 작성

필요한 결과를 달성하는 데 필수적인 최소한의 코드를 작성하려면 다음 방법을 사용하세요.

  • 중복 로직 및 기능 부풀림 제거: 필수 기능만 실행하는 코드를 작성합니다. 계산 오버헤드와 복잡성을 높이지만 사용자에게 측정 가능한 가치를 제공하지 않는 기능은 피하세요.
  • 리팩터링: 시간이 지남에 따라 에너지 효율을 개선하려면 애플리케이션을 정기적으로 감사하여 사용하지 않는 기능을 파악하세요. 적절한 조치를 취하여 이러한 기능을 삭제하거나 리팩터링하세요.
  • 불필요한 작업 방지: 결과가 필요할 때까지 값을 계산하거나 작업을 실행하지 마세요. 애플리케이션의 종속 구성요소에 출력이 필요할 때까지 계산을 지연하는 지연 평가와 같은 기법을 사용합니다.
  • 코드 가독성 및 재사용 가능성 우선순위 지정: 가독성이 높고 재사용 가능한 코드를 작성합니다. 이 접근 방식은 중복을 최소화하고 반복 금지 (DRY) 원칙을 따르므로 소프트웨어 개발 및 유지관리에서 발생하는 탄소 배출량을 줄이는 데 도움이 될 수 있습니다.

백엔드 캐싱 사용

백엔드 캐싱을 사용하면 애플리케이션이 동일한 작업을 반복적으로 실행하지 않습니다. 캐시 적중률이 높으면 요청당 에너지 소비가 거의 선형으로 감소합니다. 백엔드 캐싱을 구현하려면 다음 기법을 사용하세요.

  • 자주 사용하는 데이터 캐시: 자주 액세스하는 데이터를 임시 고성능 스토리지 위치에 저장합니다. 예를 들어 Memorystore와 같은 인메모리 캐싱 서비스를 사용합니다. 애플리케이션이 캐시에서 데이터를 가져오면 데이터베이스 쿼리 및 디스크 I/O 작업의 양이 줄어듭니다. 따라서 백엔드의 데이터베이스와 서버의 부하가 줄어듭니다.
  • API 응답 캐시: 중복되고 비용이 많이 드는 네트워크 호출을 방지하려면 자주 발생하는 API 요청의 결과를 캐시하세요.
  • 인메모리 캐싱 우선순위 지정: 느린 디스크 I/O 작업과 복잡한 데이터베이스 쿼리를 없애려면 고속 메모리 (RAM)에 데이터를 저장하세요.
  • 적절한 캐시 쓰기 전략 선택:
    • writethrough 전략은 데이터가 캐시 영구 저장소에 동기적으로 기록되도록 합니다. 이 전략은 캐시 적중 가능성을 높이므로 영구 저장소에서 에너지 집약적인 읽기 요청을 더 적게 받습니다.
    • 쓰기 백 (쓰기 지연) 전략은 쓰기 중심 애플리케이션의 성능을 향상합니다. 데이터는 먼저 캐시에 기록되고 데이터베이스는 나중에 비동기적으로 업데이트됩니다. 이 전략은 느린 데이터베이스의 즉각적인 쓰기 부하를 줄입니다.
  • 스마트 제거 정책 사용: 캐시를 간결하고 효율적으로 유지합니다. 비활성 데이터나 유용성이 낮은 데이터를 삭제하고 자주 요청되는 데이터에 사용할 수 있는 공간을 최대화하려면 TTL (수명), LRU (가장 최근에 사용되지 않음), LFU (가장 자주 사용되지 않음)와 같은 정책을 사용하세요.

효율적인 알고리즘 및 데이터 구조 사용

선택한 알고리즘과 데이터 구조에 따라 소프트웨어의 원시 계산 복잡성이 결정됩니다. 적절한 알고리즘과 데이터 구조를 선택하면 작업을 완료하는 데 필요한 CPU 사이클 수와 메모리 작업 수를 최소화할 수 있습니다. CPU 사이클과 메모리 작업이 적을수록 에너지 소비가 줄어듭니다.

최적의 시간 복잡도를 위한 알고리즘 선택

필요한 결과를 가장 짧은 시간에 달성하는 알고리즘에 우선순위를 둡니다. 이 접근 방식은 리소스 사용 기간을 줄이는 데 도움이 됩니다. 리소스 사용량을 최적화하는 알고리즘을 선택하려면 다음 방법을 사용하세요.

  • 복잡성 감소에 집중: 복잡성을 평가하려면 런타임 측정항목을 넘어 알고리즘의 이론적 복잡성을 고려하세요. 예를 들어 버블 정렬과 비교할 때 병합 정렬은 대규모 데이터 세트의 계산 부하와 에너지 소비를 크게 줄입니다.
  • 중복 작업 방지: 선택한 프로그래밍 언어 또는 프레임워크에서 최적화된 내장 함수를 사용합니다. 이러한 함수는 C 또는 C++와 같은 하위 수준의 에너지 효율적인 언어로 구현되는 경우가 많으므로 맞춤 코딩된 함수에 비해 기본 하드웨어에 더 최적화되어 있습니다.

효율성을 위해 데이터 구조 선택

선택한 데이터 구조에 따라 데이터를 검색, 삽입 또는 처리할 수 있는 속도가 결정됩니다. 이 속도는 CPU 및 메모리 사용량에 영향을 미칩니다. 효율적인 데이터 구조를 선택하려면 다음 방법을 사용하세요.

  • 검색 및 검색에 최적화: 항목이 있는지 확인하거나 특정 값을 검색하는 것과 같은 일반적인 작업의 경우 속도에 최적화된 데이터 구조를 사용하는 것이 좋습니다. 예를 들어 해시 맵이나 해시 집합을 사용하면 거의 일정한 시간 조회가 가능하므로 배열을 선형으로 검색하는 것보다 에너지 효율적인 접근 방식입니다.
  • 메모리 사용량 최소화: 효율적인 데이터 구조는 애플리케이션의 전체 메모리 사용량을 줄이는 데 도움이 됩니다. 메모리 액세스 및 관리가 줄어들어 전력 소비가 낮아집니다. 또한 메모리 프로필이 더 간소화되어 프로세스를 더 효율적으로 실행할 수 있으므로 리소스 업그레이드를 연기할 수 있습니다.
  • 특수 구조 사용: 특정 문제에 맞게 설계된 데이터 구조를 사용합니다. 예를 들어 빠른 문자열 접두사 검색에는 트라이 데이터 구조를 사용하고, 가장 높거나 낮은 값에만 효율적으로 액세스해야 하는 경우에는 우선순위 대기열을 사용합니다.

컴퓨팅 및 데이터 작업 최적화

소프트웨어를 개발할 때는 전체 기술 스택에서 효율적이고 비례적인 리소스 사용에 집중하세요. CPU, 메모리, 디스크, 네트워크를 제한된 공유 리소스로 취급합니다. 효율적인 리소스 사용이 비용과 에너지 소비의 실질적인 감소로 이어진다는 점을 인식합니다.

CPU 사용률 및 유휴 시간 최적화

의미 있는 작업을 실행하지 않고 CPU가 활성 상태에서 에너지를 소비하는 시간을 최소화하려면 다음 방법을 사용하세요.

  • 폴링보다 이벤트 기반 로직 선호: 리소스 집약적인 비지 루프 또는 지속적인 확인 (폴링)을 이벤트 기반 로직으로 대체합니다. 이벤트 기반 아키텍처는 애플리케이션의 구성요소가 관련 이벤트에 의해 트리거될 때만 작동하도록 합니다. 이 접근 방식을 사용하면 리소스 집약적인 폴링이 필요 없는 주문형 처리가 가능합니다.
  • 일정한 고주파수 방지: CPU가 항상 최고 주파수로 작동하도록 강제하지 않는 코드를 작성합니다. 에너지 소비를 최소화하려면 유휴 상태인 시스템이 저전력 상태나 절전 모드로 전환될 수 있어야 합니다.
  • 비동기 처리 사용: 유휴 대기 시간 동안 스레드가 잠기지 않도록 하려면 비동기 처리를 사용하세요. 이 접근 방식을 사용하면 리소스가 확보되고 전반적인 리소스 사용률이 높아집니다.

메모리 및 디스크 I/O 효율적으로 관리

메모리 및 디스크 사용량이 비효율적이면 불필요한 처리가 발생하고 전력 소비가 증가합니다. 메모리와 I/O를 효율적으로 관리하려면 다음 기법을 사용하세요.

  • 엄격한 메모리 관리: 사용하지 않는 메모리 리소스를 적극적으로 해제하는 조치를 취합니다. 필요 이상으로 오랫동안 메모리에 큰 객체를 보유하지 마세요. 이 접근 방식을 사용하면 성능 병목 현상이 방지되고 메모리 액세스에 소비되는 전력이 줄어듭니다.
  • 디스크 I/O 최적화: 영구 저장소 리소스와의 애플리케이션 읽기 및 쓰기 상호작용 빈도를 줄입니다. 예를 들어 중간 메모리 버퍼를 사용하여 데이터를 저장합니다. 고정된 간격으로 또는 버퍼가 특정 크기에 도달할 때 데이터를 영구 저장소에 씁니다.
  • 일괄 작업: 빈번한 소규모 디스크 작업을 규모가 큰 소수의 일괄 작업으로 통합합니다. 일괄 작업은 많은 개별 소규모 트랜잭션보다 에너지를 적게 소비합니다.
  • 압축 사용: 적절한 데이터 압축 기법을 적용하여 디스크에 쓰거나 디스크에서 읽는 데이터 양을 줄입니다. 예를 들어 Cloud Storage에 저장하는 데이터를 압축하려면 압축 해제 트랜스코딩을 사용하면 됩니다.

네트워크 트래픽 최소화

데이터 전송 작업 중에 네트워크 리소스가 상당한 에너지를 소비합니다. 네트워크 통신을 최적화하려면 다음 기법을 사용하세요.

  • 페이로드 크기 최소화: 요청에 필요한 데이터만 전송하도록 API와 애플리케이션을 설계합니다. 필드가 몇 개만 필요한 경우 큰 JSON 또는 XML 구조를 가져오거나 반환하지 마세요. 반환되는 데이터 구조가 간결해야 합니다.
  • 왕복 줄이기: 사용자 작업을 완료하는 데 필요한 네트워크 왕복 수를 줄이려면 더 스마트한 프로토콜을 사용하세요. 예를 들어 HTTP/1.1보다 HTTP/3을 선호하고, REST보다 GraphQL을 선택하고, 바이너리 프로토콜을 사용하고, API 호출을 통합합니다. 네트워크 호출 볼륨을 줄이면 서버와 최종 사용자 기기의 에너지 소비량이 모두 줄어듭니다.

프런트엔드 최적화 구현

프런트엔드 최적화는 최종 사용자가 다운로드하고 처리해야 하는 데이터를 최소화하여 최종 사용자 기기의 리소스 부하를 줄이는 데 도움이 됩니다.

코드 및 애셋 최소화

최종 사용자가 더 작고 효율적으로 구조화된 리소스를 다운로드하고 처리해야 하는 경우 기기에서 소비하는 전력이 줄어듭니다. 최종 사용자 기기의 다운로드 볼륨과 처리 부하를 최소화하려면 다음 기법을 사용하세요.

  • 최소화 및 압축: JavaScript, CSS, HTML 파일의 경우 적절한 최소화 도구를 사용하여 공백 및 주석과 같은 불필요한 문자를 삭제합니다. 이미지와 같은 파일이 압축되고 최적화되었는지 확인합니다. CI/CD 파이프라인을 사용하여 웹 애셋의 최소화 및 압축을 자동화할 수 있습니다.
  • 지연 로드: 이미지, 동영상, 중요하지 않은 애셋은 웹페이지의 뷰포트로 스크롤되는 등 실제로 필요할 때만 로드합니다. 이 접근 방식을 사용하면 초기 데이터 전송량과 최종 사용자 기기의 처리 부하가 줄어듭니다.
  • 더 작은 JavaScript 번들: 최신 모듈 번들러와 트리 셰이킹과 같은 기법을 사용하여 JavaScript 번들에서 사용하지 않는 코드를 삭제합니다. 이 접근 방식을 사용하면 더 빨리 로드되고 서버 리소스를 더 적게 사용하는 파일이 생성됩니다.
  • 브라우저 캐싱: HTTP 캐싱 헤더를 사용하여 사용자의 브라우저가 정적 애셋을 로컬에 저장하도록 지시합니다. 브라우저 캐싱은 후속 방문 시 반복적인 다운로드와 불필요한 네트워크 트래픽을 방지하는 데 도움이 됩니다.

경량 사용자 환경 (UX) 우선순위 지정

사용자 인터페이스의 디자인은 프런트엔드 콘텐츠를 렌더링하는 계산 복잡성에 큰 영향을 미칠 수 있습니다. 경량 UX를 제공하는 프런트엔드 인터페이스를 빌드하려면 다음 기법을 사용하세요.

  • 효율적인 렌더링: 리소스 집약적이고 빈번한 문서 객체 모델 (DOM) 조작을 피하세요. 렌더링 복잡성을 최소화하고 불필요한 재렌더링을 없애는 코드를 작성합니다.
  • 경량 설계 패턴: 적절한 경우 정적 사이트 또는 프로그레시브 웹 앱 (PWA)을 선호합니다. 이러한 사이트와 앱은 로드 속도가 더 빠르고 서버 리소스가 적게 필요합니다.
  • 접근성 및 성능: 반응형이고 로드 속도가 빠른 사이트는 지속 가능하고 접근성이 뛰어난 경우가 많습니다. 최적화된 깔끔한 디자인은 콘텐츠가 렌더링될 때 소비되는 리소스를 줄여줍니다. 성능과 속도에 최적화된 웹사이트는 수익을 높이는 데 도움이 될 수 있습니다. Deloitte와 Google의 연구인 밀리초가 백만 달러를 만든다에 따르면 사이트 속도가 0.1초 (100ms) 개선되면 소매업 사이트의 전환이 8.4% 증가하고 평균 주문 금액이 9.2% 증가합니다.

지속 가능성을 위해 데이터 및 스토리지 최적화

Google Cloud Well-Architected Framework의 지속 가능성 부문에서 이 원칙을 따르면 Google Cloud의 스토리지 리소스에 대한 에너지 효율성과 탄소 발자국을 최적화하는 데 도움이 되는 권장사항을 확인할 수 있습니다.

원칙 개요

저장된 데이터는 수동적인 리소스가 아닙니다. 데이터의 수명 주기 전반에 걸쳐 에너지가 소비되고 탄소 배출이 발생합니다. 저장된 데이터 1GB마다 지속적으로 전원이 공급되고 냉각되며 관리되는 물리적 인프라가 필요합니다. 지속 가능한 클라우드 아키텍처를 구현하려면 데이터를 가치 있지만 환경적으로 비용이 많이 드는 애셋으로 취급하고 사전 데이터 거버넌스를 우선시해야 합니다.

데이터 보관, 품질, 위치에 관한 결정을 통해 클라우드 비용과 에너지 소비를 크게 줄일 수 있습니다. 저장하는 데이터를 최소화하고, 데이터를 저장하는 위치와 방법을 최적화하고, 자동 삭제 및 보관 전략을 구현합니다. 데이터 클러터를 줄이면 시스템 성능이 향상되고 데이터의 장기적인 환경 발자국이 근본적으로 줄어듭니다.

권장사항

지속 가능성을 위해 데이터 수명 주기와 스토리지 리소스를 최적화하려면 다음 섹션의 권장사항을 고려하세요.

가치가 높은 데이터에 우선순위 지정

사용하지 않거나 중복되거나 오래된 저장 데이터는 기본 인프라에 전원을 공급하기 위해 계속 에너지를 소비합니다. 스토리지 관련 탄소 발자국을 줄이려면 다음 기법을 사용하세요.

중복 식별 및 제거

여러 Google Cloud 프로젝트 또는 서비스 간에 데이터 세트가 불필요하게 복제되지 않도록 정책을 설정합니다. BigQuery 데이터 세트 또는 Cloud Storage 버킷과 같은 중앙 데이터 저장소를 단일 정보 소스로 사용하고 이러한 저장소에 적절한 액세스 권한을 부여합니다.

섀도우 데이터 및 다크 데이터 삭제

다크 데이터는 유용성 또는 소유자를 알 수 없는 데이터입니다. 섀도우 데이터는 데이터의 무단 복사본을 의미합니다. Dataplex Universal Catalog과 같은 데이터 탐색 및 카탈로그 솔루션을 사용하여 스토리지 시스템을 스캔하고 다크 데이터와 섀도우 데이터를 찾습니다. 이러한 결과를 정기적으로 감사하고 필요에 따라 다크 데이터 및 섀도우 데이터를 보관처리하거나 삭제하는 프로세스를 구현합니다.

AI 워크로드의 데이터 볼륨 최소화

모델 학습 및 제공에 필요한 특성과 처리된 데이터만 저장합니다. 가능한 경우 데이터 샘플링, 집계, 합성 데이터 생성과 같은 기법을 사용하여 대규모 원시 데이터 세트에 의존하지 않고 모델 성능을 달성하세요.

데이터 품질 검사 통합

데이터 수집 시점에 Dataproc, Dataflow 또는 Dataplex Universal Catalog과 같은 서비스를 사용하여 자동 데이터 검증 및 데이터 정리 파이프라인을 구현합니다. 품질이 낮은 데이터는 저장공간을 낭비합니다. 또한 나중에 분석이나 AI 학습에 데이터를 사용할 때 불필요한 에너지 소비가 발생합니다.

데이터의 값 밀도 검토

로그 및 IoT 스트림과 같은 대량 데이터 세트를 주기적으로 검토합니다. 필요한 정보 밀도를 유지하고 실제 스토리지 볼륨을 줄이기 위해 데이터를 요약하거나 집계하거나 다운샘플링할 수 있는지 확인합니다.

백업 필요성 비판적으로 평가하기

최소한의 노력으로 재생할 수 있는 데이터의 백업 필요성을 평가합니다. 이러한 데이터의 예로는 중간 ETL 결과, 일시적인 캐시, 안정적인 영구 소스에서 파생된 학습 데이터가 있습니다. 고유하거나 다시 만드는 데 비용이 많이 드는 데이터만 백업을 유지합니다.

스토리지 수명 주기 관리 최적화

데이터의 유용성이 감소하면 데이터가 에너지 효율적인 스토리지 클래스로 이동되거나 적절한 경우 폐기되도록 스토리지 수명 주기를 자동화합니다. 다음 기법을 사용하세요.

적절한 Cloud Storage 클래스 선택

객체 수명 주기 관리를 사용하여 액세스 빈도에 따라 Cloud Storage의 데이터를 탄소 배출량이 적은 스토리지 클래스로 전환하는 작업을 자동화합니다.

  • 현재 프로덕션 모델과 같이 활발하게 사용되는 데이터 세트에만 Standard 스토리지를 사용하세요.
  • 오래된 AI 학습 데이터 세트나 자주 액세스하지 않는 백업과 같은 데이터를 Nearline 또는 Coldline Storage로 전환합니다.
  • 장기 보관의 경우 대규모 에너지 효율에 최적화된 Archive Storage를 사용하세요.

공격적인 데이터 수명 주기 정책 구현

로그 파일, 임시 모델 아티팩트, 오래된 중간 결과와 같은 중요하지 않은 데이터에 대해 명확하고 자동화된 TTL (수명) 정책을 정의합니다. 수명 주기 규칙을 사용하여 정의된 기간이 지난 후 이러한 데이터를 자동으로 삭제합니다.

리소스 태그 지정 의무화

모든 Cloud Storage 버킷, BigQuery 데이터 세트, 영구 디스크에 일관된 리소스 태그와 라벨을 사용하도록 합니다. 데이터 소유자, 데이터의 목적, 보관 기간을 나타내는 태그를 만듭니다. 조직 정책 서비스 제약 조건을 사용하여 보관 기간과 같은 필수 태그가 리소스에 적용되도록 합니다. 태그를 사용하면 수명 주기 관리를 자동화하고, 세부적인 FinOps 보고서를 만들고, 탄소 배출량 보고서를 생성할 수 있습니다.

컴퓨팅 스토리지의 크기를 적절하게 조정하고 프로비저닝 해제

Compute Engine 인스턴스에 연결된 영구 디스크를 정기적으로 감사하고 디스크가 과도하게 프로비저닝되지 않았는지 확인합니다. 스냅샷은 백업에 필요한 경우에만 사용합니다. 사용하지 않는 이전 스냅샷을 삭제합니다. 데이터베이스의 경우 데이터 보관 정책을 사용하여 기본 영구 디스크의 크기를 줄입니다.

스토리지 형식 최적화

분석 워크로드를 제공하는 스토리지의 경우 JSON 또는 CSV와 같은 행 기반 형식보다 Parquet 또는 최적화된 Avro와 같은 압축된 열 형식으로 저장하는 것이 좋습니다. 열 형식 스토리지는 실제 디스크 공간 요구사항을 크게 줄이고 읽기 효율성을 개선합니다. 이 최적화는 연결된 컴퓨팅 및 I/O 작업의 에너지 소비를 줄이는 데 도움이 됩니다.

지역성 및 데이터 이동 최적화

데이터의 물리적 위치와 이동은 네트워크 리소스 소비와 저장에 필요한 에너지에 영향을 미칩니다. 다음 기법을 사용하여 데이터 리전성을 최적화하세요.

탄소 배출량이 적은 스토리지 리전 선택

규정 준수 요구사항에 따라 무탄소 에너지 (CFE) 비율이 높거나 전력망 탄소 집약도가 낮은 Google Cloud 리전 에 데이터를 저장합니다. 리소스 위치 조직 정책 제약조건을 사용하여 탄소 배출량이 많은 지역에서 스토리지 버킷 생성을 제한합니다. Google Cloud 리전의 CFE 및 탄소 집약도 데이터에 대한 자세한 내용은 Google Cloud 리전의 무탄소 에너지를 참고하세요.

복제 최소화

필수 재해 복구 (DR) 또는 고가용성 (HA) 요구사항을 충족하기 위해서만 리전 간에 데이터를 복제합니다. 리전 간 및 멀티 리전 복제 작업은 데이터의 에너지 비용과 탄소 발자국을 크게 증가시킵니다.

데이터 처리 위치 최적화

네트워크 데이터 전송의 에너지 소비를 줄이려면 데이터 소스와 동일한 리전에 AI 학습 및 BigQuery 처리와 같은 컴퓨팅 집약적 워크로드를 배포하세요.

파트너 및 고객을 위한 데이터 이동 최적화

클라우드 서비스, 위치, 제공업체 간에 대량의 데이터를 이동하려면 파트너와 고객에게 Storage Transfer Service 또는 데이터 공유 API를 사용하도록 권장하세요. 대량 데이터 덤프를 피하세요. 공개 데이터 세트의 경우 요청자 지불 버킷을 사용하여 데이터 전송 및 처리 비용과 환경 영향을 최종 사용자에게 전가합니다.

지속적으로 지속 가능성 측정 및 개선

Google Cloud Well-Architected Framework의 지속 가능성 부문에서 이 원칙을 따르면 Google Cloud에서 워크로드의 지속 가능성을 측정하고 지속적으로 개선할 수 있습니다.

원칙 개요

클라우드 워크로드가 지속 가능하도록 하려면 정확하고 투명한 측정항목이 필요합니다. 검증 가능한 측정항목을 사용하면 지속 가능성 목표를 행동으로 전환할 수 있습니다. 클라우드에서 만드는 모든 리소스에는 연결된 탄소 발자국이 있습니다. 지속 가능한 클라우드 아키텍처를 구축하고 유지하려면 탄소 데이터 측정을 운영 피드백 루프에 통합해야 합니다.

이 섹션의 권장사항은 탄소 발자국을 사용하여 탄소 배출량을 정량화하고, 탄소 핫스팟을 식별하고, 타겟 워크로드 최적화를 구현하고, 최적화 노력의 결과를 검증하는 프레임워크를 제공합니다. 이 프레임워크를 사용하면 비용 최적화 목표를 검증 가능한 탄소 배출량 감축 목표와 효율적으로 일치시킬 수 있습니다.

탄소 발자국 보고 방법론

탄소 발자국은 클라우드 관련 배출량에 대한 투명하고 감사 가능하며 전 세계적으로 일관된 보고서를 제공합니다. 이 보고서는 탄소 보고 및 회계에 관한 국제 표준, 주로 온실가스 (GHG) 프로토콜을 준수합니다. 탄소 발자국 보고서에서는 위치 기반 및 시장 기반 회계 방법을 사용합니다. 위치 기반 회계는 현지 그리드의 배출량 계수를 기반으로 합니다. 시장 기반 회계는 Google의 무탄소 에너지 (CFE) 구매를 고려합니다. 이 이중 접근 방식을 사용하면 Google Cloud에서 워크로드의 물리적 그리드 영향과 탄소 이점을 모두 파악할 수 있습니다.

사용된 데이터 소스, 범위 3 포함, 고객 할당 모델 등 탄소 발자국 보고서가 준비되는 방법에 대한 자세한 내용은 탄소 발자국 보고 방법론을 참고하세요.

권장사항

지속적인 개선을 위해 탄소 측정을 사용하려면 다음 섹션의 권장사항을 고려하세요. 권장사항은 지속 가능성을 고려한 설계 클라우드 운영을 구현하기 위한 성숙도 단계로 구성됩니다.

1단계: 기준 설정

이 단계에서는 필요한 도구를 설정하고 데이터에 액세스할 수 있으며 데이터가 올바르게 통합되었는지 확인합니다.

  1. 권한 부여: FinOps, SecOps, 플랫폼 엔지니어링과 같은 팀이 Google Cloud 콘솔에서 탄소 발자국 대시보드에 액세스할 수 있도록 권한을 부여합니다. Identity and Access Management(IAM)에서 적절한 결제 계정에 대해 탄소 발자국 뷰어 역할 (roles/billing.carbonViewer)을 부여합니다.
  2. 데이터 내보내기 자동화: BigQuery로의 탄소 발자국 데이터 내보내기를 자동화하도록 구성합니다. 내보낸 데이터를 사용하면 심층 분석을 수행하고, 탄소 데이터를 비용 및 사용량 데이터와 연관시키고, 맞춤 보고서를 생성할 수 있습니다.
  3. 탄소 관련 핵심성과지표 (KPI) 정의: 탄소 배출량을 비즈니스 가치와 연결하는 측정항목을 설정합니다. 예를 들어 탄소 집약도는 고객, 거래 또는 수익 단위당 CO2 등가물의 킬로그램 수를 나타내는 측정항목입니다.

2단계: 탄소 핫스팟 식별

탄소 발자국 보고서의 세부 데이터를 분석하여 환경에 가장 큰 영향을 미치는 영역을 파악하세요. 이 분석에는 다음 기법을 사용하세요.

  • 범위별 우선순위 지정: 가장 큰 총 탄소 배출자를 빠르게 식별하려면 대시보드의 데이터를 프로젝트, 지역, 서비스별로 분석합니다.
  • 이중 회계 사용: 지역의 탄소 영향을 평가할 때는 위치 기반 배출량 (지역 전기 그리드의 환경 영향)과 시장 기반 배출량 (Google의 CFE 투자 혜택)을 모두 고려하세요.
  • 비용과 연관: BigQuery의 탄소 데이터를 결제 데이터와 결합하고 최적화 작업이 지속 가능성 비용에 미치는 영향을 평가합니다. 높은 비용은 높은 탄소 배출량과 관련이 있는 경우가 많습니다.
  • 데이터에 주석을 달아 노력 대비 수익 (ROE) 측정: 리소스의 적절한 크기 조정 또는 대규모 서비스 폐기와 같은 특정 이벤트로 BigQuery의 탄소 데이터에 주석을 추가합니다. 주석을 사용하면 탄소 배출량 및 비용 절감을 특정 최적화 이니셔티브에 귀속시킬 수 있으므로 각 이니셔티브의 결과를 측정하고 입증할 수 있습니다.

3단계: 타겟팅된 최적화 구현

이는 설계에 의한 지속 가능한 클라우드 운영을 구현하는 실행 단계입니다. 비용 및 탄소 배출의 주요 요인으로 식별된 특정 리소스를 최적화하려면 다음 전략을 사용하세요.

  • 무인 프로젝트 폐기: 탄소 발자국 데이터와 통합된 무인 프로젝트 추천자를 정기적으로 확인합니다. 탄소 배출량과 비용을 즉시 검증된 방식으로 줄이려면 사용하지 않는 프로젝트의 검토 및 최종 삭제를 자동화하세요.
  • 리소스 크기 조정: Active Assist 크기 조정 추천자(예: Compute Engine VM의 머신 유형 권장사항)을 사용하여 프로비저닝된 리소스 용량을 실제 사용량에 맞춥니다. 컴퓨팅 집약적 작업 및 AI 워크로드의 경우 가장 효율적인 머신 유형과 AI 모델을 사용합니다.
  • 탄소 인식 스케줄링 채택: 시간 제약이 없는 일괄 워크로드의 경우 리전별 CFE 데이터를 스케줄링 로직에 통합합니다. 가능한 경우 조직 정책 서비스의 리소스 위치 제약조건을 사용하여 새 리소스 생성을 탄소 배출량이 적은 리전으로 제한합니다.
  • 데이터 확산 방지: 데이터 거버넌스 정책을 구현하여 자주 액세스하지 않는 데이터가 적절한 콜드 스토리지 클래스 (Nearline, Coldline 또는 Archive)로 전환되거나 영구적으로 삭제되도록 합니다. 이 전략은 스토리지 리소스의 에너지 비용을 줄이는 데 도움이 됩니다.
  • 애플리케이션 코드 개선: 과도한 리소스 사용량이나 불필요한 계산을 유발하는 코드 수준의 비효율성을 수정합니다.

자세한 내용은 다음을 참조하세요.

4단계: 지속 가능성 관행 및 보고 제도화

이 단계에서는 탄소 측정을 거버넌스 프레임워크에 삽입합니다. 이 접근 방식을 사용하면 조직이 지속적인 지속 가능성 개선과 검증 가능한 보고에 필요한 기능과 제어 기능을 갖출 수 있습니다.

  • GreenOps 거버넌스 구현: 탄소 발자국 데이터를 Cloud Billing 데이터와 통합하기 위해 공식 GreenOps 기능 또는 워킹 그룹을 설정합니다. 이 기능은 프로젝트 전반에서 탄소 감축 목표에 대한 책임을 정의하고, 비용 최적화를 지속 가능성 목표와 연계하며, 지출 대비 탄소 효율성을 추적하는 보고를 구현해야 합니다.
  • 보고 및 규정 준수를 위해 탄소 발자국 데이터 사용: BigQuery에서 감사 가능한 검증된 탄소 발자국 데이터를 사용하여 공식 환경, 사회, 거버넌스 (ESG) 공시를 만드세요. 이 접근 방식을 사용하면 투명성에 대한 이해관계자의 요구를 충족하고 의무 및 자발적 규정을 준수할 수 있습니다.
  • 교육 및 인식에 투자: 관련 기술팀 및 비기술팀을 대상으로 필수 지속 가능성 교육을 시행합니다. 팀은 탄소 발자국 데이터에 액세스하고 이를 해석하는 방법과 일상적인 워크플로 및 설계 선택에 최적화 권장사항을 적용하는 방법을 알아야 합니다. 자세한 내용은 역할 기반 지속 가능성 교육 제공을 참고하세요.
  • 탄소 요구사항 정의: 새 배포를 위한 애플리케이션의 수락 기준에 탄소 배출량 측정항목을 비기능 요구사항 (NFR)으로 통합합니다. 이 관행은 설계자와 개발자가 애플리케이션 개발 수명 주기의 시작부터 탄소 배출량이 적은 설계 옵션에 우선순위를 두도록 지원합니다.
  • GreenOps 자동화: 스크립트, 템플릿, 코드형 인프라 (IaC) 파이프라인을 사용하여 Active Assist 권장사항의 구현을 자동화합니다. 이 관행을 통해 팀은 조직 전체에 권장사항을 일관되고 신속하게 적용할 수 있습니다.

지속 가능성 문화 장려

Google Cloud Well-Architected Framework의 지속 가능성 부문에서 이 원칙을 따르면 조직 전반의 팀이 지속 가능성 관행을 인식하고 능숙하게 사용할 수 있는 문화를 구축하는 데 도움이 되는 권장사항을 확인할 수 있습니다.

원칙 개요

지속 가능성 관행을 적용하려면 도구와 기술 이상의 것이 필요합니다. 교육과 책임감에 기반한 문화적 변화가 필요합니다. 팀은 지속 가능성 문제를 인식해야 하며 지속 가능성 관행에 대한 실질적인 숙련도를 갖춰야 합니다.

  • 지속 가능성 인식은 모든 아키텍처 및 운영 결정이 지속 가능성에 실질적인 영향을 미친다는 컨텍스트 지식입니다. 팀은 클라우드가 추상적인 가상 리소스 모음이 아니라 에너지를 소비하고 탄소 배출을 생성하는 물리적 리소스에 의해 구동된다는 점을 인식해야 합니다.
  • 지속 가능성 관행에 대한 숙련도에는 탄소 배출량 데이터를 해석하는 지식, 클라우드 지속 가능성 거버넌스 구현 경험, 에너지 효율성을 위해 코드를 리팩터링하는 기술이 포함됩니다.

지속 가능성 관행을 조직 목표에 맞추려면 팀이 클라우드 인프라와 소프트웨어의 에너지 사용량이 조직의 탄소 발자국에 어떻게 기여하는지 이해해야 합니다. 잘 계획된 교육은 개발자, 설계자부터 재무 전문가, 운영 엔지니어에 이르기까지 모든 이해관계자가 일상 업무의 지속 가능성 컨텍스트를 이해하는 데 도움이 됩니다. 이러한 공유된 이해를 통해 팀은 수동적인 규정 준수에서 벗어나 적극적인 최적화로 나아갈 수 있으며, 이는 클라우드 워크로드를 설계에 따라 지속 가능하게 만듭니다. 지속 가능성은 보안, 비용, 성능, 안정성에 대한 기타 요구사항과 마찬가지로 핵심 비기능적 요구사항 (NFR)이 됩니다.

권장사항

지속 가능성 문제에 대한 인식을 높이고 지속 가능성 관행에 대한 숙련도를 높이려면 다음 섹션의 권장사항을 고려하세요.

비즈니스 컨텍스트 및 조직 목표와의 연관성 제공

지속 가능성은 기술적인 문제가 아니라 개인의 행동을 조직의 환경 관련 사명과 일치시키는 문화적 변화가 필요합니다. 팀이 지속 가능성 이니셔티브의 이유를 이해하면 이니셔티브를 선택사항이 아닌 핵심 원칙으로 채택할 가능성이 높아집니다.

큰 그림에 연결

팀이 저탄소 지역을 선택하거나 데이터 파이프라인을 최적화하는 등 개별 아키텍처 선택이 조직의 전반적인 지속 가능성 약속에 어떻게 기여하는지 이해하도록 지원하세요. 이러한 선택이 지역 사회와 업계에 미치는 영향을 명시적으로 전달합니다. 추상적인 탄소 측정항목을 기업의 사회적 책임 (CSR) 목표 달성을 위한 구체적인 진행 상황 지표로 전환합니다.

예를 들어 다음 메시지는 워크로드를 탄소 배출량이 적은 지역으로 이전하고 전력 효율적인 머신 유형을 사용하기로 한 결정의 긍정적인 결과와 경영진의 인정을 팀에 알립니다. 이 메시지는 CO2 환산량을 참조하므로 팀에서 탄소 감축 조치의 영향을 파악하는 데 도움이 됩니다.

데이터 분석 엔진을 us-central1 잎 아이콘 저탄소2 리전으로 이전하고 클러스터를 C4A Axion 기반 인스턴스로 업그레이드하여 탄소 프로필을 근본적으로 변경했습니다. 이러한 변화로 데이터 분석 엔진의 탄소 집약도가 75% 감소했으며, 이는 이번 분기에 CO2 환산량 12미터톤이 감소한 것과 같습니다. 이 이전은 비즈니스 목표에 큰 영향을 미쳤으며 이사회에 발송된 4분기 뉴스레터에 포함되었습니다."

재무 및 지속 가능성 목표 전달

지속 가능성 관행을 목표에 맞추려면 투명성이 중요합니다. 가능한 한 조직 전체에 지속 가능성 목표와 진행 상황을 널리 공유하세요. 연간 재무제표에서 지속 가능성 진행 상황을 강조합니다. 이러한 커뮤니케이션을 통해 기술팀은 자신의 업무를 조직의 대외적 약속과 재정 건전성에 있어 중요한 부분으로 인식할 수 있습니다.

공동 운명 사고방식

팀에 클라우드 지속 가능성의 협업적 특성에 대해 교육합니다. Google은 인프라 및 데이터 센터의 효율성을 비롯한 클라우드의 지속 가능성을 책임집니다. 고객은 클라우드에서 리소스와 워크로드의 지속 가능성을 책임집니다. 이러한 협업을 공동 운명체로서의 파트너십으로 표현하면 조직과 Google이 최적의 환경 결과를 달성하기 위해 함께 노력한다는 이해를 강화할 수 있습니다.

역할 기반 지속 가능성 교육 제공

지속 가능성이 이론적 개념이 아닌 실용적인 기술이 되도록 지속 가능성 교육을 특정 직무에 맞게 조정하세요. 데이터 과학자가 사용할 수 있는 지속 가능성 도구와 기법은 FinOps 분석가가 사용할 수 있는 도구와 매우 다릅니다. 다음 표를 참고하세요.

역할 학습 초점
데이터 과학자 및 ML 엔지니어 컴퓨팅의 탄소 집약도: 기존 시스템에서 AI 학습 작업을 실행하는 것과 맞춤형 AI 가속기에서 실행하는 것의 차이를 보여줍니다. 파라미터가 적은 모델이 에너지 소비를 크게 줄이면서 필요한 정확도를 달성할 수 있는 방법을 강조합니다.
개발자 코드 효율성 및 리소스 소비: 지연 시간이 긴 코드나 비효율적인 루프가 CPU 런타임 연장 및 에너지 소비 증가로 직접 이어지는 방식을 설명합니다. 경량 컨테이너의 중요성과 소프트웨어의 환경적 영향을 줄이기 위해 애플리케이션 성능을 최적화해야 할 필요성을 강조합니다.
설계자 설계에 따른 지속 가능성: 지역 선택 및 워크로드 배치에 집중합니다. 재생 에너지 비율이 높은 잎 아이콘 탄소 배출량2이 낮은 리전 (예: northamerica-northeast1)을 선택하면 단 한 줄의 코드를 작성하기 전에 전체 애플리케이션 스택의 탄소 프로필이 어떻게 근본적으로 달라지는지 보여줍니다.
플랫폼 엔지니어 및 운영 엔지니어 사용률 극대화: 유휴 리소스 및 초과 프로비저닝의 환경 비용을 강조합니다. 클라우드 리소스가 효율적으로 사용되도록 자동 확장 및 적정 크기 조정 시나리오를 제시합니다. 활용률과 같은 지속 가능성 관련 측정항목을 만들고 추적하는 방법과 컴퓨팅 시간과 같은 측정항목을 탄소 배출량의 상응하는 측정항목으로 변환하는 방법을 설명합니다.
FinOps 탄소의 단위 경제학: 재정 지출과 환경 영향 간의 관계에 중점을 둡니다. GreenOps 관행을 통해 조직이 거래당 탄소 배출량을 추적하여 지속 가능성을 비용 및 활용률과 같은 기존 핵심성과지표(KPI)만큼 중요한 핵심성과지표(KPI)로 만들 수 있는 방법을 보여줍니다.
제품 관리자 지속 가능성을 기능으로 구현: 탄소 감축 목표를 제품 로드맵에 통합하는 방법을 보여줍니다. 간소화된 사용자 여정이 클라우드 리소스와 최종 사용자 기기의 에너지 소비를 줄이는 데 어떻게 도움이 되는지 보여줍니다.
비즈니스 리더 전략적 조정 및 보고: 클라우드 지속 가능성이 환경, 사회, 지배구조 (ESG) 점수 및 공공 평판에 미치는 영향을 중점적으로 다룹니다. 지속 가능성 선택이 규제 위험을 줄이고 커뮤니티 및 업계에 대한 약속을 이행하는 데 어떻게 도움이 되는지 설명합니다.

지속 가능성을 옹호하고 성공을 인정

장기적인 발전을 위해서는 내부 기술 수정사항을 넘어 파트너와 업계에 영향을 미치기 시작해야 합니다.

관리자가 지속 가능성을 옹호할 수 있도록 지원

관리자에게 시장 출시 속도 및 비용과 같은 다른 비즈니스 측정항목과 유사하게 환경 영향을 우선순위로 지정하는 데 필요한 데이터와 권한을 제공합니다. 관리자가 이 데이터를 보유하면 지속 가능성을 생산 속도를 늦추는 있으면 좋은 기능이 아닌 품질 및 효율성 표준으로 간주하기 시작합니다. 이들은 특정 지역에서 더 세분화된 탄소 데이터와 더 새롭고 친환경적인 프로세서와 같은 새로운 클라우드 제공업체 기능을 적극적으로 옹호합니다.

업계 표준 및 프레임워크 준수

지속 가능성 노력이 신뢰할 수 있고 측정 가능하도록 내부 관행을 공인된 글로벌 및 지역 표준에 맞추세요. 자세한 내용은 지속 가능성 관행을 업계 가이드라인에 맞추기를 참고하세요.

지속 가능성 노력을 장려

지속 가능성이 엔지니어링 문화의 지속적인 부분이 되려면 팀이 지속 가능성을 우선시하는 것의 가치를 인식해야 합니다. 개선과 효율성을 보상하는 구체적이고 측정 가능한 KPI로 전환합니다.

탄소 KPI 및 NFR 정의

지속 가능성을 핵심 기술 요구사항으로 취급합니다. 백만 요청당 CO2 등가량 또는 AI 학습 실행당 탄소집약도와 같은 탄소 KPI를 정의하면 지속 가능성에 미치는 영향을 눈에 띄게 파악하고 조치를 취할 수 있습니다. 예를 들어 모든 새 프로젝트의 NFR에 지속 가능성을 통합합니다. 즉, 시스템이 특정 지연 시간 또는 가용성 목표를 충족해야 하는 것처럼 시스템은 정의된 탄소 배출량 예산 내에 있어야 합니다.

노력 대비 수익 측정

팀이 배치 작업을 다른 지역으로 이동하는 등 영향은 크지만 노력은 적게 드는 지속 가능성 개선 사항과 최소한의 이점을 제공할 수 있는 복잡한 코드 리팩터링 연습을 구분할 수 있도록 지원하세요. 노력 대비 수익 (ROE)에 대한 가시성을 제공합니다. 팀에서 더 효율적인 프로세서 제품군을 선택할 때는 새 프로세서로 이전하는 데 필요한 시간과 노력에 비해 얼마나 많은 탄소 배출량을 피했는지 정확히 알아야 합니다.

탄소 감축 인정 및 축하

지속 가능성 영향은 인프라의 백그라운드에 숨겨져 있는 경우가 많습니다. 지속 가능성 진전을 위한 모멘텀을 구축하려면 조직 전체에 성공을 알리세요. 예를 들어 모니터링 대시보드의 주석을 사용하여 팀에서 특정 지속 가능성 최적화를 배포한 시점을 표시합니다. 이러한 가시성을 통해 팀은 대시보드의 데이터를 지적하고 성공에 대한 인정을 받을 수 있습니다.

지속가능성 실천사항을 업계 가이드라인에 맞추기

Google Cloud Well-Architected Framework의 지속 가능성 부문에서 이 원칙을 따르면 지속 가능성 노력을 조정해야 하는 업계 가이드라인과 프레임워크를 간략하게 파악할 수 있습니다.

원칙 개요

지속 가능성 이니셔티브가 전 세계적으로 인정받는 측정, 보고, 검증 방법을 기반으로 구축되도록 하려면 다음 업계 가이드라인에 따라 이니셔티브를 조정하는 것이 좋습니다.

지속 가능성 이니셔티브를 이러한 공유 외부 가이드라인에 맞추면 투자자, 규제 기관, 기타 외부 이해관계자가 요구하는 신뢰성과 감사 가능성을 확보할 수 있습니다. 또한 엔지니어링팀 전반에 걸쳐 책임감을 조성하고, 직원 교육에 지속 가능성을 포함하며, 환경, 사회, 거버넌스(ESG) 보고를 위한 전사적 약속에 클라우드 운영을 성공적으로 통합합니다.

W3C 웹 지속 가능성 가이드라인

W3C 웹 지속 가능성 가이드라인 (WSG)은 디지털 제품 및 서비스의 환경 영향을 해결하기 위해 W3C 작업 그룹에서 개발한 새로운 권장사항 프레임워크입니다. 이 가이드라인은 비즈니스 및 제품 전략, 사용자 경험 (UX) 디자인, 웹 개발, 호스팅, 인프라, 시스템 등 디지털 솔루션의 전체 수명 주기를 다룹니다. WSG의 핵심 목표는 개발자와 아키텍트가 에너지 효율성이 높고 네트워크 트래픽, 클라이언트 측 처리, 서버 측 리소스 소비를 줄이는 웹사이트와 웹 애플리케이션을 빌드할 수 있도록 지원하는 것입니다. 이 가이드라인은 애플리케이션 수준의 지속 가능성을 클라우드 수준의 아키텍처 결정과 일치시키는 데 중요한 참조점이 됩니다.

Green Software Foundation

Green Software Foundation (GSF)은 지속 가능한 소프트웨어에 관한 업계 생태계를 구축하는 데 중점을 둡니다. 이 프로젝트의 목표는 탄소 발자국을 최소화하도록 설계, 빌드, 운영되는 소프트웨어의 생성을 촉진하는 것입니다. GSF는 모든 소프트웨어의 탄소 배출률을 측정하는 공통 표준을 제공하는 소프트웨어 탄소 강도 (SCI) 사양을 개발했습니다. GSF와의 정렬을 통해 개발자는 애플리케이션의 효율성을 클라우드 환경의 탄소 영향과 직접 연결할 수 있습니다.

온실가스 프로토콜

온실가스 (GHG) 프로토콜은 온실가스 배출량을 측정, 관리, 공개적으로 보고하는 데 널리 사용되는 표준입니다. 이 프로토콜은 세계자원연구소 (WRI)와 세계지속가능발전기업협의회 (WBCSD)의 파트너십을 통해 개발되었습니다. GHG 프로토콜은 기업 기후 회계에 필수적인 프레임워크를 제공합니다. 탄소 발자국 보고서는 클라우드 사용과 관련된 배출 범위에 대한 데이터를 제공합니다. 자세한 내용은 탄소 발자국 보고 방법론을 참고하세요.

GHG 프로토콜을 준수하면 지속 가능성 이니셔티브의 신뢰성을 확보하고 외부 당사자가 탄소 배출량 데이터를 감사할 수 있습니다. 또한 그린워싱에 대한 인식을 방지하고 투자자, 규제 기관, 외부 이해관계자의 실사 요구사항을 충족할 수 있습니다. 검증되고 감사된 데이터는 조직이 책임을 입증하고 대외용 지속 가능성 약속에 대한 신뢰를 구축하는 데 도움이 됩니다.