AI 영역

AI 영역은 인공지능 및 머신러닝 (AI 및 ML) 학습 및 추론 워크로드에 사용되는 전문 영역입니다. 이러한 인스턴스는 상당한 ML 가속기 (GPU 및 TPU) 용량을 제공합니다.

리전 내에서 AI 영역은 표준(비 AI) 영역과 지리적으로 떨어져 있습니다. 다음 그림은 us-central1 리전의 표준 영역에 비해 더 멀리 있는 AI 영역(us-central1-ai1a)의 예를 보여줍니다.

부모 영역

각 AI 영역은 리전의 표준 영역과 연결되며 이를 상위 영역이라고 합니다. 상위 영역은 AI 영역과 동일한 접미사가 있는 표준 영역입니다. 예를 들어 다이어그램에서 us-central1-aus-central1-ai1a의 상위 영역입니다. 소프트웨어 업데이트 일정을 공유하고 인프라를 공유하는 경우도 있습니다. 즉, 상위 영역에 영향을 미치는 소프트웨어 또는 인프라 문제도 AI 영역에 영향을 미칠 수 있습니다. 고가용성 솔루션을 설계할 때는 고가용성 (HA) 고려사항을 검토하여 상위 영역에 대한 종속성을 고려하세요.

AI 영역을 사용해야 하는 경우

AI 영역은 AI 및 ML 워크로드에 최적화되어 있습니다. 다음 안내에 따라 AI 영역에 가장 적합한 워크로드와 표준 영역에 더 적합한 워크로드를 결정하세요.

추천 대상:

  • 대규모 학습: 다수의 액셀러레이터를 사용할 수 있으므로 대규모 언어 모델 (LLM) 및 파운데이션 모델 학습과 같은 대규모 학습 워크로드에 적합합니다.

  • 소규모 학습, 파인 튜닝, 대량 추론, 재학습: AI 영역은 상당한 액셀러레이터 용량이 필요한 워크로드에 적합합니다.

  • 실시간 ML 추론: AI 영역은 실시간 추론 워크로드를 지원합니다. 특히 워크로드에 상위 리전으로의 왕복 요청이 필요한 경우 성능은 애플리케이션 설계 및 모델 지연 시간 요구사항에 따라 달라집니다.

다음의 경우 권장하지 않음:

  • 비 ML 워크로드: AI 영역은 모든 Google Cloud 서비스를 로컬로 제공하지 않으므로 비 ML 워크로드는 표준 영역에서 실행하는 것이 좋습니다.

AI 영역에서 서비스 액세스

AI 영역에서 Google Cloud 리전의 모든 Google Cloud 제품에 액세스할 수 있습니다. 하지만 AI 영역은 리전의 표준 영역 위치와 물리적으로 분리되어 있으므로 AI 영역에서 Google Cloud 리전의 서비스에 액세스하면 네트워크 지연 시간이 추가될 수 있습니다.

특정 제품은 AI 영역에서 영역 리소스를 로컬로 만들거나 액세스하는 것을 지원합니다. 이러한 서비스에 대한 자세한 내용은 다음 표를 참고하세요.

제품 설명
Google Kubernetes Engine(GKE) ComputeClass, 노드 자동 프로비저닝, GKE Standard 노드 풀을 사용한 구성을 비롯하여 GKE 클러스터에서 AI 영역을 사용하기 위한 설정

GKE에서 AI 영역 사용
Cloud Storage 활성 작업 중 성능을 극대화하는 영역 스토리지와 데이터 세트 및 모델 체크포인트를 위한 영구 스토리지를 비롯한 AI 영역의 워크로드용 객체 스토리지 구성

Cloud Storage에서 AI 영역 사용
Compute Engine 명명 규칙, 액셀러레이터 유형 또는 머신 유형별로 필터링하는 방법을 비롯하여 콘솔, Google Cloud CLI, REST API를 사용하여 사용 가능한 AI 영역을 식별하는 방법

사용 가능한 AI 영역 찾기

위치

AI 영역은 다음 위치에서 사용할 수 있습니다.

AI 영역 AI 영역 위치 Google Cloud 리전 Google Cloud 리전 위치 상위 영역
us-south1-ai1b 북미 텍사스 오스틴 us-south1 북미 텍사스 댈러스 us-south1-b
us-central1-ai1a 북미 네브래스카 링컨 us-central1 북미 아이오와 카운슬블러프즈 us-central1-a

AI 영역 사용

AI 영역은 Google Cloud 콘솔, Google Cloud CLI 또는 REST를 통해 액세스할 수 있습니다. 하지만Google Cloud 콘솔을 사용하여 VM을 만드는 경우 AI 영역을 수동으로 선택해야 합니다. 표준 영역과 달리 자동으로 선택되지 않습니다. 다음 기능과 함께 AI 영역을 사용하려면 이러한 리소스를 설정할 때 AI 영역을 명시적으로 선택해야 합니다.

  • 특정 Compute Engine 및 GKE 기능: 특정 Compute Engine 및 GKE 리전 기능 (예: 리전 관리형 인스턴스 그룹, 리전 GKE 클러스터)에서는 AI 영역이 자동으로 선택되지 않습니다. GKE에 관한 자세한 내용은 GKE 문서를 참고하세요.

  • 비가속기 워크로드 제한사항: AI 영역에서 CPU 전용 VM을 실행할 때는 Compute Engine에서 적용하는 제한사항에 유의하세요. 여기에는 GPU:CPU 비율 및 예약 요구사항이 포함될 수 있습니다.

  • Vertex AI: GKE 기반 Vertex AI 리전 제품은 리전 클러스터에 AI 영역을 포함하도록 GKE를 구성해야 합니다. Vertex AI를 선택할 필요는 없습니다. Vertex AI가 이 구성을 관리합니다.

  • Google Cloud 서비스 메타데이터 위치 API: locations.list API를 사용할 때 --extraLocationTypes 플래그를 사용 설정해야 AI 영역이 이를 사용하려는 사용자에게만 표시됩니다.

GKE에서 AI 영역 사용

기본적으로 GKE는 AI 영역에 워크로드를 배포하지 않습니다. AI 영역을 사용하려면 다음 옵션 중 하나를 구성합니다.

  • ComputeClasses: AI 영역에서 주문형 TPU를 요청하도록 가장 높은 우선순위를 설정합니다. ComputeClass를 사용하면 워크로드의 하드웨어 구성에 우선순위를 지정할 수 있습니다. 예시는 ComputeClass 정보를 참고하세요.

  • 노드 자동 프로비저닝: 포드 사양에서 nodeSelector 또는 nodeAffinity를 사용하여 AI 영역에 노드 풀을 만들도록 노드 자동 프로비저닝에 지시합니다. 워크로드에서 AI 영역을 명시적으로 타겟팅하지 않으면 노드 자동 프로비저닝은 새 노드 풀을 만들 때 표준 영역만 고려합니다. 이 구성을 사용하면 AI/ML 모델을 실행하지 않는 워크로드가 명시적으로 다르게 구성하지 않는 한 표준 영역에 유지됩니다. nodeSelector를 사용하는 매니페스트의 예는 자동 생성 노드의 기본 영역 설정을 참고하세요.

  • GKE Standard: 노드 풀을 직접 관리하는 경우 노드 풀을 만들 때 --node-locations 플래그에서 AI 영역을 사용합니다. 예를 보려면 GKE Standard에 TPU 워크로드 배포를 참고하세요.

제한사항

AI 영역에서는 다음을 사용할 수 없습니다.

AI 영역 설계 고려사항

AI 영역을 사용하도록 애플리케이션을 설계할 때는 다음 사항을 고려하세요.

고가용성 (HA) 고려사항

AI 영역은 소프트웨어 출시 및 인프라를 상위 영역과 공유합니다. 워크로드의 고가용성을 보장하려면 영역을 선택할 때(자동 또는 수동) 다음 배포 패턴을 피하세요.

  • AI 영역과 상위 영역에 HA 워크로드를 배포하지 마세요.

  • 동일한 상위 영역을 공유하는 두 AI 영역에 HA 워크로드를 배포하지 마세요.

스토리지 권장사항

비용, 내구성, 성능의 균형을 맞추려면 계층화된 스토리지 아키텍처를 사용하는 것이 좋습니다.

  1. 콜드 스토리지 레이어: 학습 데이터 세트와 모델 체크포인트를 지속적이고 내구성이 뛰어난 스토리지에 저장하려면 표준 영역의 리전 Cloud Storage 버킷을 사용하세요.
  2. 성능 레이어: 특수 영역 스토리지 서비스를 사용하여 고속 캐시 또는 임시 스크래치 공간으로 작동합니다. 이 접근 방식은 활성 작업 중에 영역 간 지연 시간을 없애고 goodput을 극대화합니다.

    GPU와 TPU가 완전히 포화 상태를 유지하여 유효 처리량을 최대화하려면 컴퓨팅 리소스와 동일한 AI 영역에 성능 레이어를 프로비저닝하세요.

AI 영역으로 AI 및 ML 시스템 성능을 최적화하려면 다음 스토리지 솔루션을 사용하는 것이 좋습니다.

스토리지 서비스 설명 사용 사례
Cloud Storage의 Anywhere Cache 기능 버킷에서 자주 읽는 데이터를 AI 영역으로 가져오는 완전 관리형 SSD 지원 영역별 읽기 캐시입니다. 추천 대상:
  • 읽기 중심 워크로드
  • 지연 시간이 짧은 모델 학습 및 서빙
다음은 권장하지 않습니다.
  • 완전한 POSIX 규정 준수가 필요한 애플리케이션

다음 단계