AI 영역

이 문서에서는 Cloud Storage용 AI 영역을 간략하게 설명합니다. AI 영역은 인공지능 (AI) 및 머신러닝 (ML) 워크로드에 컴퓨팅 용량을 제공하도록 설계된 특수 Google Cloud 영역입니다. 이러한 인스턴스는 상당한 ML 가속기 (GPU 및 TPU) 용량을 제공합니다.

AI 영역은 다음과 같은 AI 및 ML 워크로드에 최적화되어 있습니다.

  • 대규모 학습
  • 소규모 학습, 미세 조정, 대량 추론, 재학습
  • 실시간 ML 추론

AI 영역에 관한 배경 정보는 Compute Engine 문서의 AI 영역을 참고하세요.

리전 내에서 AI 영역은 표준(비 AI) 영역에서 지리적으로 떨어져 있을 수 있습니다.

AI 영역은 다른 Cloud Storage 및 Google Cloud 기능과 호환됩니다.

스토리지 아키텍처 권장사항

비용, 내구성, 성능의 균형을 맞추려면 계층화된 스토리지 아키텍처를 사용하는 것이 좋습니다.

  • 콜드 스토리지 레이어: 학습 데이터 세트 및 모델 체크포인트의 지속적이고 내구성이 뛰어난 스토리지('정보 소스')를 위해 표준 영역에서 리전 Cloud Storage 버킷을 사용합니다.

  • 성능 레이어: 특수 영역 스토리지 서비스를 사용하여 고속 캐시 또는 임시 스크래치 공간으로 작동합니다. 이 접근 방식은 활성 작업 중에 영역 간 지연 시간을 없애고 처리량을 최대화합니다.

AI 영역으로 AI 및 ML 시스템 성능을 최적화하려면 다음 스토리지 솔루션을 사용하는 것이 좋습니다.

스토리지 서비스 설명 사용 사례
Cloud Storage의 Anywhere Cache 기능

버킷에서 자주 읽는 데이터를 AI 영역으로 가져오는 완전 관리형 SSD 지원 영역별 읽기 캐시입니다.

제공하려는 학습 데이터 세트 또는 모델이 포함된 리전 소스 버킷의 AI 영역에 Anywhere Cache 인스턴스를 만듭니다. 학습 작업에서 파일을 읽으면 파일이 빠른 영역 내 캐시로 가져옵니다. 후속 읽기는 리전 네트워크를 우회하여 캐시에서 직접 제공됩니다. 이는 모델 학습의 반복적인 데이터 액세스 패턴과 지연 시간이 짧은 모델 서빙에 적합합니다.

추천 대상:

  • 읽기 중심 워크로드
  • 지연 시간이 짧은 모델 학습 및 서빙

추천하지 않는 대상

  • 완전한 POSIX 규정 준수가 필요한 애플리케이션

권장사항

AI 영역을 사용할 때는 다음과 같은 스토리지 권장사항을 따르세요.

  • 컴퓨팅 리소스와 동일한 AI 영역에 성능 레이어를 프로비저닝합니다. 컴퓨팅과 스토리지를 공동 배치하면 GPU와 TPU가 완전히 포화 상태를 유지하여 'goodput' (유용한 처리량)을 극대화할 수 있습니다.

  • Anywhere Cache의 경우 기본 학습 에포크를 시작하기 전에 데이터 세트를 사전 읽기하여 SSD 지원 캐시를 채우거나 예열합니다.

사용 가능한 AI 영역

다음 표에는 AI 영역과 상위 Google Cloud 리전이 나와 있습니다.

지리적 영역 상위 지역 AI 영역
미국 us-south1 us-south1-ai1b

고려사항

  • 리전의 AI 영역에서 Google Cloud 리전의 Google Cloud 제품에 액세스할 수 있습니다. 하지만 AI 영역에서 Google Cloud 리전의 서비스에 액세스하면 네트워크 지연 시간이 추가될 수 있습니다. AI 영역의 위치가 리전의 표준 영역 위치와 물리적으로 분리되어 있을 수 있기 때문입니다.

  • AI 영역은 모든 Google Cloud 서비스를 로컬로 제공하지 않으므로 AI 영역이 아닌 표준 영역에서 ML이 아닌 워크로드를 실행하는 것이 좋습니다.

다음 단계