개요: 확장성이 뛰어나고 내구성이 높으며 비용이 저렴한 객체 저장소입니다. 학습 및 모델 체크포인트에 필요한 방대한 데이터 세트를 저장하고 최종 학습된 모델을 호스팅하는 데 적합합니다. Cloud Storage FUSE를 사용하는 Cloud Storage는 파일 시스템 서비스보다 비용 효율적으로 데이터 스토리지를 확장할 수 있으므로 대부분의 AI 및 ML 사용 사례에 권장되는 스토리지 솔루션입니다.
GPU 및 TPU 클러스터의 대규모 (최대 EB) 학습 데이터를 지원합니다.
높은 처리량 (최대 1.25TB/초 대역폭 이상)을 지원합니다. Cloud Storage에서 처리량을 최대화하려면 대역폭을 추가로 요청하세요.
Cloud Storage FUSE와의 통합을 통해 Cloud Storage 버킷을 로컬 파일 시스템으로 마운트할 수 있습니다. 또한 Cloud Storage FUSE CSI 드라이버를 사용하면 확장된 AI 및 ML 워크로드를 위해 Google Kubernetes Engine (GKE)에서 버킷을 로컬 파일 시스템으로 마운트할 수 있습니다.
Anywhere Cache를 사용하여 컴퓨팅 워크로드와 동일한 영역에 스토리지를 공동 배치하면 멀티 리전 버킷과 함께 사용할 때 처리량 (최대 2.5TB/s)이 높아지고 지연 시간이 짧아지며 위치 유연성이 향상됩니다.