이 문서에서는 사전 연결된 NVIDIA GPU가 있는 가상 머신(VM) 인스턴스를 제공하는 가속기 최적화 머신 계열을 설명합니다. 이러한 인스턴스는 특별히 인공지능(AI), 머신러닝(ML), 고성능 컴퓨팅(HPC), 그래픽 집약적 애플리케이션을 위해 설계되었습니다.
가속기 최적화 머신 계열은 A4X, A4, A3, A2, G4, G2 머신 시리즈에서 사용 가능합니다. 한 시리즈의 각 머신 유형에는 특정 모델과 연결된 여러 NVIDIA GPU가 있습니다. N1 범용 머신 유형에 일부 GPU 모델을 연결할 수도 있습니다.
워크로드 유형별 권장 머신 시리즈
다음 섹션에서는 GPU 워크로드에 따라 권장되는 머신 시리즈를 제공합니다.
워크로드 유형 | 권장 머신 유형 |
---|---|
모델 사전 학습 | A4X, A4, A3 Ultra, A3 Mega, A3 High, A2 가장 적합한 항목을 찾으려면 AI 하이퍼컴퓨터 문서에서 모델 사전 학습 권장사항을 참조하세요. |
모델 미세 조정 | A4X, A4, A3 Ultra, A3 Mega, A3 High, A2, G4(프리뷰) 가장 적합한 항목을 찾으려면 AI 하이퍼컴퓨터 문서에서 모델 미세 조정 권장사항을 참조하세요. |
추론 제공 | A4X, A4, A3 Ultra, A3 Mega, A3 High, A3 Edge, A2, G4(프리뷰) 가장 적합한 항목을 찾으려면 AI 하이퍼컴퓨터 문서에서 추론 제공 권장사항을 참조하세요. |
그래픽 집약적 워크로드 | G4(프리뷰), G2, N1+T4 |
고성능 컴퓨팅 | 고성능 컴퓨팅 워크로드의 경우 가속기 최적화 머신 시리즈 모두 적합합니다. 가장 적합한 항목은 GPU로 오프로드해야 하는 컴퓨팅 부하에 따라 다릅니다. 자세한 내용은 AI 하이퍼컴퓨터 문서의 HPC 권장사항을 참조하세요. |
가격 및 소비 옵션
소비 옵션은 컴퓨팅 리소스를 가져오고 사용하는 방법을 나타냅니다.Google Cloud 는 연결된 GPU, 사전 정의된 vCPU, 메모리, 번들 로컬 SSD(해당하는 경우)에 대한 가속기 최적화 머신 유형의 요금을 청구합니다. 가속기 최적화 인스턴스 할인은 사용하는 소비 옵션에 따라 다릅니다. 가속기 최적화 인스턴스 가격 책정에 대한 자세한 내용은 VM 인스턴스 가격 책정 페이지의 가속기 최적화 머신 유형 계열 섹션을 참조하세요.
가속기 최적화 인스턴스 할인은 선택한 소비 옵션에 따라 다릅니다.
- 주문형: 리소스 기반 약정을 구매하면 일부 리소스에 대해 약정 사용 할인(CUD)을 적용할 수 있습니다. 하지만 주문형 옵션과 함께 사용하는 GPU 및 로컬 SSD 디스크에는 CUD를 적용할 수 없습니다. GPU 및 로컬 SSD 디스크에 CUD를 적용하려면 대신 예약 옵션 중 하나를 사용하세요.
- 스팟: 스팟 VM은 스팟 VM 가격 책정을 통해 자동으로 할인됩니다.
- Flex-start(프리뷰): Flex-start 소비 옵션을 사용하여 프로비저닝된 인스턴스는 동적 워크로드 스케줄러 가격 책정을 통해 자동으로 할인됩니다.
- 예약: 리소스 기반 약정을 구매하여 가속기 최적화 머신 유형 리소스에 CUD를 적용할 수 있습니다. GPU 및 로컬 SSD 디스크에 대한 약정을 적용하려면 해당 리소스에 연결된 예약이 필요합니다.
머신 유형별 소비 옵션 사용 가능성
다음 표에는 머신 시리즈별로 각 소비 옵션의 사용 가능성이 요약되어 있습니다. 소비 옵션을 선택하는 방법에 대한 자세한 내용은 AI 하이퍼컴퓨터 문서의 소비 모델 선택을 참조하세요.
머신 유형 | 주문형 | 스팟 | Flex-start(프리뷰) | 온디맨드 예약 | 미래용 예약(프리뷰) | 캘린더 모드의 미래용 예약(프리뷰) | AI 하이퍼컴퓨터의 미래용 예약(프리뷰) |
---|---|---|---|---|---|---|---|
A4X | |||||||
A4 | |||||||
A3 Ultra | |||||||
|
|||||||
GPU가 8개 미만인 A3 High | |||||||
A2 Ultra 및 A2 Standard | |||||||
G4(프리뷰) | 1 | ||||||
G2 |
1이 머신 시리즈에 액세스하는 방법을 알아보려면 Google 계정팀에 문의하세요.
A4X 머신 시리즈
A4X 머신 시리즈는 NVIDIA GB200 NVL72 랙 확장 아키텍처를 기반으로 하는 엑사스케일 플랫폼에서 실행되며 최대 140개의 vCPU와 884GB의 메모리를 포함합니다. 이 머신 시리즈는 컴퓨팅 및 메모리 집약적이고 네트워크에 바인딩된 ML 학습과 HPC 워크로드에 최적화되어 있습니다. A4X 머신 시리즈는 단일 머신 유형으로 제공됩니다.
A4X 머신 유형을 사용하여 만든 VM 인스턴스는 다음과 같은 기능을 제공합니다.
NVIDIA GB200 Superchips를 통한 GPU 가속: A4X 인스턴스에는 NVIDIA GB200 Superchips가 자동으로 연결됩니다. 이러한 Superchips에는 NVIDIA B200 GPU가 포함되며 GPU당 180GB의 메모리를 제공합니다. A4X에는 Arm® Neoverse™ V2 코어가 있는 NVIDIA Grace™ CPU를 포함한 소켓 2개가 있습니다. 이러한 CPU는 빠른 칩 간(NVLink-C2C) 통신을 통해 4개의 B200 GPU에 연결됩니다.
NVIDIA Grace CPU 플랫폼: A4X 인스턴스는 NVIDIA Grace CPU 플랫폼을 사용합니다. 플랫폼에 관한 자세한 내용은 CPU 플랫폼을 참조하세요.
업계 최고의 NVLink 확장성: 다중 노드 NVLink가 단일 도메인에서 최대 72개의 GPU까지 확장됩니다. NVIDIA B200 GPU는 GPU당 양방향으로 1,800GBps의 GPU NVLink 대역폭을 제공합니다. 시스템의 GPU 4개 간에 전체 NVLink 토폴로지를 사용할 경우 집계 NVLink 대역폭은 최대 130TB/초입니다.
RoCE를 사용한 향상된 네트워킹: A4X 인스턴스의 경우 RDMA over Converged Ethernet(RoCE)가 NVIDIA ConnectX-7(CX-7) 네트워크 인터페이스 카드(NIC)와 Google 데이터 센터 전반의 4방향 레일 정렬 네트워크를 결합하여 네트워크 성능을 향상시켜 줍니다. A4X 인스턴스는 RoCE를 활용하여 A4 인스턴스와 비교했을 때 클러스터의 인스턴스 간에 훨씬 높은 처리량을 달성합니다.
4방향 레일 정렬 네트워크 토폴로지에 물리적으로 격리된 CX-7 NIC를 사용하면 A4X 인스턴스를 단일 비차단 클러스터에서 72개 GPU 그룹으로 최대 수천 개의 GPU까지 확장할 수 있습니다.
네트워크 속도 향상: A3 머신 유형을 사용하여 만든 인스턴스에 비해 최대 4배 빠른 네트워킹 속도를 제공합니다.
데이터 전송 및 복구를 위한 가상화 최적화: A4X 인스턴스의 Peripheral Component Interconnect Express(PCIe) 토폴로지는 워크로드가 데이터 전송을 최적화하는 데 사용할 수 있는 보다 정확한 지역 정보를 제공합니다.
또한 GPU는 장애의 단계적 복구를 위한 함수 수준 재설정(FLR)과 특정 시나리오의 동시 실행 개선을 위한 원자적 작업 지원을 제공합니다.
로컬 SSD 및 Hyperdisk 지원: 로컬 SSD 중 12,000GiB가 A4X 인스턴스에 자동으로 추가됩니다. 로컬 SSD를 고속 스크래치 디스크로 사용하거나 I/O 병목 현상을 방지하면서 GPU에 데이터를 피드하는 데 사용할 수 있습니다.
더 높은 스토리지 성능이 필요한 애플리케이션의 경우 A4X 인스턴스에 Hyperdisk 최대 512TiB를 연결할 수 있습니다.
밀집 할당 및 토폴로지 인식 예약 지원: A4X 인스턴스를 프로비저닝할 때 밀집하게 할당된 용량 블록을 요청할 수 있습니다. 호스트 머신은 서로 물리적으로 가까운 위치에 할당되고 리소스 블록으로 프로비저닝되며 동적 ML 네트워크 패브릭으로 상호 연결되어 네트워크 홉을 최소화하고 최소 지연 시간에 맞게 최적화됩니다. 또한 A4X는 작업 배치에 사용할 수 있는 노드 및 클러스터 수준의 토폴로지 정보를 제공합니다.
A4X 머신 유형
A4X 가속기 최적화 머신 유형은 NVIDIA GB200 Grace Blackwell Superchips(nvidia-gb200
)를 사용하며 파운데이션 모델 학습과 서빙에 적합합니다.
A4X는 NVIDIA GB200 NVL72를 기반으로 하는 엑사스케일 플랫폼입니다. 각 머신에는 Arm Neoverse V2 코어가 있는 NVIDIA Grace CPU가 있는 소켓이 2개 있습니다. 이러한 CPU는 고속 칩 간(NVLink-C2C) 통신을 통해 NVIDIA B200 Blackwell GPU 4개에 연결됩니다.
연결된 NVIDIA GB200 Grace Blackwell Superchips | |||||||
---|---|---|---|---|---|---|---|
머신 유형 | vCPU 수1 | 인스턴스 메모리(GB) | 연결된 로컬 SSD(GiB) | 물리적 NIC 수 | 최대 네트워크 대역폭(Gbps)2 | GPU 수 | GPU 메모리3 (GB HBM3e) |
a4x-highgpu-4g |
140 | 884 | 12,000 | 6 | 2,000 | 4 | 720 |
1vCPU는 사용 가능한 CPU 플랫폼 중 하나에서 단일 하드웨어 하이퍼 스레드로 구현됩니다.
2 최대 이그레스 대역폭은 지정된 수를 초과할 수 없습니다. 실제 이그레스 대역폭은 대상 IP 주소와 기타 요인에 따라 다릅니다.
네트워크 대역폭에 대한 자세한 내용은 네트워크 대역폭을 참조하세요.
3GPU 메모리는 임시 데이터 스토리지에 사용할 수 있는 GPU 기기의 메모리입니다. 인스턴스의 메모리와는 별개이며 특히 그래픽 집약적인 워크로드의 더 높은 대역폭 수요를 처리하도록 설계되었습니다.
A4X 제한사항
- A4X 머신 유형의 지원되는 소비 옵션을 사용해야 용량을 요청할 수 있습니다.
- A4X 머신 유형을 사용하는 인스턴스에는 지속 사용 할인 및 가변형 약정 사용 할인이 적용되지 않습니다.
- 특정 리전 및 영역에서만 A4X 머신 유형을 사용할 수 있습니다.
- A4X 머신 유형을 사용하는 인스턴스에서는 Persistent Disk(리전 또는 영역)를 사용할 수 없습니다.
- A4X 머신 유형은 NVIDIA Grace 플랫폼에서만 사용 가능합니다.
- 기존 인스턴스의 머신 유형을 A4X 머신 유형으로 변경할 수 없습니다. 새 A4X 인스턴스만 만들 수 있습니다. A4X 머신 유형을 사용하여 인스턴스를 만든 후에는 머신 유형을 변경할 수 없습니다.
- A4X 머신 유형에서는 Windows 운영체제를 실행할 수 없습니다.
- A4X 인스턴스는 다음을 지원하지 않습니다.
A4X 인스턴스에 지원되는 디스크 유형
A4X 인스턴스에서 다음 블록 스토리지 유형을 사용할 수 있습니다.
- Hyperdisk Balanced(
hyperdisk-balanced
): 부팅 디스크에 지원되는 유일한 디스크 유형입니다. - 하이퍼디스크 익스트림(
hyperdisk-extreme
) - 로컬 SSD: A4X 머신 유형을 사용하여 만든 인스턴스에 자동으로 추가됩니다.
인스턴스당 최대 디스크 수1 | ||||||
---|---|---|---|---|---|---|
머신 유형 | 모든 Hyperdisk | 하이퍼디스크 균형 | Hyperdisk Throughput | Hyperdisk ML | 하이퍼디스크 익스트림 | 연결된 로컬 SSD |
a4x-highgpu-4g |
128 | 128 | 해당 사항 없음 | 해당 사항 없음 | 8 | 32 |
1Hyperdisk 사용 요금은 머신 유형 가격 책정과 별도로 청구됩니다. 디스크 가격 책정은 Hyperdisk 가격 책정을 참조하세요.
디스크 및 용량 한도
여러 Hyperdisk 유형을 혼합하여 인스턴스에 연결할 수 있지만 모든 디스크 유형에서 최대 총 디스크 용량(TiB)은 모든 Hyperdisk에 대해 512TiB를 초과할 수 없습니다.
용량 한도에 대한 자세한 내용은 Hyperdisk 크기 및 연결 한도를 참조하세요.
A4 머신 시리즈
A4 머신 시리즈는 최대 224개의 vCPU와 3,968GB의 메모리가 있는 머신 유형을 제공합니다. A4 인스턴스는 대부분의 GPU 가속 워크로드에서 이전 GPU 인스턴스 유형보다 최대 3배 높은 성능을 제공합니다. A4는 수백 또는 수천 개의 GPU와 같이 대규모 ML 학습 워크로드에 특히 권장됩니다. A4 머신 시리즈는 단일 머신 유형으로 제공됩니다.
A4 머신 유형을 사용하여 만든 VM 인스턴스는 다음과 같은 기능을 제공합니다.
NVIDIA B200 GPU를 통한 GPU 가속: GPU당 180GB의 GPU 메모리를 제공하는 NVIDIA B200 GPU가 A4 인스턴스에 자동으로 연결됩니다.
5세대 인텔 제온 스케일러블 프로세서(Emerald Rapids): 최대 4.0GHz의 지속형 싱글 코어 최대 터보 주파수를 제공합니다. 이 프로세서에 대한 자세한 내용은 CPU 플랫폼을 참조하세요.
업계 최고의 NVLink 확장성: NVIDIA B200 GPU는 GPU당 양방향으로 1,800GBps의 GPU NVLink 대역폭을 제공합니다.
시스템의 GPU 8개 간에 전체 NVLink 토폴로지를 사용할 경우 집계 NVLink 대역폭은 최대 14.4TBps입니다.
RoCE를 사용한 향상된 네트워킹: RDMA over Converged Ethernet(RoCE)가 NVIDIA ConnectX-7 네트워크 인터페이스 카드(NIC)와 Google 데이터 센터 전반의 4방향 레일 정렬 네트워크를 결합하여 네트워크 성능을 향상시켜 줍니다. A4 인스턴스는 RoCE를 활용하여 A3 Ultra 머신 유형에서 실행되는 인스턴스를 제외한 대부분의 A3 인스턴스와 비교했을 때 클러스터의 인스턴스 간에 훨씬 높은 처리량을 달성합니다.
네트워크 속도 향상: 이전 세대 A2 인스턴스에 비해 최대 4배 빠른 네트워킹 속도를 제공합니다.
네트워킹에 대한 자세한 내용은 네트워크 대역폭 및 GPU를 참조하세요.
데이터 전송 및 복구를 위한 가상화 최적화: A4 인스턴스의 Peripheral Component Interconnect Express(PCIe) 토폴로지는 워크로드가 데이터 전송을 최적화하는 데 사용할 수 있는 보다 정확한 지역 정보를 제공합니다.
또한 GPU는 장애의 단계적 복구를 위한 함수 수준 재설정(FLR)과 특정 시나리오의 동시 실행 개선을 위한 원자적 작업 지원을 제공합니다.
로컬 SSD 및 Hyperdisk 지원: 로컬 SSD 중 12,000GiB가 A4 인스턴스에 자동으로 추가됩니다. 로컬 SSD를 고속 스크래치 디스크로 사용하거나 I/O 병목 현상을 방지하면서 GPU에 데이터를 피드하는 데 사용할 수 있습니다.
더 높은 스토리지 성능이 필요한 애플리케이션의 경우 A4 인스턴스에 Hyperdisk 최대 512TiB를 연결할 수도 있습니다.
밀집 할당 및 토폴로지 인식 예약 지원: A4 인스턴스를 프로비저닝할 때 밀집하게 할당된 용량 블록을 요청할 수 있습니다. 호스트 머신은 서로 물리적으로 가깝게 할당되고 리소스 블록으로 프로비저닝되며 동적 ML 네트워크 패브릭으로 상호 연결되어 네트워크 홉을 최소화하고 최소 지연 시간에 맞게 최적화됩니다. 또한 작업 배치에 사용할 수 있는 노드 및 클러스터 수준의 토폴로지 정보를 가져올 수 있습니다.
A4 머신 유형
A4 가속기 최적화 머신 유형에는 NVIDIA B200 Blackwell GPU(nvidia-b200
)가 연결되어 있으며 파운데이션 모델 학습과 서빙에 적합합니다.
연결된 NVIDIA B200 Blackwell GPU | |||||||
---|---|---|---|---|---|---|---|
머신 유형 | vCPU 수1 | 인스턴스 메모리(GB) | 연결된 로컬 SSD(GiB) | 물리적 NIC 수 | 최대 네트워크 대역폭(Gbps)2 | GPU 수 | GPU 메모리3 (GB HBM3e) |
a4-highgpu-8g |
224 | 3,968 | 12,000 | 10 | 3,600 | 8 | 1,440 |
1vCPU는 사용 가능한 CPU 플랫폼 중 하나에서 단일 하드웨어 하이퍼 스레드로 구현됩니다.
2 최대 이그레스 대역폭은 지정된 수를 초과할 수 없습니다. 실제 이그레스 대역폭은 대상 IP 주소와 기타 요인에 따라 다릅니다.
네트워크 대역폭에 대한 자세한 내용은 네트워크 대역폭을 참조하세요.
3GPU 메모리는 임시 데이터 스토리지에 사용할 수 있는 GPU 기기의 메모리입니다. 인스턴스의 메모리와는 별개이며 특히 그래픽 집약적인 워크로드의 더 높은 대역폭 수요를 처리하도록 설계되었습니다.
A4 제한사항
- A4 머신 유형의 지원되는 소비 옵션을 사용해야 용량을 요청할 수 있습니다.
- A4 머신 유형을 사용하는 인스턴스에는 지속 사용 할인 및 가변형 약정 사용 할인이 적용되지 않습니다.
- 특정 리전 및 영역에서만 A4 머신 유형을 사용할 수 있습니다.
- A4 머신 유형을 사용하는 인스턴스에서는 Persistent Disk(리전 또는 영역)를 사용할 수 없습니다.
- A4 머신 유형은 Emerald Rapids CPU 플랫폼에서만 사용할 수 있습니다.
- 기존 인스턴스 머신 유형을 A4 머신 유형으로 변경할 수 없습니다. 새 A4 인스턴스만 만들 수 있습니다. A4 머신 유형을 사용하여 인스턴스를 만든 후에는 머신 유형을 변경할 수 없습니다.
- A4 머신 유형은 단독 테넌시를 지원하지 않습니다.
- A4 머신 유형에서는 Windows 운영체제를 실행할 수 없습니다.
A4 인스턴스에 지원되는 디스크 유형
A4 인스턴스에서 다음 블록 스토리지 유형을 사용할 수 있습니다.
- Hyperdisk Balanced(
hyperdisk-balanced
): 부팅 디스크에 지원되는 유일한 디스크 유형입니다. - 하이퍼디스크 익스트림(
hyperdisk-extreme
) - 로컬 SSD: A4 머신 유형을 사용하여 만든 인스턴스에 자동으로 추가됩니다.
인스턴스당 최대 디스크 수1 | ||||||
---|---|---|---|---|---|---|
머신 유형 | 모든 Hyperdisk | 하이퍼디스크 균형 | Hyperdisk Throughput | Hyperdisk ML | 하이퍼디스크 익스트림 | 연결된 로컬 SSD |
a4-highgpu-8g |
128 | 128 | 해당 사항 없음 | 해당 사항 없음 | 8 | 32 |
1Hyperdisk 사용 요금은 머신 유형 가격 책정과 별도로 청구됩니다. 디스크 가격 책정은 Hyperdisk 가격 책정을 참조하세요.
디스크 및 용량 한도
여러 Hyperdisk 유형을 혼합하여 인스턴스에 연결할 수 있지만 모든 디스크 유형에서 최대 총 디스크 용량(TiB)은 모든 Hyperdisk에 대해 512TiB를 초과할 수 없습니다.
용량 한도에 대한 자세한 내용은 Hyperdisk 크기 및 연결 한도를 참조하세요.
A3 머신 시리즈
A3 머신 시리즈에는 최대 224개의 vCPU와 2,944GB 메모리가 포함됩니다. 이 머신 시리즈는 컴퓨팅 및 메모리 집약적이고 네트워크에 바인딩된 ML 학습과 HPC 워크로드에 최적화되어 있습니다. A3 머신 시리즈는 A3 Ultra, A3 Mega, A3 High, A3 Edge 머신 유형에서 사용할 수 있습니다.
A3 머신 유형을 사용하여 만든 VM 인스턴스는 다음과 같은 기능을 제공합니다.
기능 | A3 Ultra | A3 Mega, High, Edge |
---|---|---|
GPU 가속 | GPU당 141GB GPU 메모리를 제공하고 대규모 언어 모델 및 HPC 워크로드를 지원하기 위해 더 크고 더 빠른 메모리를 제공하는 NVIDIA H200 SXM GPU가 연결되어 있습니다. |
GPU당 80GB 메모리를 제공하고 Transformer 기반 언어 모델, 데이터베이스, HPC에 적합한 NVIDIA H100 SXM GPU가 연결되어 있습니다. |
인텔 제온 스케일러블 프로세서 | 5세대 Intel Xeon 스케일러블 프로세서(Emerald Rapids)를 기반으로 하며 최대 4.0GHz의 지속형 싱글 코어 최대 터보 주파수를 제공합니다. 이 프로세서에 대한 자세한 내용은 CPU 플랫폼을 참조하세요. |
4세대 Intel Xeon 스케일러블 프로세서(Sapphire Rapids)를 기반으로 하며 최대 3.3GHz의 지속형 싱글 코어 최대 터보 주파수를 제공합니다. 이 프로세서에 대한 자세한 내용은 CPU 플랫폼을 참조하세요. |
업계 최고의 NVLink 확장성 | NVIDIA H200 GPU는 900GB/s의 단방향 최대 GPU NVLink 대역폭을 제공합니다. 시스템의 GPU 8개 간에 전체 NVLink 토폴로지를 사용할 경우 집계 NVLink 대역폭은 최대 7.2TB/초입니다. |
NVIDIA H100 GPU는 450GB/s의 단방향 최대 GPU NVLink 대역폭을 제공합니다. 시스템의 GPU 8개 간에 전체 NVLink 토폴로지를 사용할 경우 집계 NVLink 대역폭은 최대 7.2TB/초입니다. |
향상된 네트워킹 | 이 머신 유형의 경우 RoCE(RDMA over Converged Ethernet)는 NVIDIA ConnectX-7 네트워크 인터페이스 카드(NIC)와 데이터 센터 전반의 4방향 레일 정렬 네트워크를 결합하여 네트워크 성능을 향상시켜 줍니다. a3-ultragpu-8g 머신 유형은 RDMA over Converged Ethernet(RoCE)를 활용하여 다른 A3 머신 유형과 비교했을 때 클러스터의 인스턴스 간에 훨씬 높은 처리량을 달성합니다.
|
|
네트워킹 속도 개선 | 이전 세대의 A2 머신 시리즈에 비해 최대 4배 이상의 네트워킹 속도를 제공합니다. 네트워킹에 대한 자세한 내용은 네트워크 대역폭 및 GPU를 참조하세요. |
이전 세대의 A2 머신 시리즈에 비해 최대 2.5배 이상의 네트워킹 속도를 제공합니다. 네트워킹에 대한 자세한 내용은 네트워크 대역폭 및 GPU를 참조하세요. |
가상화 최적화 | A3 인스턴스의 Peripheral Component Interconnect Express(PCIe) 토폴로지는 워크로드가 데이터 전송을 최적화하는 데 사용할 수 있는 보다 정확한 지역 정보를 제공합니다. 또한 이 GPU는 장애의 단계적 복구를 위한 함수 수준 재설정(FLR)과 특정 시나리오의 동시 실행 개선을 위한 원자적 작업 지원을 제공합니다. |
|
로컬 SSD, Persistent Disk, Hyperdisk 지원 |
로컬 SSD를 고속 스크래치 디스크에 또는 I/O 병목 현상을 방지하면서 GPU에 데이터를 피드하는 데 사용할 수 있습니다. 로컬 SSD는 다음과 같이 연결됩니다.
또한 더 높은 스토리지 성능이 필요한 애플리케이션의 경우 최대 512TiB의 Persistent Disk 및 Hyperdisk를 이 시리즈의 머신 유형에 연결할 수 있습니다. 일부 머신 유형의 경우 최대 257TiB의 Persistent Disk도 지원됩니다. |
|
압축 배치 정책 지원 | 데이터 센터 내에서 인스턴스의 물리적 배치를 더 효과적으로 제어할 수 있습니다. 이렇게 하면 단일 가용성 영역 내에 있는 인스턴스의 지연 시간이 단축되고 대역폭이 증가합니다. 자세한 내용은 압축 배치 정책 정보를 참조하세요. |
A3 Ultra 머신 유형
A3 Ultra 머신 유형에는 NVIDIA H200 SXM GPU(nvidia-h200-141gb
)가 연결되어 있으며 A3 시리즈에서 가장 높은 네트워크 성능을 제공합니다. A3 Ultra 머신 유형은 파운데이션 모델 학습과 서빙에 적합합니다.
연결된 NVIDIA H200 GPU | |||||||
---|---|---|---|---|---|---|---|
머신 유형 | vCPU 수1 | 인스턴스 메모리(GB) | 연결된 로컬 SSD(GiB) | 물리적 NIC 수 | 최대 네트워크 대역폭(Gbps)2 | GPU 수 | GPU 메모리3 (GB HBM3e) |
a3-ultragpu-8g |
224 | 2,952 | 12,000 | 10 | 3,600 | 8 | 1128 |
1vCPU는 사용 가능한 CPU 플랫폼 중 하나에서 단일 하드웨어 하이퍼 스레드로 구현됩니다.
2 최대 이그레스 대역폭은 지정된 수를 초과할 수 없습니다. 실제 이그레스 대역폭은 대상 IP 주소와 기타 요인에 따라 다릅니다.
네트워크 대역폭에 대한 자세한 내용은 네트워크 대역폭을 참조하세요.
3GPU 메모리는 임시 데이터 스토리지에 사용할 수 있는 GPU 기기의 메모리입니다. 인스턴스의 메모리와는 별개이며 특히 그래픽 집약적인 워크로드의 더 높은 대역폭 수요를 처리하도록 설계되었습니다.
A3 Ultra 제한사항
- A3 Ultra 머신 유형의 지원되는 소비 옵션을 사용해야 용량을 요청할 수 있습니다.
- A3 Ultra 머신 유형을 사용하는 인스턴스에는 지속 사용 할인 및 가변형 약정 사용 할인이 적용되지 않습니다.
- A3 Ultra 머신 유형은 특정 리전 및 영역에서만 사용할 수 있습니다.
- A3 Ultra 머신 유형을 사용하는 인스턴스에서는 Persistent Disk(리전 또는 영역)를 사용할 수 없습니다.
- A3 Ultra 머신 유형은 Emerald Rapids CPU 플랫폼에서만 사용할 수 있습니다.
- 기존 인스턴스의 머신 유형을 A3 Ultra 머신 유형으로 변경할 수 없습니다. 새 A3-ultra 인스턴스만 만들 수 있습니다. A3 Ultra 머신 유형을 사용하여 인스턴스를 만든 후에는 머신 유형을 변경할 수 없습니다.
- A3 Ultra 머신 유형은 단독 테넌시를 지원하지 않습니다.
- A3 Ultra 머신 유형에서는 Windows 운영체제를 실행할 수 없습니다.
A3 Mega 머신 유형
A3 Mega 머신 유형에는 NVIDIA H100 SXM GPU가 있으며 대규모 모델 학습과 다중 호스트 추론에 적합합니다.연결된 NVIDIA H100 GPU | |||||||
---|---|---|---|---|---|---|---|
머신 유형 | vCPU 수1 | 인스턴스 메모리(GB) | 연결된 로컬 SSD(GiB) | 물리적 NIC 수 | 최대 네트워크 대역폭(Gbps)2 | GPU 수 | GPU 메모리3 (GB HBM3) |
a3-megagpu-8g |
208 | 1,872 | 6,000 | 9 | 1,800 | 8 | 640 |
1vCPU는 사용 가능한 CPU 플랫폼 중 하나에서 단일 하드웨어 하이퍼 스레드로 구현됩니다.
2 최대 이그레스 대역폭은 지정된 수를 초과할 수 없습니다. 실제 이그레스 대역폭은 대상 IP 주소와 기타 요인에 따라 다릅니다.
네트워크 대역폭에 대한 자세한 내용은 네트워크 대역폭을 참조하세요.
3GPU 메모리는 임시 데이터 스토리지에 사용할 수 있는 GPU 기기의 메모리입니다. 인스턴스의 메모리와는 별개이며 특히 그래픽 집약적인 워크로드의 더 높은 대역폭 수요를 처리하도록 설계되었습니다.
A3 Mega 제한사항
- A3 Mega 머신 유형의 지원되는 소비 옵션을 사용해야 용량을 요청할 수 있습니다.
- A3 Mega 머신 유형을 사용하는 인스턴스에는 지속 사용 할인 및 가변형 약정 사용 할인이 적용되지 않습니다.
- A3 Mega 머신 유형은 특정 리전 및 영역에서만 사용할 수 있습니다.
- A3 Mega 머신 유형을 사용하는 인스턴스에서는 리전 Persistent Disk를 사용할 수 없습니다.
- A3 Mega 머신 유형은 Sapphire Rapids CPU 플랫폼에서만 사용할 수 있습니다.
- 기존 인스턴스의 머신 유형을 A3 Mega 머신 유형으로 변경할 수 없습니다. 새 A3-mega 인스턴스만 만들 수 있습니다. A3 Mega 머신 유형을 사용하여 인스턴스를 만든 후에는 머신 유형을 변경할 수 없습니다.
- A3 Mega 머신 유형은 단독 테넌시를 지원하지 않습니다.
- A3 Mega 머신 유형에서는 Windows 운영체제를 실행할 수 없습니다.
A3 High 머신 유형
A3 High 머신 유형에는 NVIDIA H100 SXM GPU가 있으며 대규모 모델 추론과 모델 미세 조정 모두에 적합합니다.연결된 NVIDIA H100 GPU | |||||||
---|---|---|---|---|---|---|---|
머신 유형 | vCPU 수1 | 인스턴스 메모리(GB) | 연결된 로컬 SSD(GiB) | 물리적 NIC 수 | 최대 네트워크 대역폭(Gbps)2 | GPU 수 | GPU 메모리3 (GB HBM3) |
a3-highgpu-1g |
26 | 234 | 750 | 1 | 25 | 1 | 80 |
a3-highgpu-2g |
52 | 468 | 1,500 | 1 | 50 | 2 | 160 |
a3-highgpu-4g |
104 | 936 | 3,000 | 1 | 100 | 4 | 320 |
a3-highgpu-8g |
208 | 1,872 | 6,000 | 5 | 1,000 | 8 | 640 |
1vCPU는 사용 가능한 CPU 플랫폼 중 하나에서 단일 하드웨어 하이퍼 스레드로 구현됩니다.
2 최대 이그레스 대역폭은 지정된 수를 초과할 수 없습니다. 실제 이그레스 대역폭은 대상 IP 주소와 기타 요인에 따라 다릅니다.
네트워크 대역폭에 대한 자세한 내용은 네트워크 대역폭을 참조하세요.
3GPU 메모리는 임시 데이터 스토리지에 사용할 수 있는 GPU 기기의 메모리입니다. 인스턴스의 메모리와는 별개이며 특히 그래픽 집약적인 워크로드의 더 높은 대역폭 수요를 처리하도록 설계되었습니다.
A3 High 제한사항
- A3 High 머신 유형의 지원되는 소비 옵션을 사용해야 용량을 요청할 수 있습니다.
- A3 High 머신 유형을 사용하는 인스턴스에는 지속 사용 할인 및 가변형 약정 사용 할인이 적용되지 않습니다.
- A3 High 머신 유형은 특정 리전 및 영역에서만 사용할 수 있습니다.
- A3 High 머신 유형을 사용하는 인스턴스에서는 리전 Persistent Disk를 사용할 수 없습니다.
- A3 High 머신 유형은 Sapphire Rapids CPU 플랫폼에서만 사용할 수 있습니다.
- 기존 인스턴스의 머신 유형을 A3 High 머신 유형으로 변경할 수 없습니다. 새 A3-high 인스턴스만 만들 수 있습니다. A3 High 머신 유형을 사용하여 인스턴스를 만든 후에는 머신 유형을 변경할 수 없습니다.
- A3 High 머신 유형은 단독 테넌시를 지원하지 않습니다.
- A3 High 머신 유형에서는 Windows 운영체제를 실행할 수 없습니다.
a3-highgpu-1g
,a3-highgpu-2g
,a3-highgpu-4g
머신 유형의 경우 스팟 VM 또는 Flex-start VM을 사용하여 인스턴스를 만들어야 합니다. 이러한 옵션에 대한 자세한 내용은 다음을 참조하세요.- 스팟 VM을 만들려면 가속기 최적화 VM을 만들 때 프로비저닝 모델을
SPOT
으로 설정합니다. - Flex-start VM을 만들려면 다음 방법 중 하나를 사용하세요.
- 가속기 최적화 VM 만들 할 때 독립형 VM을 만들고 프로비저닝 모델을
FLEX_START
로 설정합니다. - 관리형 인스턴스 그룹(MIG)에서 크기 조절 요청을 만듭니다. 자세한 내용은 GPU VM으로 MIG 만들기를 참조하세요.
- 가속기 최적화 VM 만들 할 때 독립형 VM을 만들고 프로비저닝 모델을
- 스팟 VM을 만들려면 가속기 최적화 VM을 만들 때 프로비저닝 모델을
a3-highgpu-1g
머신 유형의 컨피덴셜 VM은 제한된 리전 및 영역에서만 사용 가능하며 A3 High 머신 유형에서 실행되는 컨피덴셜 VM에 대한 제한사항이 모두 적용됩니다.
A3 Edge 머신 유형
A3 Edge 머신 유형에는 NVIDIA H100 SXM GPU가 있으며 이 머신 유형은 서빙 전용으로 설계되었고 제한된 리전 집합에서 사용 가능합니다.연결된 NVIDIA H100 GPU | |||||||
---|---|---|---|---|---|---|---|
머신 유형 | vCPU 수1 | 인스턴스 메모리(GB) | 연결된 로컬 SSD(GiB) | 물리적 NIC 수 | 최대 네트워크 대역폭(Gbps)2 | GPU 수 | GPU 메모리3 (GB HBM3) |
a3-edgegpu-8g |
208 | 1,872 | 6,000 | 5 |
|
8 | 640 |
1vCPU는 사용 가능한 CPU 플랫폼 중 하나에서 단일 하드웨어 하이퍼 스레드로 구현됩니다.
2 최대 이그레스 대역폭은 지정된 수를 초과할 수 없습니다. 실제 이그레스 대역폭은 대상 IP 주소와 기타 요인에 따라 다릅니다.
네트워크 대역폭에 대한 자세한 내용은 네트워크 대역폭을 참조하세요.
3GPU 메모리는 임시 데이터 스토리지에 사용할 수 있는 GPU 기기의 메모리입니다. 인스턴스의 메모리와는 별개이며 특히 그래픽 집약적인 워크로드의 더 높은 대역폭 수요를 처리하도록 설계되었습니다.
A3 Edge 제한사항
- A3 Edge 머신 유형의 지원되는 소비 옵션을 사용해야 용량을 요청할 수 있습니다.
- A3 Edge 머신 유형을 사용하는 인스턴스에는 지속 사용 할인 및 가변형 약정 사용 할인이 적용되지 않습니다.
- A3 Edge 머신 유형은 특정 리전 및 영역에서만 사용할 수 있습니다.
- A3 Edge 머신 유형을 사용하는 인스턴스에서는 리전 Persistent Disk를 사용할 수 없습니다.
- A3 Edge 머신 유형은 Sapphire Rapids CPU 플랫폼에서만 사용할 수 있습니다.
- 기존 인스턴스의 머신 유형을 A3 Edge 머신 유형으로 변경할 수 없습니다. 새 A3-edge 인스턴스만 만들 수 있습니다. A3 Edge 머신 유형을 사용하여 인스턴스를 만든 후에는 머신 유형을 변경할 수 없습니다.
- A3 Edge 머신 유형은 단독 테넌시를 지원하지 않습니다.
- A3 Edge 머신 유형에서는 Windows 운영체제를 실행할 수 없습니다.
A3 인스턴스에 지원되는 디스크 유형
A3 Ultra
A3 Ultra 인스턴스에서 다음 블록 스토리지 유형을 사용할 수 있습니다.
- Hyperdisk Balanced(
hyperdisk-balanced
): 부팅 디스크에 지원되는 유일한 디스크 유형입니다. - Hyperdisk Balanced High Availability(
hyperdisk-balanced-high-availability
) - 하이퍼디스크 익스트림(
hyperdisk-extreme
) - 로컬 SSD: A3 머신 유형을 통해 생성된 인스턴스에 자동으로 추가됩니다.
인스턴스당 최대 디스크 수1 | |||||||
---|---|---|---|---|---|---|---|
머신 유형 |
모든 Hyperdisk | 하이퍼디스크 균형 | Hyperdisk Balanced High Availability | Hyperdisk Throughput | Hyperdisk ML | 하이퍼디스크 익스트림 | 연결된 로컬 SSD 디스크 |
a3-ultragpu-8g |
128 | 128 | 128 | 해당 사항 없음 | 해당 사항 없음 | 8 | 32 |
1Hyperdisk 사용 요금은 머신 유형 가격 책정과 별도로 청구됩니다. 디스크 가격 책정은 Hyperdisk 가격 책정을 참조하세요.
A3 Mega
A3 Mega 인스턴스에서 다음 블록 스토리지 유형을 사용할 수 있습니다.
- 균형 있는 Persistent Disk(
pd-balanced
) - SSD(성능) Persistent Disk(
pd-ssd
) - Hyperdisk Balanced(
hyperdisk-balanced
) - Hyperdisk Balanced High Availability(
hyperdisk-balanced-high-availability
) - Hyperdisk ML(
hyperdisk-ml
) - Hyperdisk Extreme(
hyperdisk-extreme
) - Hyperdisk Throughput(
hyperdisk-throughput
) - 로컬 SSD: A3 머신 유형을 통해 생성된 인스턴스에 자동으로 추가됩니다.
인스턴스당 최대 디스크 수1 | |||||||
---|---|---|---|---|---|---|---|
머신 유형 |
모든 Hyperdisk | 하이퍼디스크 균형 | Hyperdisk Balanced High Availability | Hyperdisk Throughput | Hyperdisk ML | 하이퍼디스크 익스트림 | 연결된 로컬 SSD 디스크 |
a3-megagpu-8g |
128 | 32 | 32 | 64 | 64 | 8 | 16 |
1Hyperdisk 및 Persistent Disk 사용 요금은 머신 유형 가격 책정과 별도로 청구됩니다. 디스크 가격 책정은 Persistent Disk 및 Hyperdisk 가격 책정을 참조하세요.
A3 High
A3 High 인스턴스에서 다음 블록 스토리지 유형을 사용할 수 있습니다.
- 균형 있는 Persistent Disk(
pd-balanced
) - SSD(성능) Persistent Disk(
pd-ssd
) - Hyperdisk Balanced(
hyperdisk-balanced
) - Hyperdisk Balanced High Availability(
hyperdisk-balanced-high-availability
) - Hyperdisk ML(
hyperdisk-ml
) - Hyperdisk Extreme(
hyperdisk-extreme
) - Hyperdisk Throughput(
hyperdisk-throughput
) - 로컬 SSD: A3 머신 유형을 통해 생성된 인스턴스에 자동으로 추가됩니다.
인스턴스당 최대 디스크 수1 | |||||||
---|---|---|---|---|---|---|---|
머신 유형 |
모든 Hyperdisk | 하이퍼디스크 균형 | Hyperdisk Balanced High Availability | Hyperdisk Throughput | Hyperdisk ML | 하이퍼디스크 익스트림 | 연결된 로컬 SSD 디스크 |
a3-highgpu-1g |
128 | 32 | 32 | 64 | 64 | 해당 사항 없음 | 2 |
a3-highgpu-2g |
128 | 32 | 32 | 64 | 64 | 해당 사항 없음 | 4 |
a3-highgpu-4g |
128 | 32 | 32 | 64 | 64 | 8 | 8 |
a3-highgpu-8g |
128 | 32 | 32 | 64 | 64 | 8 | 16 |
1Hyperdisk 및 Persistent Disk 사용 요금은 머신 유형 가격 책정과 별도로 청구됩니다. 디스크 가격 책정은 Persistent Disk 및 Hyperdisk 가격 책정을 참조하세요.
A3 Edge
A3 Edge 인스턴스에서 다음 블록 스토리지 유형을 사용할 수 있습니다.
- 균형 있는 Persistent Disk(
pd-balanced
) - SSD(성능) Persistent Disk(
pd-ssd
) - Hyperdisk Balanced(
hyperdisk-balanced
) - Hyperdisk Balanced High Availability(
hyperdisk-balanced-high-availability
) - Hyperdisk ML(
hyperdisk-ml
) - Hyperdisk Extreme(
hyperdisk-extreme
) - Hyperdisk Throughput(
hyperdisk-throughput
) - 로컬 SSD: A3 머신 유형을 통해 생성된 인스턴스에 자동으로 추가됩니다.
인스턴스당 최대 디스크 수1 | |||||||
---|---|---|---|---|---|---|---|
머신 유형 | 모든 Hyperdisk | 하이퍼디스크 균형 | Hyperdisk Balanced High Availability | Hyperdisk Throughput | Hyperdisk ML | 하이퍼디스크 익스트림 | 연결된 로컬 SSD |
a3-edgegpu-8g |
128 | 32 | 32 | 64 | 64 | 8 | 16 |
1Hyperdisk 및 Persistent Disk 사용 요금은 머신 유형 가격 책정과 별도로 청구됩니다. 디스크 가격 책정은 Persistent Disk 및 Hyperdisk 가격 책정을 참조하세요.
디스크 및 용량 한도
머신 유형에서 지원하는 경우 인스턴스에 Hyperdisk 및 Persistent Disk 볼륨을 혼합하여 연결할 수 있지만 다음과 같은 제한사항이 적용됩니다.
- Hyperdisk 및 Persistent Disk 볼륨 수의 합계는 인스턴스당 128개를 초과할 수 없습니다.
모든 디스크 유형에서 최대 총 디스크 용량(TiB)은 다음을 초과할 수 없습니다.
vCPU가 32개 미만인 머신 유형:
- 모든 Hyperdisk 및 모든 Persistent Disk 257TiB
- Hyperdisk 및 Persistent Disk의 조합 257TiB
vCPU가 32개 이상인 머신 유형:
- 모든 Hyperdisk 512TiB
- Hyperdisk 및 Persistent Disk의 조합 512TiB
- 모든 Persistent Disk 257TiB
용량 한도에 관한 자세한 내용은 Hyperdisk 크기 및 연결 한도 및 Persistent Disk 최대 용량을 참조하세요.
A2 머신 시리즈
A2 머신 시리즈는 A2 Standard 및 A2 Ultra 머신 유형에서 사용 가능합니다. 이러한 머신 유형은 vCPU 12~96개와 최대 메모리 1,360GB를 포함합니다.
A2 머신 유형을 사용하여 만든 VM 인스턴스는 다음과 같은 기능을 제공합니다.
GPU 가속: 각 A2 인스턴스에는 NVIDIA A100 GPU가 포함됩니다. A100 40GB 및 A100 80GB 옵션 모두에서 사용 가능합니다.
GPU NVLink 대역폭 600Gbps에 최대 GPU를 제공하는 업계 최고의 NVLink 확장. 예를 들어 GPU가 16개 있는 시스템의 합산 NVLink 대역폭은 최대 9.6TBps입니다. 이러한 16개의 GPU는 통합 메모리 공간이 있는 단일 고성능 가속기로 사용되어 인공지능, 딥 러닝 및 머신러닝 워크로드에 사용할 수 있는 최대 10페타플롭의 컴퓨팅 성능과 최대 20페타플롭의 추론 컴퓨팅 성능을 제공합니다.
향상된 컴퓨팅 속도: 연결된 NVIDIA A100 GPU는 이전 세대 NVIDIA V100 GPU에 비해 컴퓨팅 속도가 최대 10배 향상됩니다.
A2 머신 시리즈를 사용하면 최대 100Gbps 네트워크 대역폭을 사용할 수 있습니다.
로컬 SSD, Persistent Disk, Hyperdisk 지원: 빠른 스크래치 디스크로 사용하거나 I/O 병목 현상을 방지하면서 GPU에 데이터를 공급하기 위해 A2 머신 유형은 다음과 같이 로컬 SSD를 지원합니다.
- A2 Standard 머신 유형의 경우 인스턴스를 만들 때 최대 3,000GiB의 로컬 SSD를 추가할 수 있습니다.
- A2 Ultra 머신 유형의 경우 인스턴스를 만들 때 로컬 SSD가 자동으로 연결됩니다.
더 높은 스토리지 성능이 필요한 애플리케이션의 경우 A2 인스턴스에 최대 257TiB의 Persistent Disk 및 512TiB의 Hyperdisk 볼륨을 연결할 수도 있습니다.
압축 배치 정책 지원: 데이터 센터 내에서 인스턴스의 물리적 배치를 더욱 효과적으로 제어할 수 있습니다. 이렇게 하면 단일 가용성 영역 내에서 인스턴스의 지연 시간이 단축되고 대역폭이 증가합니다. 자세한 내용은 압축 배치 정책을 사용하여 지연 시간 감소를 참조하세요.
다음과 같은 머신 유형을 A2 머신 시리즈에 사용할 수 있습니다.
A2 Ultra 머신 유형
이러한 머신 유형에는 고정된 개수의 A100 80GB GPU가 포함됩니다. 로컬 SSD는 A2 Ultra 머신 유형을 사용하여 만든 인스턴스에 자동으로 연결됩니다.
연결된 NVIDIA A100 80GB GPU | ||||||
---|---|---|---|---|---|---|
머신 유형 | vCPU 수1 | 인스턴스 메모리(GB) | 연결된 로컬 SSD(GiB) | 최대 네트워크 대역폭(Gbps)2 | GPU 수 | GPU 메모리3 (GB HBM2e) |
a2-ultragpu-1g |
12 | 170 | 375 | 24 | 1 | 80 |
a2-ultragpu-2g |
24 | 340 | 750 | 32 | 2 | 160 |
a2-ultragpu-4g |
48 | 680 | 1,500 | 50 | 4 | 320 |
a2-ultragpu-8g |
96 | 1,360 | 3,000 | 100 | 8 | 640 |
1vCPU는 사용 가능한 CPU 플랫폼 중 하나에서 단일 하드웨어 하이퍼 스레드로 구현됩니다.
2 최대 이그레스 대역폭은 지정된 수를 초과할 수 없습니다. 실제 이그레스 대역폭은 대상 IP 주소와 기타 요인에 따라 다릅니다.
네트워크 대역폭에 대한 자세한 내용은 네트워크 대역폭을 참조하세요.
3GPU 메모리는 임시 데이터 스토리지에 사용할 수 있는 GPU 기기의 메모리입니다. 인스턴스의 메모리와는 별개이며 특히 그래픽 집약적인 워크로드의 더 높은 대역폭 수요를 처리하도록 설계되었습니다.
A2 Ultra 제한사항
- A2 Ultra 머신 유형의 지원되는 소비 옵션을 사용해야 용량을 요청할 수 있습니다.
- A2 Ultra 머신 유형을 사용하는 인스턴스에는 지속 사용 할인 및 가변형 약정 사용 할인이 적용되지 않습니다.
- A2 Ultra 머신 유형은 특정 리전 및 영역에서만 사용할 수 있습니다.
- Cascade Lake 플랫폼에서만 A2 울트라 머신 유형을 사용할 수 있습니다.
- 인스턴스에서 A2 Ultra 머신 유형을 사용하는 경우에는 머신 유형을 변경할 수 없습니다. 다른 A2 Ultra 머신 유형이나 그 밖의 다른 머신 유형을 사용해야 하는 경우에는 새 인스턴스를 만들어야 합니다.
- 다른 머신 유형을 A2 Ultra 머신 유형으로 변경할 수 없습니다. A2 Ultra 머신 유형을 사용하는 인스턴스가 필요하면 새 인스턴스를 만들어야 합니다.
- A2 Ultra 머신 유형을 사용하는 Windows 인스턴스에서는 연결된 로컬 SSD를 빠르게 포맷할 수 없습니다. 이러한 로컬 SSD를 포맷하려면 diskpart 유틸리티를 사용하고
format fs=ntfs label=tmpfs
를 지정하여 전체 포맷을 수행해야 합니다.
A2 Standard 머신 유형
이러한 머신 유형에는 고정된 개수의 A100 40GB GPU가 포함됩니다. A2 Standard 인스턴스를 만들 때 로컬 SSD 디스크를 추가할 수도 있습니다. 연결할 수 있는 디스크 수는 로컬 SSD 디스크 수를 선택해야 하는 머신 유형을 참조하세요.
연결된 NVIDIA A100 40GB GPU | ||||||
---|---|---|---|---|---|---|
머신 유형 | vCPU 수1 | 인스턴스 메모리(GB) | 지원되는 로컬 SSD | 최대 네트워크 대역폭(Gbps)2 | GPU 수 | GPU 메모리3 (GB HBM2) |
a2-highgpu-1g |
12 | 85 | 예 | 24 | 1 | 40 |
a2-highgpu-2g |
24 | 170 | 예 | 32 | 2 | 80 |
a2-highgpu-4g |
48 | 340 | 예 | 50 | 4 | 160 |
a2-highgpu-8g |
96 | 680 | 예 | 100 | 8 | 320 |
a2-megagpu-16g |
96 | 1,360 | 예 | 100 | 16 | 640 |
1vCPU는 사용 가능한 CPU 플랫폼 중 하나에서 단일 하드웨어 하이퍼 스레드로 구현됩니다.
2 최대 이그레스 대역폭은 지정된 수를 초과할 수 없습니다. 실제 이그레스 대역폭은 대상 IP 주소와 기타 요인에 따라 다릅니다.
네트워크 대역폭에 대한 자세한 내용은 네트워크 대역폭을 참조하세요.
3GPU 메모리는 임시 데이터 스토리지에 사용할 수 있는 GPU 기기의 메모리입니다. 인스턴스의 메모리와는 별개이며 특히 그래픽 집약적인 워크로드의 더 높은 대역폭 수요를 처리하도록 설계되었습니다.
A2 Standard 제한사항
- A2 Standard 머신 유형의 지원되는 소비 옵션을 사용해야 용량을 요청할 수 있습니다.
- A2 Standard 머신 유형을 사용하는 인스턴스에는 지속 사용 할인 및 가변형 약정 사용 할인이 적용되지 않습니다.
- 특정 리전과 영역에서만 A2 표준 머신 유형을 사용할 수 있습니다.
- Cascade Lake 플랫폼에서만 A2 표준 머신 유형을 사용할 수 있습니다.
- 인스턴스에서 A2 Standard 머신 유형을 사용하는 경우에는 한 A2 Standard 머신 유형에서 다른 A2 Standard 머신 유형으로만 전환할 수 있습니다. 그 밖의 다른 머신 유형으로는 변경할 수 없습니다. 자세한 내용은 가속기 최적화 인스턴스 수정을 참조하세요.
a2-megagpu-16g
A2 Standard 머신 유형에서는 Windows 운영체제를 사용할 수 없습니다. Windows 운영체제를 사용하는 경우 다른 A2 Standard 머신 유형을 선택합니다.- A2 Standard 머신 유형을 사용하는 Windows 인스턴스에서는 연결된 로컬 SSD를 빠르게 포맷할 수 없습니다.
이러한 로컬 SSD를 포맷하려면 diskpart 유틸리티를 사용하고
format fs=ntfs label=tmpfs
를 지정하여 전체 포맷을 수행해야 합니다. - A2 표준 머신 유형은 단독 테넌시를 지원하지 않습니다.
A2 인스턴스에 지원되는 디스크 유형
A2 인스턴스에서 다음 블록 스토리지 유형을 사용할 수 있습니다.
- Hyperdisk ML(
hyperdisk-ml
) - 균형 있는 Persistent Disk(
pd-balanced
) - SSD(성능) Persistent Disk(
pd-ssd
) - 표준 Persistent Disk(
pd-standard
) - 로컬 SSD: A2 Ultra 머신 유형을 사용하여 만든 인스턴스에 자동으로 연결됩니다.
머신 유형에서 지원하는 경우 인스턴스에 Hyperdisk 및 Persistent Disk 볼륨을 혼합하여 연결할 수 있지만 다음과 같은 제한사항이 적용됩니다.
- Hyperdisk 및 Persistent Disk 볼륨 수의 합계는 인스턴스당 128개를 초과할 수 없습니다.
모든 디스크 유형에서 최대 총 디스크 용량(TiB)은 다음을 초과할 수 없습니다.
vCPU가 32개 미만인 머신 유형:
- 모든 Hyperdisk 및 모든 Persistent Disk 257TiB
- Hyperdisk 및 Persistent Disk의 조합 257TiB
vCPU가 32개 이상인 머신 유형:
- 모든 Hyperdisk 512TiB
- Hyperdisk 및 Persistent Disk의 조합 512TiB
- 모든 Persistent Disk 257TiB
용량 한도에 관한 자세한 내용은 Hyperdisk 크기 및 연결 한도 및 Persistent Disk 최대 용량을 참조하세요.
G4 머신 시리즈
G4 머신 시리즈는 AMD EPYC Turin CPU 플랫폼을 사용하며 NVIDIA RTX PRO 6000 Blackwell 서버 에디션 GPU를 탑재합니다. 이 머신 시리즈는 GPU 메모리 대폭 증가, GPU 메모리 대역폭 증가, 네트워킹 대역폭 향상 등 이전 세대 G2 머신 시리즈에 비해 크게 개선되었습니다.
G4 인스턴스에는 vCPU 최대 384개, 메모리 1,440GB, 티타늄 SSD 디스크 12TiB가 연결되어 있습니다. G4 인스턴스는 표준 네트워크 성능도 최대 400Gbps까지 제공합니다.
이 머신 시리즈는 특히 NVIDIA Omniverse 시뮬레이션 워크로드, 그래픽 집약적 애플리케이션, 동영상 트랜스코딩, 가상 데스크톱과 같은 워크로드에 적합합니다. 또한 G4 머신 시리즈는 A 시리즈 머신 유형에 비해 단일 호스트 추론 및 모델 조정을 수행할 수 있는 저비용 솔루션을 제공합니다.
G4 머신 유형을 사용하는 인스턴스는 다음 기능을 제공합니다.
NVIDIA RTX PRO 6000 Blackwell 서버 에디션 GPU를 통한 GPU 가속: G4 인스턴스에는 GPU당 GPU 메모리 96GB를 제공하는 NVIDIA RTX PRO 6000 Blackwell 서버 에디션 GPU가 자동으로 연결됩니다.
5세대 AMD EPYC Turin CPU 플랫폼: 이 플랫폼은 지속형 최대 부스트 주파수를 최대 4.1GHz까지 제공합니다. 이 프로세서에 대한 자세한 내용은 CPU 플랫폼을 참조하세요.
차세대 그래픽 성능: NVIDIA RTX PRO 6000 GPU는 G2 머신 시리즈에 연결된 NVIDIA L4 GPU에 비해 성능과 기능이 크게 업그레이드되었습니다. 이러한 업그레이드는 다음과 같습니다.
- 5세대 Tensor 코어: 이러한 코어는 FP4 정밀도와 DLSS 4 멀티 프레임 생성을 지원합니다. NVIDIA RTX PRO 6000 GPU는 이러한 5세대 Tensor 코어를 사용하여 NVIDIA L4 GPU에 비해 로컬 LLM 개발 및 콘텐츠 제작과 같은 태스크를 가속화합니다.
- 4세대 RT 코어: 이러한 코어는 이전 세대 NVIDIA L4 GPU의 광선 추적 성능을 최대 2배까지 제공하여 설계 및 제조 워크로드의 렌더링을 가속화합니다.
- 코어 수: NVIDIA RTX PRO 6000 GPU에는 CUDA 코어 24,064개, 5세대 Tensor 코어 752개, 4세대 RT 코어 188개가 포함되어 있습니다. 이 업데이트는 CUDA 코어 7,680개와 Tensor 코어 240개가 있는 L4 GPU와 같은 이전 세대에 비해 크게 향상되었습니다.
멀티 인스턴스 GPU(MIG): 이 기능을 사용하면 단일 GPU를 단일 VM 인스턴스에서 완전히 격리된 GPU 인스턴스(최대 4개)로 파티셔닝할 수 있습니다. NVIDIA MIG에 대한 자세한 내용은 NVIDIA 문서의 NVIDIA 멀티 인스턴스 GPU를 참조하세요.
Peripheral Component Interconnect Express(PCIe) 5세대 지원: G4 인스턴스는 PCI 익스프레스 5세대를 지원하므로 G2 인스턴스에서 사용하는 PCIe 3세대에 비해 CPU 메모리에서 GPU로의 데이터 전송 속도가 향상됩니다.
티타늄 SSD 및 Hyperdisk 지원: G4 인스턴스는 티타늄 SSD(최대 12,000GiB) 연결을 지원합니다. 티타늄 SSD는 고속 스크래치 디스크를 제공하거나 GPU에 데이터를 공급하므로 I/O 병목 현상을 방지하는 데 도움이 됩니다.
더 높은 스토리지 성능이 필요한 애플리케이션의 경우 G4 인스턴스는 Hyperdisk(최대 512TiB) 연결도 지원합니다.
GPU P2P 통신: G4 인스턴스는 GPU P2P 통신을 지원하므로 같은 인스턴스 내에서 GPU 간에 직접 데이터 전송이 가능합니다. 이렇게 하면 데이터 전송 지연 시간을 줄이고 CPU 리소스를 확보하여 멀티 GPU 워크로드 성능을 크게 향상될 수 있습니다. 자세한 내용은 G4 GPU P2P 통신을 참조하세요.
G4 머신 유형
G4 가속기 최적화 머신 유형은 NVIDIA RTX PRO 6000 Blackwell 서버 에디션 GPU (nvidia-rtx-pro-6000
)를 사용하며 NVIDIA Omniverse 시뮬레이션 워크로드, 그래픽 집약적 애플리케이션, 동영상 트랜스코딩, 가상 데스크톱에 적합합니다. 또한 G4 머신 유형은 A 시리즈 머신 유형에 비해 단일 호스트 추론 및 모델 조정을 수행할 수 있는 저비용 솔루션을 제공합니다.
연결된 NVIDIA RTX PRO 6000 GPU | |||||||
---|---|---|---|---|---|---|---|
머신 유형 | vCPU 수1 | 인스턴스 메모리(GB) | 지원되는 최대 티타늄 SSD(GiB)2 | 물리적 NIC 수 | 최대 네트워크 대역폭(Gbps)3 | GPU 수 | GPU 메모리4 (GB GDDR7) |
g4-standard-48 |
48 | 180 | 1,500 | 1 | 50 | 1 | 96 |
g4-standard-96 |
96 | 360 | 3,000 | 1 | 100 | 2 | 192 |
g4-standard-192 |
192 | 720 | 6,000 | 1 | 200 | 4 | 384 |
g4-standard-384 |
384 | 1,440 | 12,000 | 2 | 400 | 8 | 768 |
1vCPU는 사용 가능한 CPU 플랫폼 중 하나에서 단일 하드웨어 하이퍼 스레드로 구현됩니다.
2G4 인스턴스를 만들 때 티타늄 SSD 디스크를 추가할 수 있습니다. 연결할 수 있는 디스크 수는 로컬 SSD 디스크 수를 선택해야 하는 머신 유형을 참조하세요.
3최대 이그레스 대역폭은 지정된 수를 초과할 수 없습니다. 실제 이그레스 대역폭은 대상 IP 주소와 기타 요인에 따라 다릅니다.
네트워크 대역폭을 참조하세요.
4GPU 메모리는 임시 데이터 스토리지에 사용할 수 있는 GPU 기기의 메모리입니다. 인스턴스의 메모리와는 별개이며 특히 그래픽 집약적인 워크로드의 더 높은 대역폭 수요를 처리하도록 설계되었습니다.
G4 제한사항
- G4 머신 유형의 지원되는 소비 옵션을 사용해야 용량을 요청할 수 있습니다.
- G4 머신 유형을 사용하는 인스턴스에는 지속 사용 할인 및 가변형 약정 사용 할인이 적용되지 않습니다.
- 특정 리전과 영역에서만 G4 머신 유형을 사용할 수 있습니다.
- G4 머신 유형을 사용하는 인스턴스에서는 Persistent Disk(리전 또는 영역)를 사용할 수 없습니다.
- G4 머신 유형은 AMD EPYC Turin 5세대 플랫폼에서만 사용 가능합니다.
- 주문형 인스턴스만 만들 수 있습니다. 예약, Flex-start VM 또는 스팟 VM은 지원되지 않습니다. G4 인스턴스를 시작하려면 Google 계정팀에 문의하세요.
us-central1-b
에서만 G4 인스턴스를 만들 수 있습니다.- G4 머신 유형을 사용하는 인스턴스에서는 Hyperdisk Balanced 및 Hyperdisk Extreme 디스크 유형만 사용할 수 있습니다.
- G4 머신 유형을 사용하는 인스턴스에는 약정 사용 할인을 적용할 수 없습니다.
- G4 머신 유형을 사용하는 컨피덴셜 VM 인스턴스를 만들 수 없습니다.
- 단독 테넌트 노드에서는 G4 인스턴스를 만들 수 없습니다.
- NVIDIA RTX 가상 워크스테이션(vWS)을 사용하는 G4 인스턴스를 만들 수 없습니다.
G4 인스턴스에 지원되는 디스크 유형
G4 인스턴스에서 다음 블록 스토리지 유형을 사용할 수 있습니다.
- Hyperdisk Balanced(
hyperdisk-balanced
) - 하이퍼디스크 익스트림(
hyperdisk-extreme
) - 티타늄 SSD: G4 머신 유형을 사용하여 만든 인스턴스에 티타늄 SSD를 추가할 수 있습니다.
인스턴스당 최대 디스크 수1 | ||||||
---|---|---|---|---|---|---|
머신 유형 | 모든 Hyperdisk | 하이퍼디스크 균형 | 하이퍼디스크 익스트림 | 티타늄 SSD | ||
g4-standard-48 |
32 | 32 | 0 | 4 | ||
g4-standard-96 |
32 | 32 | 8 | 8 | ||
g4-standard-192 |
64 | 64 | 8 | 16 | ||
g4-standard-384 |
128 | 128 | 8 | 32 |
1Hyperdisk 사용 요금은 머신 유형 가격 책정과 별도로 청구됩니다. 디스크 가격 책정은 Hyperdisk 가격 책정을 참조하세요.
여러 Hyperdisk 유형을 혼합하여 인스턴스에 연결할 수 있지만 모든 디스크 유형에서 최대 총 디스크 용량(TiB)은 모든 Hyperdisk에 대해 512TiB를 초과할 수 없습니다.
용량 한도에 대한 자세한 내용은 Hyperdisk 크기 및 연결 한도를 참조하세요.
G4 P2P 통신
G4 인스턴스는 직접 GPU P2P 통신을 사용하여 머리 GPU 워크로드 성능을 향상시킵니다. 이 기능을 사용하면 같은 G4 인스턴스에 연결된 GPU가 PCIe 버스를 통해 직접 데이터를 교환할 수 있으므로 CPU의 기본 메모리를 통해 데이터를 전송할 필요가 없습니다. 이 직접 경로를 통해 지연 시간이 줄어들고 CPU 사용률이 낮아지며 GPU 간의 유효 대역폭이 증가합니다. P2P 통신은 머신러닝(ML) 학습 및 고성능 컴퓨팅(HPC)과 같은 멀티 GPU 애플리케이션을 크게 가속화합니다.
이 기능을 사용하기 위해 일반적으로 애플리케이션 코드를 수정할 필요가 없습니다. P2P를 사용하도록 NCCL만 구성하면 됩니다. NCCL을 구성하려면 워크로드를 실행하기 전에 머신 유형에 따라 G4 인스턴스에서 NCCL_P2P_LEVEL
환경 변수를 설정합니다.
- GPU가 2개 또는 4개 있는 G4 인스턴스(
g4-standard-96
,g4-standard-192
):NCCL_P2P_LEVEL=PHB
설정 - GPU가 8개가 있는 G4 인스턴스(
g4-standard-384
):NCCL_P2P_LEVEL=SYS
설정
다음 옵션 중 하나를 사용하여 환경 변수를 설정합니다.
- 애플리케이션을 실행할 셸 세션의 명령줄에서 적절한 내보내기 명령어(예:
export NCCL_P2P_LEVEL=SYS
)를 실행합니다. 이 설정을 지속적으로 유지하려면 셸의 시작 스크립트(예:~/.bashrc
)에 이 명령어를 추가합니다. /etc/nccl.conf
에 있는 NCCL 구성 파일에 적절한 설정(예:NCCL_P2P_LEVEL=SYS
)을 추가합니다.
주요 이점 및 성능
- GPU가 2개 이상인 G4 인스턴스에서 멀티 GPU 워크로드 가속화:
g4-standard-96
,g4-standard-192
,g4-standard-384
머신 유형에서 실행되는 애플리케이션의 런타임을 단축합니다. - 고대역폭 통신 제공: GPU 간에 고속 데이터 전송을 지원합니다.
NCCL 성능 향상: P2P를 사용하지 않는 통신과 비교할 때 NVIDIA Collective Communication Library(NCCL)를 사용하는 애플리케이션의 성능을 크게 향상됩니다. Google의 하이퍼바이저는 인스턴스 내에서 이 P2P 통신을 안전하게 격리합니다.
- GPU 인스턴스 4개(
g4-standard-192
)에서는 모든 GPU가 단일 NUMA 노드에 있으므로 가장 효율적인 P2P 통신이 가능합니다. 이로 인해Allgather
,Allreduce
,ReduceScatter
와 같은 집합의 성능이 최대 2.04배 향상될 수 있습니다. - GPU 인스턴스 8개(
g4-standard-384
)에서는 GPU가 NUMA 노드 2개에 분산됩니다. 이러한 노드 내 트래픽 및 노드 간 트래픽 모두에서 P2P 통신이 가속화되어 같은 집합의 성능이 최대 2.19배 향상됩니다.
- GPU 인스턴스 4개(
G2 머신 시리즈
G2 머신 시리즈는 vCPU 4~96개와 메모리 최대 432GB를 사용하는 표준 머신 유형에서 사용 가능합니다. 이 머신 시리즈는 추론 및 그래픽 워크로드에 최적화되어 있습니다. G2 머신 시리즈는 여러 구성이 있는 단일 표준 머신 유형에서 사용 가능합니다.
G2 머신 유형을 사용하여 만든 인스턴스는 다음 기능을 제공합니다.
GPU 가속: 각 G2 머신 유형에는 NVIDIA L4 GPU가 포함됩니다.
추론 비율 개선: G2 머신 유형은 ML 추론 속도를 높이고 메모리 요구사항을 줄이는 FP8(8비트 부동 소수점) 데이터 유형을 지원합니다.
차세대 그래픽 성능: NVIDIA L4 GPU는 3세대 RT 코어 및 NVIDIA DLSS 3(딥 러닝 슈퍼 샘플링) 기술을 사용하여 최대 3배 향상된 그래픽 성능을 제공합니다.
고성능 네트워크 대역폭: G2 머신 유형을 사용하면 네트워크 대역폭을 최대 100Gbps까지 사용할 수 있습니다.
로컬 SSD, Persistent Disk, Hyperdisk 지원: G2 인스턴스에 로컬 SSD를 최대 3,000GiB까지 추가할 수 있습니다. 이를 빠른 스크래치 디스크로 사용하거나 I/O 병목 현상을 방지하면서 GPU에 데이터를 공급하는 데 사용할 수 있습니다.
더 많은 영구 스토리지가 필요한 애플리케이션을 위해 Hyperdisk 및 Persistent Disk 볼륨을 G2 인스턴스에 연결할 수도 있습니다. 최대 스토리지 용량은 인스턴스의 vCPU 수에 따라 다릅니다. 자세한 내용은 지원되는 디스크 유형을 참조하세요.
압축 배치 정책 지원: 데이터 센터 내에서 인스턴스의 물리적 배치를 더욱 효과적으로 제어할 수 있습니다. 이렇게 하면 단일 가용성 영역 내에서 인스턴스의 지연 시간이 단축되고 대역폭이 증가합니다. 자세한 내용은 압축 배치 정책을 사용하여 지연 시간 감소를 참조하세요.
G2 머신 유형
G2 가속기 최적화 머신 유형에는 NVIDIA L4 GPU가 연결되어 있으며 비용 최적화 추론, 그래픽 집약적 워크로드, 고성능 컴퓨팅 워크로드에 적합합니다.
각 G2 머신 유형에는 기본 메모리와 커스텀 메모리 범위도 있습니다. 커스텀 메모리 범위는 각 머신 유형의 인스턴스에 할당할 수 있는 메모리 양을 정의합니다. G2 인스턴스를 만들 때 로컬 SSD 디스크를 추가할 수도 있습니다. 연결할 수 있는 디스크 수는 로컬 SSD 디스크 수를 선택해야 하는 머신 유형을 참조하세요.
연결된 NVIDIA L4 GPU | |||||||
---|---|---|---|---|---|---|---|
머신 유형 | vCPU 수1 | 기본 인스턴스 메모리(GB) | 커스텀 인스턴스 메모리 범위(GB) | 지원되는 최대 로컬 SSD(GiB) | 최대 네트워크 대역폭(Gbps)2 | GPU 수 | GPU 메모리3(GB GDDR6) |
g2-standard-4 |
4 | 16 | 16~32 | 375 | 10 | 1 | 24 |
g2-standard-8 |
8 | 32 | 32~54 | 375 | 16 | 1 | 24 |
g2-standard-12 |
12 | 48 | 48~54 | 375 | 16 | 1 | 24 |
g2-standard-16 |
16 | 64 | 54~64 | 375 | 32 | 1 | 24 |
g2-standard-24 |
24 | 96 | 96~108 | 750 | 32 | 2 | 48 |
g2-standard-32 |
32 | 128 | 96~128 | 375 | 32 | 1 | 24 |
g2-standard-48 |
48 | 192 | 192~216 | 1,500 | 50 | 4 | 96 |
g2-standard-96 |
96 | 384 | 384~432 | 3,000 | 100 | 8 | 192 |
1vCPU는 사용 가능한 CPU 플랫폼 중 하나에서 단일 하드웨어 하이퍼 스레드로 구현됩니다.
2 최대 이그레스 대역폭은 지정된 수를 초과할 수 없습니다. 실제 이그레스 대역폭은 대상 IP 주소와 기타 요인에 따라 다릅니다.
네트워크 대역폭에 대한 자세한 내용은 네트워크 대역폭을 참조하세요.
3GPU 메모리는 임시 데이터 스토리지에 사용할 수 있는 GPU 기기의 메모리입니다. 인스턴스의 메모리와는 별개이며 특히 그래픽 집약적인 워크로드의 더 높은 대역폭 수요를 처리하도록 설계되었습니다.
G2 제한사항
- G2 머신 유형의 지원되는 소비 옵션을 사용해야 용량을 요청할 수 있습니다.
- G2 머신 유형을 사용하는 인스턴스에는 지속 사용 할인 및 가변형 약정 사용 할인이 적용되지 않습니다.
- 특정 리전과 영역에서만 G2 머신 유형을 사용할 수 있습니다.
- Cascade Lake 플랫폼에서만 G2 머신 유형을 사용할 수 있습니다.
- G2 머신 유형을 사용하는 인스턴스에서는 표준 영구 디스크(
pd-standard
)가 지원되지 않습니다. 지원되는 디스크 유형은 G2에 지원되는 디스크 유형을 참조하세요. - G2 머신 유형을 사용하는 인스턴스에서는 멀티 인스턴스 GPU를 만들 수 없습니다.
- G2 인스턴스 머신 유형을 변경해야 하는 경우에는 가속기 최적화 인스턴스 수정을 참조하세요.
- Deep Learning VM Image를 G2 머신 유형을 사용하는 인스턴스의 부팅 디스크로 사용할 수 없습니다.
- 현재 Container-Optimized OS의 기본 드라이버는 G2 머신 유형에서 실행되는 L4 GPU를 지원하지 않습니다. 또한 Container-Optimized OS는 일부 드라이버 세트만 지원합니다.
G2 머신 유형에서 Container-Optimized OS를 사용하려면 다음 참고를 검토하세요.
- 권장되는 최소 NVIDIA 드라이버 버전
525.60.13
이상을 지원하는 Container-Optimized OS 버전을 사용합니다. 자세한 내용은 Container-Optimized OS 출시 노트를 참조하세요. - 드라이버 설치 시 L4 GPU에서 작동하는 최신 버전을 지정합니다.
예를 들면
sudo cos-extensions install gpu -- -version=525.60.13
입니다.
- 권장되는 최소 NVIDIA 드라이버 버전
- 다음 시나리오의 경우 G2 인스턴스를 만들려면 Google Cloud CLI 또는 REST를 사용해야 합니다.
- 커스텀 메모리 값을 지정하려고 하는 경우
- 표시되는 CPU 코어 수를 맞춤설정하려고 합니다.
G2 인스턴스에 지원되는 디스크 유형
G2 인스턴스에서 다음 블록 스토리지 유형을 사용할 수 있습니다.
- 균형 있는 Persistent Disk(
pd-balanced
) - SSD(성능) Persistent Disk(
pd-ssd
) - Hyperdisk ML(
hyperdisk-ml
) - Hyperdisk Throughput(
hyperdisk-throughput
) - 로컬 SSD
머신 유형에서 지원하는 경우 인스턴스에 Hyperdisk 및 Persistent Disk 볼륨을 혼합하여 연결할 수 있지만 다음과 같은 제한사항이 적용됩니다.
- Hyperdisk 및 Persistent Disk 볼륨 수의 합계는 인스턴스당 128개를 초과할 수 없습니다.
모든 디스크 유형에서 최대 총 디스크 용량(TiB)은 다음을 초과할 수 없습니다.
vCPU가 32개 미만인 머신 유형:
- 모든 Hyperdisk 및 모든 Persistent Disk 257TiB
- Hyperdisk 및 Persistent Disk의 조합 257TiB
vCPU가 32개 이상인 머신 유형:
- 모든 Hyperdisk 512TiB
- Hyperdisk 및 Persistent Disk의 조합 512TiB
- 모든 Persistent Disk 257TiB
용량 한도에 관한 자세한 내용은 Hyperdisk 크기 및 연결 한도 및 Persistent Disk 최대 용량을 참조하세요.