이 문서에서는 필요한 리소스가 포함된 가상 머신(VM) 인스턴스 또는 베어 메탈 인스턴스를 만들기 위해 선택할 수 있는 머신 계열, 머신 시리즈, 머신 유형을 설명합니다. 컴퓨팅 인스턴스를 만들 때 해당 인스턴스에 사용할 수 있는 리소스를 결정하는 머신 계열에서 머신 유형을 선택합니다.
여러 머신 계열 중에서 선택할 수 있습니다. 각 머신 계열은 머신 시리즈와 각 시리즈 내의 사전 정의된 머신 유형으로 구성됩니다. 예를 들어 범용 머신 계열의 N2 머신 시리즈에서는 n2-standard-4
머신 유형을 선택할 수 있습니다.
스팟 VM (및 선점형 VM)을 지원하는 머신 시리즈에 대한 자세한 내용은 Compute Engine 인스턴스 프로비저닝 모델을 참고하세요.
- 범용 - 다양한 워크로드에서 최고의 가성비를 자랑합니다.
- 스토리지 최적화 - 코어 사용량이 낮고 스토리지 밀도가 높은 워크로드에 적합합니다.
- 컴퓨팅 최적화 - 고성능 컴퓨팅 (HPC) 솔루션 및 컴퓨팅 집약적인 워크로드용으로 설계되었으며 Compute Engine에서 높은 코어당 성능을 제공합니다.
- 메모리 최적화 - 메모리 집약적인 워크로드에 적합하며 다른 머신 계열보다 코어당 더 많은 메모리(최대 12TB)를 제공합니다.
- 가속기 최적화 - 머신러닝 (ML) 및 고성능 컴퓨팅 (HPC)과 같은 대규모 병렬 컴퓨팅 통합 기기 아키텍처 (CUDA) 컴퓨팅 워크로드에 적합합니다. 이 계열은 GPU가 필요한 워크로드에 최적인 옵션입니다.
Compute Engine 용어
이 문서에서는 다음 용어를 사용합니다.
- 머신 계열: 특정 워크로드에 최적화된 프로세서 및 하드웨어 구성으로 선별된 세트로, 범용, 액셀러레이터 최적화, 메모리 최적화 등이 있습니다.
머신 시리즈: 머신 계열은 시리즈, 세대, 프로세서 유형에 따라 추가로 분류됩니다.
시리즈마다 다른 측면의 컴퓨팅 성능 또는 성능에 중점을 둡니다. 예를 들어 E 시리즈는 저렴한 비용으로 효율적인 VM을 제공하는 반면 C 시리즈는 더 나은 성능을 제공합니다.
세대는 오름차순 숫자로 표시됩니다. 예를 들어 범용 머신 계열 내의 N1 시리즈는 N2 시리즈의 이전 버전입니다. 세대 번호나 시리즈 번호가 높을수록 일반적으로 최신 기본 CPU 플랫폼이나 기술을 나타냅니다. 예를 들어 Intel Xeon 스케일러블 프로세서 3세대(Ice Lake)에서 실행되는 M3 시리즈는 Intel Xeon 스케일러블 프로세서 2세대(Cascade Lake)에서 실행되는 M2 시리즈보다 최신 세대입니다.
생성 Intel AMD Arm 4세대 머신 시리즈 N4, C4, X4, M4, A4 C4D, G4, H4D(프리뷰) C4A, A4X 3세대 머신 계열 C3, H3, Z3, M3, A3 C3D 해당 사항 없음 2세대 머신 시리즈 N2, E2, C2, M2, A2, G2 N2D, C2D, T2D, E2 T2A
머신 유형: 모든 머신 시리즈는 하나 이상의 머신 유형을 제공합니다. 각 머신 유형은 vCPU, 메모리, 디스크, GPU와 같은 컴퓨팅 인스턴스의 리소스 세트를 제공합니다. 사전 정의된 머신 유형이 요구사항을 충족하지 않는 경우 일부 머신 시리즈에서는 커스텀 머신 유형을 만들 수도 있습니다.
다음 섹션에서는 여러 머신 유형을 설명합니다.
사전 정의된 머신 유형
사전 정의된 머신 유형에는 구성할 수 없는 메모리 및 vCPU 양이 제공됩니다. 사전 정의된 머신 유형은 다양한 vCPU 대 메모리 비율을 사용합니다.
highcpu
: vCPU당 1~3GB의 메모리(일반적으로 vCPU당 메모리 2GB)standard
: vCPU당 3~7GB의 메모리(일반적으로 vCPU당 메모리 4GB)highmem
: vCPU당 7~12GB의 메모리(일반적으로 vCPU당 메모리 8GB)megamem
: vCPU당 12~15GB의 메모리(일반적으로 vCPU당 메모리 14GB)ultramem
: vCPU당 24~31GB의 메모리hypermem
: vCPU당 15~24GB의 메모리(일반적으로 vCPU당 메모리 16GB)
예를 들어 c3-standard-22
머신 유형은 vCPU가 22개이고 standard
머신 유형이므로 메모리 88GB도 포함됩니다.
로컬 SSD 머신 유형
로컬 SSD 머신 유형은 특별한 사전 정의된 머신 유형입니다. 머신 유형 이름에 lssd
가 포함됩니다. 다음 머신 유형 중 하나를 사용하여 컴퓨팅 인스턴스를 만들 때 티타늄 SSD 또는 로컬 SSD 디스크가 인스턴스에 자동으로 연결됩니다.
-lssd
: C4, C4A, C4D, C3, C3D, H4D(프리뷰) 머신 시리즈에서 사용할 수 있는 이 머신 유형은 미리 정해진 수의 375GiB 티타늄 SSD 또는 로컬 SSD 디스크를 인스턴스에 연결합니다. 이 머신 유형의 예로는c4a-standard-4-lssd
,c3-standard-88-lssd
,c3d-highmem-360-lssd
가 있습니다.-standardlssd
: 스토리지 최적화 Z3 머신 시리즈에서 사용할 수 있는 이 머신 유형은 vCPU당 최대 350GiB의 티타늄 SSD 디스크 용량을 제공합니다. 이러한 머신 유형은 중간 크기의 데이터 세트에 대한 고성능 검색 및 데이터 분석에 권장됩니다. 이 머신 유형의 예는z3-highmem-22-standardlssd
입니다.-highlssd
: Z3 머신 시리즈에서 사용할 수 있는 이 머신 유형은 vCPU당 350GiB~600GiB의 티타늄 SSD 디스크 용량을 제공합니다. 이러한 머신 유형은 고성능을 제공하며 대규모 데이터 세트에 대한 스토리지 집약적 스트리밍과 데이터 분석에 권장됩니다. 이 머신 유형의 예는z3-highmem-88-highlssd
입니다.
다른 머신 시리즈도 로컬 SSD 디스크를 지원하지만 lssd
가 포함된 머신 유형 이름은 사용하지 않습니다. 티타늄 SSD 또는 로컬 SSD 디스크와 함께 사용할 수 있는 모든 머신 유형의 목록은 유효한 로컬 SSD 디스크 수 선택을 참조하세요.
베어메탈 머신 유형
베어메탈 머신 유형은 특별한 사전 정의된 머신 유형입니다. 이 머신 유형 이름은 -metal
로 끝납니다. 이 머신 유형 중 하나를 사용하여 컴퓨팅 인스턴스를 만들 때 인스턴스에 하이퍼바이저가 설치되지 않습니다. VM 인스턴스와 마찬가지로 베어메탈 인스턴스에 디스크를 연결할 수 있습니다. 베어메탈 인스턴스를 VM 인스턴스와 동일한 방식으로 VPC 네트워크 및 서브네트워크에서 사용할 수 있습니다.
자세한 내용은 Compute Engine의 베어메탈 인스턴스를 참조하세요.
커스텀 머신 유형
사전 정의된 머신 유형이 워크로드 요구사항에 적합하지 않으면 범용 머신 계열의 N 및 E 머신 시리즈에 대한 커스텀 머신 유형으로 VM 인스턴스를 만들 수 있습니다. .
커스텀 머신 유형을 사용하면 동급의 사전 정의된 머신 유형보다 비용이 약간 추가됩니다. 또한 커스텀 머신 유형에 선택 가능한 메모리 및 vCPU에 일부 제한이 있습니다. 커스텀 머신 유형의 주문형 가격에는 사전 정의된 머신 유형의 주문형 및 약정 가격보다 5% 높은 프리미엄이 포함됩니다.
커스텀 머신 유형을 만들 때 확장 메모리 기능을 사용할 수 있습니다. 선택한 vCPU 수를 기반으로 기본 메모리 크기를 사용하는 대신 머신 시리즈의 한도 내에서 메모리 양을 지정할 수 있습니다.
자세한 내용은 커스텀 머신 유형으로 VM 만들기를 참조하세요.
공유 코어 머신 유형
E2 및 N1 시리즈에는 공유 코어 머신 유형이 포함되어 있습니다. 이러한 머신 유형은 물리적 코어를 시분할 공유하며, 이는 리소스 사용이 적은 소규모 앱을 경제적으로 실행하는 방법입니다.
E2: 짧은 버스팅 기간 동안 vCPU 2개를 가지는
e2-micro
,e2-small
,e2-medium
공유 코어 머신 유형을 제공합니다.N1: 짧은 버스팅 기간 동안 최대 1개의 vCPU를 가지는
f1-micro
및g1-small
공유 코어 머신 유형을 제공합니다.
자세한 내용은 CPU 버스팅을 참조하세요.
머신 계열 및 시리즈 권장사항
다음 표에서는 다양한 워크로드에 대한 권장사항을 제공합니다.
범용 워크로드 | |||
---|---|---|---|
N4, N2, N2D, N1 | C4, C4A, C4D, C3, C3D | E2 | Tau T2D, Tau T2A |
다양한 머신 유형에서 균형 있는 가성비 제공 | 다양한 워크로드를 위한 지속적인 고성능 제공 | 저렴한 비용으로 일상적인 컴퓨팅 | 수평 확장 워크로드에 대한 최고 코어당 성능/비용 |
|
|
|
|
최적화된 워크로드 |
||||
---|---|---|---|---|
스토리지 최적화 | 컴퓨팅 최적화 | 메모리 최적화 | 가속기 최적화 | |
Z3 | H4D(프리뷰), H3, C2, C2D | X4, M4, M3, M2, M1 | A4X, A4, A3, A2, G4, G2 | |
스토리지 집약적인 워크로드를 위한 가장 높은 블록 스토리지 대 컴퓨팅 비율 | 고성능 컴퓨팅(HPC), 다중 노드 및 컴퓨팅 성능의 제약을 받는 워크로드에 최고 성능과 저렴한 비용 제공 | 메모리 집약적인 워크로드를 위한 가장 높은 메모리 대 컴퓨팅 비율 | 가속 고성능 컴퓨팅 워크로드에 최적화 | |
|
|
|
|
컴퓨팅 인스턴스를 만든 후에는 적정 크기 권장을 사용하여 워크로드를 기준으로 리소스 사용률을 최적화할 수 있습니다. 자세한 내용은 VM용 머신 유형 권장사항 적용을 참조하세요.
범용 머신 계열 가이드
범용 머신 계열은 다양한 워크로드에 최고의 가성비를 자랑하는 여러 머신 시리즈를 제공합니다.
Compute Engine은 x86 또는 Arm 아키텍처에서 실행되는 범용 머신 시리즈를 제공합니다.
x86
- C4 머신 시리즈는 Intel Granite Rapids 및 Emerald Rapids CPU 플랫폼에서 사용할 수 있으며 Titanium을 기반으로 합니다. C4 머신 유형은 지속적인 고성능을 제공하고 2.2TB의 DDR5 메모리 및 18TiB의 로컬 SSD에서 최대 288개의 vCPU까지 확장하도록 최적화되어 있습니다. C4는
highcpu
(vCPU당 2GB 메모리),standard
(vCPU당 3.75GB 메모리),highmem
(vCPU당 7.75GB 메모리) 구성으로 사용할 수 있습니다. C4 인스턴스는 기본 비균일 메모리 액세스(NUMA) 아키텍처에 부합하여 안정적이고 일관성 있는 최적의 성능을 제공합니다. - C4D 머신 시리즈는 AMD EPYC Turin CPU 플랫폼에서 사용할 수 있으며 Titanium을 기반으로 합니다. C4D는 C3D에 비해 최대 부스트 주파수가 더 크며, 데이터베이스 트랜잭션을 더 빠르게 처리할 수 있도록 클럭당 명령어 처리 수(IPC)가 개선되었습니다. C4D는 Hyperdisk 스토리지와 Titanium 네트워킹을 활용하여 C3D에 비해 MySQL용 Cloud SQL에서 초당 쿼리 수가 최대 55% 더 많고 Memorystore for Redis 워크로드에서 성능이 35% 더 우수한 성능을 자랑합니다. C4D 인스턴스는 최대 384개의 vCPU, 3TB의 DDR5 메모리, 12TiB의 로컬 SSD로 제공됩니다.
C4D는
highcpu
(vCPU당 1.875GB 메모리),standard
(vCPU당 3.875GB 메모리),highmem
(vCPU당 7.875GB 메모리) 구성으로 사용할 수 있습니다. C4D 인스턴스는 기본 NUMA 아키텍처에 부합하여 안정적이고 일관성 있는 최적의 성능을 제공합니다. - N4 머신 시리즈는 Intel Emerald Rapids CPU 플랫폼에서 사용할 수 있으며 Titanium을 기반으로 합니다. N4 머신 유형은 사전 정의된 형태와 커스텀 형태 모두의 유연성과 비용에 최적화되어 있으며 640GB의 DDR5 메모리에서 최대 80개의 vCPU로 확장할 수 있습니다. N4는
highcpu
(vCPU당 2GB),standard
(vCPU당 4GB),highmem
(vCPU당 8GB) 구성으로 사용할 수 있습니다. - N2 머신 시리즈는 최대 128개의 vCPU, vCPU당 8GB 메모리를 제공하며 Intel Ice Lake 및 Intel Cascade Lake CPU 플랫폼에서 사용할 수 있습니다.
- N2D 머신 시리즈는 최대 224개의 vCPU와 vCPU당 8GB의 메모리를 제공하며 2세대 AMD EPYC Rome 및 3세대 AMD EPYC Milan 플랫폼에서 사용할 수 있습니다.
- C3 머신 시리즈는 Intel Sapphire Rapids CPU 플랫폼과 Titanium에서 최대 176개의 vCPU와 vCPU당 2GB, 4GB 또는 8GB의 메모리를 제공합니다. C3 인스턴스는 기본 NUMA 아키텍처에 부합하여 안정적이고 일관성 있는 최적의 성능을 제공합니다.
- C3D 머신 시리즈는 AMD EPYC Genoa CPU 플랫폼 및 Titanium에서 최대 360개의 vCPU와 vCPU당 2GB, 4GB 또는 8GB의 메모리를 제공합니다. C3D 인스턴스는 기본 NUMA 아키텍처에 부합하여 안정적이고 일관성 있는 최적의 성능을 제공합니다.
- E2 머신 시리즈는 최대 32개의 가상 코어(vCPU), 최대 128GB의 메모리, vCPU당 최대 8GB의 메모리, 모든 머신 시리즈 중 가장 낮은 비용을 제공합니다. E2 머신 시리즈에는 Intel 프로세서 또는 2세대 AMD EPYC™ Rome 프로세서를 실행하는 사전 정의된 CPU 플랫폼이 있습니다. 인스턴스를 만들 때 이 프로세서가 자동으로 선택됩니다. 특히 이 머신 시리즈를 약정 사용 할인과 함께 사용하면 Compute Engine에서 가장 저렴한 가격으로 다양한 컴퓨팅 리소스가 제공됩니다.
- Tau T2D 머신 시리즈는 수평 확장에 최적화된 기능 세트를 제공합니다. 각 VM 인스턴스는 vCPU 최대 60개, vCPU당 메모리 4GB를 가질 수 있으며 3세대 AMD EPYC Milan 프로세서에서 사용 가능합니다. Tau T2D 머신 시리즈는 클러스터 스레딩을 사용하지 않으므로 vCPU가 전체 코어와 동일합니다.
- N1 머신 시리즈 VM은 최대 96개의 vCPU와 vCPU당 최대 6.5GB의 메모리를 가질 수 있으며 Intel Sandy Bridge, Ivy Bridge, Haswell, Broadwell, Skylake CPU 플랫폼에서 사용할 수 있습니다.
Arm
C4A 머신 시리즈는 Arm 프로세서에서 실행되는 Google Cloud 두 번째 머신 시리즈이며 Arm V9 아키텍처를 지원하는 Google Axion 프로세서에서 실행되는 첫 번째 머신 시리즈입니다. C4A 인스턴스는 디스크 및 네트워크 오프로드가 있는 Titanium IPU를 기반으로 합니다. 그러면 호스트 내 처리가 줄어들어 인스턴스 성능이 개선됩니다.
C4A 인스턴스는 단일 균일 메모리 액세스(UMA) 도메인에서 vCPU당 최대 8GB의 메모리와 함께 최대 72개의 vCPU를 제공합니다. C4A는 최대 6TiB의 티타늄 SSD 용량과 함께 제공되는
-lssd
머신 유형을 제공합니다. C4A 인스턴스는 동시 멀티스레딩(SMT)을 사용하지 않습니다. C4A 인스턴스의 vCPU는 전체 물리적 코어와 같습니다.Tau T2A 머신 시리즈는 Google Cloud Arm 프로세서에서 실행되는 첫 번째 머신 시리즈입니다. Tau T2A 머신은 성능 대비 합리적인 가격을 제공하도록 최적화되어 있습니다. 각 VM에는 vCPU당 4GB 메모리가 포함된 최대 48개의 vCPU가 포함될 수 있습니다. Tau T2A 머신 시리즈는 ARM 명령 집합과 3GHz의 전체 코어 주파수를 갖는 64 코어 Ampere Altra 프로세스에서 실행됩니다. Tau T2A 머신 유형은 단일 NUMA 노드를 지원하고 vCPU는 전체 코어에 해당합니다.
스토리지 최적화 머신 계열 가이드
스토리지 최적화 머신 계열은 SQL, NoSQL, 벡터 데이터베이스, 확장형 데이터 분석, 데이터 웨어하우스와 검색 및 로컬 스토리지에 저장된 대용량 데이터에 빠르게 액세스해야 하는 분산 파일 시스템과 같은 고성능 및 플래시 최적화 워크로드에 가장 적합합니다. 스토리지 최적화 머신 계열은 밀리초 미만의 지연 시간으로 높은 로컬 스토리지 처리량과 IOPS를 제공하도록 설계되었습니다.
- Z3
standardlssd
인스턴스는 최대 176개의 vCPU, 1,408GB의 메모리, 36TiB의 티타늄 SSD를 포함할 수 있습니다. - Z3
highlssd
인스턴스는 최대 88개의 vCPU, 704GB의 메모리, 36TiB의 티타늄 SSD를 포함할 수 있습니다. - Z3 베어메탈 인스턴스에는 vCPU 192개, 메모리 1,536GB, 로컬 티타늄 SSD 72TiB가 있습니다.
Z3는 DDR5 메모리 및 Titanium 오프로드 프로세서를 사용하는 Intel Xeon 스케일러블 프로세서(코드명 Sapphire Rapids)에서 실행됩니다. Z3는 컴퓨팅, 네트워킹, 스토리지 혁신 기술을 단일 플랫폼으로 통합합니다. Z3 인스턴스는 기본 NUMA 아키텍처에 부합하여 안정적이고 일관성 있는 최적의 성능을 제공합니다.
컴퓨팅 최적화 머신 계열 가이드
컴퓨팅 최적화 머신 계열은 코어당 높은 성능을 제공하여 고성능 컴퓨팅(HPC), 다중 노드, 컴퓨팅 성능의 제약을 받는 애플리케이션을 실행하는 데 최적화되어 있습니다.
- H4D 인스턴스(프리뷰)는 192개의 vCPU와 720GB의 DDR5 메모리를 제공합니다. H4D 인스턴스는 AMD EPYC Turin CPU 플랫폼에서 실행되며, Titanium 오프로드 및 Cloud RDMA를 지원합니다. H4D 인스턴스는 기본 NUMA 아키텍처에 부합하여 안정적이고 일관성 있는 최적의 성능을 제공합니다. H4D는 다중 노드 워크로드 및 HPC 워크로드의 확장성을 개선합니다. Cloud RDMA는 과학적 계산과 ML/AI 워크로드를 실행할 수 있는 진정한 클라우드 HPC 플랫폼을 구축할 수 있게 해주는 네트워킹 인프라 구성요소입니다. 클라우드 RDMA는 온프레미스 인프라와 비슷한 가격 대비 성능 비율을 제공합니다.
- H3 인스턴스는 88개의 vCPU와 352GB의 DDR5 메모리를 제공합니다. H3 인스턴스는 Intel Sapphire Rapids CPU 플랫폼과 Titanium 오프로드 프로세서에서 실행됩니다. H3 인스턴스는 기본 NUMA 아키텍처에 부합하여 안정적이고 일관성 있는 최적의 성능을 제공합니다. H3는 분자 동역학, 전산 지구과학, 재무 위험 분석, 기후 모델링, 프런트엔드 및 백엔드 EDA, 전산 유체역학과 같은 다양한 HPC 워크로드의 성능 개선을 제공합니다.
- C2 인스턴스는 최대 60개의 vCPU와 vCPU당 4GB 메모리를 제공하며 Intel Cascade Lake CPU 플랫폼에서 사용할 수 있습니다. C2 인스턴스는 기본 NUMA 아키텍처에 부합하여 안정적이고 일관성 있는 최적의 성능을 제공합니다.
- C2D 인스턴스는 최대 112개의 vCPU와 vCPU당 최대 8GB 메모리를 제공하며 3세대 AMD EPYC Milan 플랫폼에서 사용할 수 있습니다. C2D 인스턴스는 기본 NUMA 아키텍처에 부합하여 안정적이고 일관성 있는 최적의 성능을 제공합니다.
메모리 최적화 머신 계열 가이드
메모리 최적화 머신 계열에는 OLAP 및 OLTP SAP 워크로드, 게놈 모델링, 전자 설계 자동화, 메모리 집약적인 HPC 워크로드에 이상적인 머신 시리즈가 있습니다. 이 계열은 다른 머신 계열보다 코어당 더 많은 메모리(최대 32TB)를 제공합니다.
- X4 베어메탈 인스턴스는 vCPU당 17GB의 메모리와 함께 최대 1,920개의 vCPU를 제공합니다. X4는 메모리가 16TB, 24TB, 32TB인 머신 유형을 제공하며 인텔 Sapphire Rapids CPU 플랫폼에서 사용할 수 있습니다.
- M4 인스턴스는 최대 224개의 vCPU와 vCPU당 최대 26.5GB의 메모리를 제공하며 Intel Emerald Rapids CPU 플랫폼에서 사용할 수 있습니다.
- M3 인스턴스는 vCPU 128개, vCPU당 최대 30.5GB 메모리를 제공하며 Intel Ice Lake CPU 플랫폼에서 사용할 수 있습니다
- M2 인스턴스는 6TB, 9TB, 12TB 머신 유형으로 제공되며 Intel Cascade Lake CPU 플랫폼에서 사용할 수 있습니다.
- M1 인스턴스는 최대 160개의 vCPU, vCPU당 14.9GB~24GB의 메모리를 제공하며 Intel Skylake 및 Broadwell CPU 플랫폼에서 사용할 수 있습니다.
가속기 최적화 머신 계열 가이드
가속기 최적화 머신 계열은 머신러닝(ML) 및 고성능 컴퓨팅(HPC)과 같은 대규모 병렬 컴퓨팅 통합 기기 아키텍처(CUDA) 컴퓨팅 워크로드에 적합합니다. 이 머신 계열은 GPU가 필요한 워크로드에 최적화되어 있습니다.
또한 Google은 GPU 간 통신을 통해 가속기 최적화 VM 클러스터를 만들기 위한 AI 하이퍼컴퓨터를 제공합니다. 이는 매우 집약적인 AI 및 ML 워크로드를 실행하도록 설계되어 있습니다. 자세한 내용은 AI 하이퍼컴퓨터 개요를 참고하세요.
Arm
A4X 인스턴스는 최대 140개의 vCPU와 최대 884GB의 메모리를 제공합니다. 각 A4X 머신 유형에는 2개의 NVIDIA Grace CPU에 연결된 4개의 NVIDIA B200 GPU가 있습니다. A4X 인스턴스의 최대 네트워크 대역폭은 최대 2,000GBps입니다.
x86
- A4 인스턴스는 최대 224개의 vCPU와 최대 3,968GB의 메모리를 제공합니다. 각 A4 머신 유형에는 8개의 NVIDIA B200 GPU가 연결되어 있습니다. A4 인스턴스의 최대 네트워크 대역폭은 최대 3,600Gbps이며 Intel Emerald Rapids CPU 플랫폼에서 사용할 수 있습니다.
- A3 인스턴스는 최대 224개의 vCPU와 최대 2,952GB의 메모리를 제공합니다.
각 A3 머신 유형에는 NVIDIA H100 GPU 1개, 2개, 4개, 8개 또는 H200 GPU 8개가 연결됩니다. A3의 최대 네트워크 대역폭은 최대 3,200Gbps이며 다음 CPU 플랫폼에서 사용할 수 있습니다.
- Intel Emerald Rapids - A3 Ultra
- Intel Sapphire Rapids - A3 Mega, High, Edge
- A3 인스턴스는 Intel Sapphire Rapids CPU 플랫폼과 Titanium에서 208개의 vCPU, 1,872GB의 메모리, 8개의 NVIDIA H100 GPU를 제공하는 A3 Edge 머신 유형(
a3-edgegpu-8g-nolssd
)으로 사용할 수 있습니다. - A2 인스턴스는 12~96개의 vCPU와 최대 1,360GB의 메모리를 제공합니다. 각 A2 머신 유형에는 1개, 2개, 4개, 8개 또는 16개의 NVIDIA A100 GPU가 연결되어 있습니다. A2 인스턴스의 최대 네트워크 대역폭은 최대 100Gbps이며 Intel Cascade Lake CPU 플랫폼에서 사용할 수 있습니다.
- G4 인스턴스(프리뷰)는 48~384개의 vCPU와 최대 1,440GB의 메모리를 제공합니다. 각 G4 인스턴스에는 1개, 2개, 4개 또는 8개의 NVIDIA RTX PRO 6000 GPU가 연결되어 있습니다. G4 인스턴스의 최대 네트워크 대역폭은 최대 400Gbps이며 AMD EPYC Turin CPU 플랫폼에서 사용할 수 있습니다.
- G2 인스턴스는 4~96개의 vCPU와 최대 432GB의 메모리를 제공합니다. 각 G2 머신 유형에는 1개, 2개, 4개 또는 8개의 NVIDIA L4 GPU가 연결되어 있습니다. G2 인스턴스의 최대 네트워크 대역폭은 최대 100Gbps이며 Intel Cascade Lake CPU 플랫폼에서 사용할 수 있습니다.
머신 시리즈 비교
다음 표를 사용하여 각 머신 계열을 비교하고 워크로드에 적합한 계열을 결정합니다. 이 섹션을 검토한 후에도 워크로드에 어떤 계열이 가장 적합한지 여전히 모르겠으면 범용 머신 계열부터 시작합니다. 지원되는 모든 프로세서에 대한 자세한 내용은 CPU 플랫폼을 참고하세요.
선택사항이 컴퓨팅 인스턴스에 연결된 디스크 볼륨의 성능에 미치는 영향을 알아보려면 다음을 참조하세요.
- 영구 디스크: 머신 유형 및 vCPU 개수별 디스크 성능
- Google Cloud Hyperdisk: 하이퍼디스크 성능 한도
C4A부터 G2에 이르기까지 다양한 머신 시리즈의 특성을 비교합니다. 비교할 인스턴스 속성 선택 필드에서 특정 속성을 선택하여 다음 표에 있는 모든 머신 시리즈의 속성을 비교할 수 있습니다.
범용 | 범용 | 범용 | 범용 | 범용 | 범용 | 범용 | 범용 | 범용 | 범용 | 범용 | 비용에 최적화됨 | 스토리지 최적화 | 컴퓨팅 최적화 | 컴퓨팅 최적화 | 컴퓨팅 최적화 | 컴퓨팅 최적화 | 메모리 최적화 | 메모리 최적화 | 메모리 최적화 | 메모리 최적화 | 메모리 최적화 | 가속기 최적화 | 가속기 최적화 | 가속기 최적화 | 가속기 최적화 | 가속기 최적화 | 가속기 최적화 | 가속기 최적화 | 가속기 최적화 |
VM | VM | VM 및 베어메탈 | VM 및 베어메탈 | VM | VM | VM | VM | VM | VM | VM | VM | VM 및 베어메탈 | VM | VM | VM | VM | 베어메탈 | VM | VM | VM | VM | VM | VM | VM | VM | VM | VM | VM | VM |
Intel Emerald Rapids 및 Granite Rapids | Google Axion | AMD EPYC Turin | 인텔 Sapphire Rapids | AMD EPYC Genoa | 인텔 Emerald Rapids | Intel Cascade Lake, Ice Lake | AMD EPYC Rome, EPYC Milan | Intel Skylake, Broadwell, Haswell, Sandy Bridge, Ivy Bridge | AMD EPYC Milan | Ampere Altra | Intel Skylake, Broadwell, and Haswell, AMD EPYC Rome 및 EPYC Milan | 인텔 Sapphire Rapids | AMD EPYC Turin | 인텔 Sapphire Rapids | Intel Cascade Lake | AMD EPYC Milan | 인텔 Sapphire Rapids | 인텔 Emerald Rapids | Intel Ice Lake | Intel Cascade Lake | Intel Skylake, Broadwell | Intel Skylake, Broadwell, Haswell, Sandy Bridge, Ivy Bridge | NVIDIA Grace | 인텔 Emerald Rapids | 인텔 Emerald Rapids | 인텔 Sapphire Rapids | Intel Cascade Lake | AMD EPYC Turin | Intel Cascade Lake |
x86 | Arm | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | Arm | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | Arm | x86 | x86 | x86 | x86 | x86 | x86 |
2~288 | 1~72 | 2~384 | 4~176 | 4~360 | 2~80 | 2~128 | 2~224 | 1~96 | 1~60 | 1~48 | 0.25~32 | 8~192 | 192 | 88 | 4~60 | 2~112 | 960~1,920 | 16~244 | 32~128 | 208~416 | 40~160 | 1~96 | 140 | 224 | 224 | 208 | 12~96 | 48~384 | 4~96 |
대화목록 | 핵심 | 대화목록 | 대화목록 | 대화목록 | 대화목록 | 대화목록 | 대화목록 | 대화목록 | Core | Core | 대화목록 | 대화목록 | 핵심 | Core | 대화목록 | 대화목록 | 대화목록 | 대화목록 | 대화목록 | 대화목록 | 대화목록 | 대화목록 | 핵심 | 대화목록 | 대화목록 | 대화목록 | 대화목록 | 대화목록 | 대화목록 |
2~2,232GB | 2~576GB | 3~3,072GB | 8~1,408GB | 8~2,880GB | 2~640GB | 2~864GB | 2~896GB | 1.8~624GB | 4~240GB | 4~192GB | 1~128GB | 64~1,536GB | 720~1,488GB | 352GB | 16~240GB | 4~896GB | 16,384~32,768GB | 248~5,952GB | 976~3,904GB | 5,888~11,776GB | 961~3,844GB | 3.75~624GB | 884GB | 3,968GB | 2,952GB | 1,872GB | 85~1,360GB | 180~1,440GB | 16~432GB |
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | |||||||
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | |||||
— | — | — | — | — | — | — | — | — | — | — | |||||||||||||||||||
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | ||||||||||||
— | — | <style="white-space:no-wrap;"> AMD SEV </style="white-space:no-wrap;"> | Intel TDX | <style="white-space:no-wrap;"> AMD SEV </style="white-space:no-wrap;"> | — | — | <style="white-space:no-wrap;"> AMD SEV , AMD SEV-SNP </style="white-space:no-wrap;"> | — | — | — | — | — | — | — | — | <style="white-space:no-wrap;"> AMD SEV </style="white-space:no-wrap;"> | — | — | — | — | — | — | — | — | — | Intel TDX, NVIDIA 컨피덴셜 컴퓨팅 | — | — | — |
NVMe | NVMe | NVMe | NVMe | NVMe | NVMe | SCSI, NVMe | SCSI, NVMe | SCSI, NVMe | SCSI, NVMe | NVMe | SCSI | NVMe | NVMe | NVMe | SCSI, NVMe | SCSI, NVMe | NVMe | NVMe | NVMe | SCSI | SCSI, NVMe | SCSI, NVMe | NVMe | NVMe | NVMe | NVMe | SCSI, NVMe | NVMe | NVMe |
— | — | — | — | — | — | — | — | — | — | — | |||||||||||||||||||
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | |||||||||
— | — | — | — | — | — | — | — | — | — | — | — | — | |||||||||||||||||
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | |||||
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | ||||||||||||
— | — | — | — | — | — | — | — | — | — | ||||||||||||||||||||
128 | 0 | 12TiB | 12TiB | 12TiB | 0 | 9TiB | 9TiB | 9TiB | 0 | 0 | 0 | 36TiB(VM), 72TiB(메탈) | 3TiB | 0 | 3TiB | 3TiB | 0 | 0 | 3TiB | 0 | 3TiB | 9TiB | 12TiB | 12TiB | 12TiB | 6TiB | 3TiB | 12TiB | 3TiB |
— | — | — | — | — | — | 영역 및 리전 | 영역 및 리전 | 영역 및 리전 | Zonal | Zonal | 영역 및 리전 | — | — | — | Zonal | Zonal | — | — | — | Zonal | Zonal | 영역 및 리전 | — | — | — | — | Zonal | — | — |
— | — | — | Zonal | Zonal | — | 영역 및 리전 | 영역 및 리전 | 영역 및 리전 | Zonal | Zonal | 영역 및 리전 | Zonal | — | Zonal | Zonal | Zonal | — | — | Zonal | Zonal | Zonal | 영역 및 리전 | — | — | — | Zonal | Zonal | — | Zonal |
— | — | — | Zonal | Zonal | — | 영역 및 리전 | 영역 및 리전 | 영역 및 리전 | Zonal | Zonal | 영역 및 리전 | Zonal | — | — | Zonal | Zonal | — | — | Zonal | Zonal | Zonal | 영역 및 리전 | — | — | — | Zonal | Zonal | — | Zonal |
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | ||||
gVNIC 및 IDPF | gVNIC | gVNIC 및 IDPF | gVNIC 및 IDPF | gVNIC | gVNIC | gVNIC, VirtIO-Net | gVNIC, VirtIO-Net | gVNIC, VirtIO-Net | gVNIC, VirtIO-Net | gVNIC | gVNIC, VirtIO-Net | gVNIC 및 IDPF | gVNIC, IRDMA | gVNIC | gVNIC, VirtIO-Net | gVNIC, VirtIO-Net | IDPF | gVNIC | gVNIC | gVNIC, VirtIO-Net | gVNIC, VirtIO-Net | gVNIC, VirtIO-Net | gVNIC, MRDMA | gVNIC, MRDMA | gVNIC, MRDMA | gVNIC | gVNIC, VirtIO-Net | gVNIC | gVNIC, VirtIO-Net |
10~100Gbps | 10~50Gbps | 10~100Gbps | 23~100Gbps | 20~100Gbps | 10~50Gbps | 10~32Gbps | 10~32Gbps | 2~32Gbps | 10~32Gbps | 10~32Gbps | 1~16Gbps | 23~100Gbps | 최대 200Gbps | 최대 200Gbps | 10~32Gbps | 10~32Gbps | 최대 100Gbps | 16~100Gbps | 최대 32Gbps | 최대 32Gbps | 최대 32Gbps | 2~32Gbps | 최대 2,000Gbps | 최대 3,600Gbps | 최대 3,200Gbps | 최대 1,800Gbps | 24~100Gbps | 50~400Gbps | 10~100Gbps |
50~200Gbps | 50~100Gbps | 50~200Gbps | 50~200Gbps | 50~200Gbps | — | 50~100Gbps | 50~100Gbps | — | — | — | — | 50~200Gbps | — | — | 50~100Gbps | 50~100Gbps | — | — | 50~100Gbps | — | — | 50~100Gbps | 최대 2,000Gbps | 최대 3,600Gbps | 최대 3,200Gbps | 최대 1,800Gbps | 50~100Gbps | 50~400Gbps | 50~100Gbps |
0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 | 4 | 8 | 8 | 8 | 16 | 8 | 8 |
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | |||||||
리소스 기반 CUD 및 가변형 CUD | 리소스 기반 CUD 및 가변형 CUD | 리소스 기반 CUD 및 가변형 CUD | 리소스 기반 CUD 및 가변형 CUD | 리소스 기반 CUD 및 가변형 CUD | 리소스 기반 CUD 및 가변형 CUD | 리소스 기반 CUD 및 가변형 CUD | 리소스 기반 CUD 및 가변형 CUD | 리소스 기반 CUD 및 가변형 CUD | 리소스 기반 CUD | — | 리소스 기반 CUD 및 가변형 CUD | 리소스 기반 CUD 및 가변형 CUD | 리소스 기반 CUD 및 가변형 CUD | 리소스 기반 CUD | 리소스 기반 CUD 및 가변형 CUD | 리소스 기반 CUD 및 가변형 CUD | 리소스 기반 CUD | 리소스 기반 CUD | 리소스 기반 CUD | 리소스 기반 CUD | 리소스 기반 CUD | 리소스 기반 CUD | 리소스 기반 CUD | 리소스 기반 CUD | 리소스 기반 CUD | 리소스 기반 CUD | 리소스 기반 CUD | — | 리소스 기반 CUD |
— | — | — | |||||||||||||||||||||||||||
GPU 및 컴퓨팅 인스턴스
GPU는 워크로드를 가속화하는 데 사용되며 A4X, A4, A3, A2, G4, G2, N1 인스턴스에 지원됩니다. A4X, A4, A3, A2, G4 또는 G2 머신 유형을 사용하는 인스턴스의 경우 인스턴스를 만들 때 GPU가 자동으로 연결됩니다. N1 머신 유형을 사용하는 인스턴스의 경우 인스턴스를 만드는 동안 또는 만든 후에 GPU를 인스턴스에 연결할 수 있습니다. GPU는 다른 머신 시리즈와 함께 사용할 수 없습니다.
가속기 최적화 인스턴스는 G2 머신을 제외하고 머신 유형당 GPU, vCPU, 메모리 수가 고정되어 있습니다. G2 머신은 커스텀 메모리 범위를 제공합니다. 연결된 GPU 수가 적은 N1 인스턴스는 최대 vCPU 수로 제한됩니다. 일반적으로 GPU 수가 많을수록 더 많은 vCPU와 높은 메모리 용량으로 인스턴스를 만들 수 있습니다.
자세한 내용은 Compute Engine의 GPU를 참조하세요.
다음 단계
VM을 만들고 시작하는 방법을 알아보세요.
커스텀 머신 유형으로 VM을 만드는 방법을 알아보세요.
빠른 시작: Linux VM 사용을 완료합니다.
빠른 시작: Windows VM 사용을 완료합니다.
VM에 블록 스토리지 연결 자세히 알아보기