VMware Engine의 VLAN 및 서브넷
Google Cloud VMware Engine은 VMware Engine 서비스가 배포되는 리전별 네트워크를 만듭니다. 네트워크는 기본적으로 라우팅이 사용 설정된 단일 TCP Layer 3 주소 공간입니다. 이 리전에서 생성된 모든 프라이빗 클라우드 및 서브넷은 추가 구성 없이도 서로 통신할 수 있습니다. 워크로드 가상 머신 (VM)에 NSX를 사용하여 네트워크 세그먼트 (서브넷)를 만들 수 있습니다.
관리 VLAN
Google은 각 프라이빗 클라우드에 대해 VLAN(Layer 2 네트워크)을 만듭니다. 프라이빗 클라우드 내에서 로컬 트래픽을 격리할 수 있도록 Layer 2 트래픽이 프라이빗 클라우드 경계 내에 유지됩니다. 이러한 VLAN은 관리 네트워크에 사용됩니다. 워크로드 VM의 경우 프라이빗 클라우드에 대해 NSX Manager에 네트워크 세그먼트를 만들어야 합니다.
서브넷
프라이빗 클라우드의 NSX Manager에서 네트워크 세그먼트를 만들어야 합니다. 단일 비공개 Layer 3 주소 공간은 고객 및 리전별로 할당됩니다. 프라이빗 클라우드, 온프레미스 네트워크, 프라이빗 클라우드 관리 네트워크 또는 Virtual Private Cloud(VPC) 네트워크의 서브넷 IP 주소 범위에서 다른 네트워크와 겹치지 않는 IP 주소 범위를 구성할 수 있습니다. VMware Engine이 서브넷 IP 주소 범위를 할당하는 방법에 대한 자세한 내용은 네트워킹 요구사항을 참조하세요.
모든 서브넷은 기본적으로 서로 통신할 수 있으므로 프라이빗 클라우드 간 라우팅의 구성 오버헤드가 감소합니다. 동일한 리전의 프라이빗 클라우드에 있는 동-서 데이터는 동일한 Layer 3 네트워크에 그대로 유지되며 리전 내 로컬 네트워크 인프라를 통해 전송됩니다. 한 리전의 프라이빗 클라우드 간 통신에는 이그레스가 필요하지 않습니다. 이 접근 방식을 사용하면 동일한 프로젝트의 서로 다른 프라이빗 클라우드에 서로 다른 워크로드를 배포할 때 발생하는 WAN/이그레스 성능 저하를 제거할 수 있습니다.
프라이빗 클라우드에 생성된 관리 서브넷
프라이빗 클라우드를 만들면 VMware Engine이 다음 관리 서브넷을 만듭니다.
- 시스템 관리: ESXi 호스트의 관리 네트워크, DNS 서버, vCenter 서버용 VLAN 및 서브넷
- VMotion: ESXi 호스트의 vMotion 네트워크용 VLAN 및 서브넷
- VSAN: ESXi 호스트의 vSAN 네트워크용 VLAN 및 서브넷
- NsxtEdgeUplink1: 외부 네트워크의 VLAN 업링크용 VLAN 및 서브넷
- NsxtEdgeUplink2: 외부 및 VLAN 업링크용 VLAN 링크
- HCXUplink: HCX IX(이동) 및 NE(확장) 어플라이언스가 피어에 연결하여 HCX 서비스 메시를 만들 수 있도록 합니다.
- NsxtHostTransport: 호스트 전송 영역용 VLAN 및 서브넷
HCX 배포 네트워크 CIDR 범위
VMware Engine에서 프라이빗 클라우드를 만들면 VMware Engine이 프라이빗 클라우드에 HCX를 자동으로 설치합니다. HCX 구성요소의 전용 CIDR 범위를 더 이상 지정할 필요가 없습니다. 대신 VMware Engine은 프라이빗 클라우드에 지정한 관리 CIDR 범위에서 HCX 구성요소 (예: HCX Manager, vMotion, WAN 업링크)에 필요한 네트워크 공간을 자동으로 할당합니다.
서비스 서브넷
프라이빗 클라우드를 만들면 VMware Engine이 자동으로 추가 서비스 서브넷을 만듭니다. 스토리지, 백업, 재해 복구 (DR), 미디어 스트리밍과 같은 어플라이언스 또는 서비스 배포 시나리오를 위한 서비스 서브넷을 대상으로 하며 아무리 규모가 큰 프라이빗 클라우드에 대한 대규모 선형 처리량 및 패킷 처리도 제공할 수 있습니다. 서비스 서브넷 이름은 다음과 같습니다.
service-1
service-2
service-3
service-4
service-5
서비스 서브넷 전반의 가상 머신 통신은 VMware ESXi 호스트를 Google Cloud 네트워킹 인프라로 직접 종료하므로 고속 통신이 가능합니다.
서비스 서브넷 구성
VMware Engine은 서비스 서브넷을 만들 때 CIDR 범위 또는 프리픽스를 할당하지 않습니다. 겹치지 않는 CIDR 범위와 프리픽스를 지정해야 합니다. 사용 가능한 첫 번째 주소가 게이트웨이 주소가 됩니다. CIDR 범위와 프리픽스를 할당하려면 서비스 서브넷 중 하나를 수정합니다.
CIDR 요구사항이 변경되면 서비스 서브넷을 업데이트할 수 있습니다. 기존 서비스 서브넷 CIDR을 수정하면 해당 서비스 서브넷에 연결된 VM에 네트워크 가용성이 중단될 수 있습니다.
vSphere 분산 포트 그룹 구성
VM을 서비스 서브넷에 연결하려면 새 분산 포트 그룹을 만들어야 합니다. 이 그룹은 서비스 서브넷 ID를 vCenter 프라이빗 클라우드 내 네트워크 이름에 매핑합니다.
이렇게 하려면 vCenter 인터페이스의 네트워크 구성 섹션으로 이동하여 Datacenter-dvs를 선택한 다음 New Distributed Port Group을 선택합니다.
분산 포트 그룹이 생성되면 VM 속성의 네트워크 구성에서 해당 이름을 선택하여 VM을 연결할 수 있습니다.
분산 포트 그룹의 중요한 구성 값은 다음과 같습니다.
- 포트 바인딩: 정적 바인딩
- 포트 할당: 탄력적
- 포트 수: 120
- VLAN 유형: VLAN
- VLAN ID: Google Cloud VMware Engine 인터페이스의 서브넷 섹션 내에 있는 해당 서브넷 ID
MTU 권장 설정
MTU(최대 전송 단위)는 헤더와 데이터를 포함하여 네트워크 계층 프로토콜에서 지원되는 최대 패킷 크기(바이트)를 의미합니다. 조각화 관련 문제를 방지하려면 다음 MTU 설정을 사용하는 것이 좋습니다.
표준 프라이빗 클라우드 내의 다른 엔드포인트와만 통신하는 VM의 경우 MTU를 최대 8, 800바이트까지 설정할 수 있습니다.
확장된 프라이빗 클라우드 내의 다른 엔드포인트와만 통신하는 VM의 경우 MTU를 최대 8, 600바이트까지 설정할 수 있습니다.
캡슐화 없이 프라이빗 클라우드와 통신하는 VM의 경우 표준 1,500바이트 MTU 설정을 사용합니다. 이러한 일반적인 기본 설정은 다음과 같은 방식으로 트래픽을 전송하는 VM 인터페이스에 유효합니다.
- 프라이빗 클라우드의 VM에서 다른 프라이빗 클라우드의 VM으로
- 온프레미스 엔드포인트에서 프라이빗 클라우드로
- 프라이빗 클라우드의 VM에서 온프레미스 엔드포인트로
- 인터넷에서 프라이빗 클라우드로
- 프라이빗 클라우드의 VM에서 인터넷으로
조각화에 민감한 큰 패킷 UDP 트래픽 흐름을 사용하여 인터넷과 통신하는 VM의 경우 1370바이트 이하의 MTU 설정을 사용합니다. 이 권장사항은 VMware Engine에서 제공하는 공개 연결 또는 IP 주소를 사용한 통신에 적용됩니다. MSS 클램핑은 일반적으로 TCP 기반 트래픽 흐름과 관련된 조각화 문제를 해결합니다.
캡슐화를 통해 프라이빗 클라우드와 통신하는 VM의 경우 VPN 엔드포인트 구성을 기반으로 최적의 MTU 설정을 계산합니다. 일반적으로 다음과 같은 방식으로 트래픽을 전송하는 VM 인터페이스의 MTU 설정이 1,350~1,390바이트 이하로 제한됩니다.
- 온프레미스 엔드포인트에서 캡슐화를 통해 프라이빗 클라우드로
- 프라이빗 클라우드 VM에서 캡슐화를 통해 온프레미스 엔드포인트로
- 한 프라이빗 클라우드의 VM에서 캡슐화를 통해 다른 프라이빗 클라우드의 VM으로
이러한 권장사항은 애플리케이션이 최대 페이로드 크기를 제어할 수 없는 경우에 특히 중요합니다. 캡슐화 오버헤드 계산에 대한 자세한 내용은 다음 리소스를 참조하세요.