성능 벤치마크

이 페이지에서는 여러 클라이언트 가상 머신에서 단일 Google Cloud NetApp Volumes 볼륨의 성능 한도를 보여줍니다. 이 페이지의 정보를 사용하여 워크로드의 크기를 조정하세요.

성능 테스트

다음 테스트 결과는 성능 한도를 보여줍니다. 이러한 테스트에서 볼륨은 처리량이 벤치마크 테스트에 영향을 미치지 않도록 충분한 용량을 갖습니다. 단일 볼륨의 용량을 다음 처리량 수치를 초과하여 할당해도 성능이 추가로 향상되지는 않습니다.

성능 테스트는 Fio를 사용하여 완료되었습니다.

성능 테스트 결과와 관련하여 다음 사항을 고려하세요.

  • 표준, 프리미엄, Extreme 서비스 수준 성능은 한도에 도달할 때까지 볼륨 용량에 따라 처리량을 확장합니다. 모든 Flex 서비스 수준은 스토리지 풀의 기능에 따라 확장되며 풀의 모든 볼륨이 풀의 성능을 공유합니다.

  • 맞춤 성능이 적용된 Flex Unified 및 Flex File 서비스 수준은 용량, IOPS, 처리량을 독립적으로 확장할 수 있습니다.

  • IOPS 결과는 순전히 정보 제공용입니다.

  • 다음 결과를 생성하는 데 사용된 숫자는 최대 결과를 표시하도록 설정되어 있습니다. 다음 결과는 달성 가능한 최대 처리량 용량 할당의 추정치로 간주해야 합니다.

  • 프로젝트당 여러 개의 빠른 볼륨을 사용하는 경우 프로젝트별 한도가 적용될 수 있습니다.

  • 다음 성능 테스트 결과는 NFSv3, SMB, iSCSI 프로토콜만 다룹니다. NFSv4.1과 같은 다른 프로토콜 유형은 NetApp Volumes 성능을 테스트하는 데 사용되지 않았습니다.

NFSv3 액세스의 볼륨 처리량 한도

다음 섹션에서는 NFSv3 액세스의 볼륨 처리량 한도에 대해 자세히 설명합니다.

맞춤 성능의 Flex 파일 서비스 수준

다음 테스트는 Flex 맞춤 성능 영역 스토리지 풀의 단일 볼륨으로 실행되었습니다. 최대 처리량과 IOPS로 풀이 구성되었고 결과가 캡처되었습니다.

64KiB 블록 크기 (순차 I/O)

이러한 결과는 다음 설정으로 Fio를 사용하여 캡처되었습니다.

  • n2-standard-32 가상 머신 6개가 있는 단일 볼륨에 대한 64KiB 블록 크기

  • Red Hat 9 OS

  • 각 가상 머신의 작업 세트 96GiB(총 576GiB)

  • 각 호스트에 구성된 nconnect 마운트 옵션의 값이 16입니다.

  • 65536으로 구성된 rsizewsize 마운트 옵션

  • 볼륨 크기는 맞춤 성능이 적용된 Flex 서비스 수준의 10TiB였습니다. 테스트를 위해 맞춤 성능이 최대값인 5,120MiBps 및 160,000IOPS로 설정되었습니다.

Fio는 각 가상 머신에서 8개의 작업으로 실행되었으며 총 48개의 작업이 실행되었습니다. 다음 표에서는 단일 볼륨이 NFSv3를 통해 64KiB 블록 크기로 순수 순차 읽기 약 4,300MiBps와 순수 순차 쓰기 1,480MiBps를 처리할 수 있는 것으로 추정됨을 보여줍니다.

NFS 64KiB 순차 6 n2-standard-32 Red Hat 9 VM의 벤치마크 결과
읽기 100%, 쓰기 0% 75% 읽기 및 25% 쓰기 50% 읽음 및 50% 쓰기 읽기 25%, 쓰기 75% 0% 읽음 및 100% 쓰기
읽기 MiBps 4,304 2,963 1,345 464 0
쓰기 MiBps 0 989 1,344 1,390 1,476

8KiB 블록 크기 (무작위 I/O)

이러한 결과는 다음 설정으로 Fio를 사용하여 캡처되었습니다.

  • n2-standard-32 가상 머신 6개가 있는 단일 볼륨에 대한 8KiB 블록 크기

  • Red Hat 9 OS

  • 각 가상 머신의 작업 세트 96GiB(총 576GiB)

  • 각 호스트에 구성된 nconnect 마운트 옵션의 값이 16입니다.

  • 각 호스트의 rsizewsize 마운트 옵션이 65536으로 구성됨

  • 볼륨 크기는 맞춤 성능이 적용된 Flex 서비스 수준의 10TiB였습니다. 테스트를 위해 맞춤 성능이 최대값인 5,120MiBps 및 160,000IOPS로 설정되었습니다.

Fio는 각 가상 머신에서 8개의 작업으로 실행되었으며 총 48개의 작업이 실행되었습니다. 다음 테이블에서는 단일 볼륨이 NFSv3를 통해 8KiB 블록 크기로 약 126,400개의 순수 임의 읽기 IOPS와 78,600개의 순수 임의 쓰기 IOPS를 처리할 수 있는 것으로 추정됩니다.

NFS 8KiB Random 6 n2-standard-32 Red Hat 9 VM의 벤치마크 결과
읽기 100%, 쓰기 0% 75% 읽기 및 25% 쓰기 50% 읽음 및 50% 쓰기 읽기 25%, 쓰기 75% 0% 읽음 및 100% 쓰기
읽기 IOPS 126,397 101,740 57,223 23,600 0
쓰기 IOPS 0 33,916 57,217 70,751 78,582

익스트림 서비스 수준

다음 테스트는 Extreme 스토리지 풀의 단일 볼륨으로 실행되었으며 결과가 캡처되었습니다.

64KiB 블록 크기 (순차 I/O)

이러한 결과는 다음 설정으로 Fio를 사용하여 캡처되었습니다.

  • n2-standard-32 가상 머신 6개가 있는 단일 볼륨에 대한 64KiB 블록 크기

  • Red Hat 9 OS

  • 각 가상 머신의 작업 세트 1TiB, 총 6TiB

  • 각 호스트에 구성된 nconnect 마운트 옵션의 값이 16입니다.

  • 볼륨 크기는 익스트림 서비스 수준의 75TiB였습니다.

Fio는 각 가상 머신에서 8개의 작업으로 실행되었으며 총 48개의 작업이 실행되었습니다. 다음 표에서는 단일 볼륨이 NFSv3를 통해 64KiB 블록 크기로 순수 순차 읽기 약 5,240MiBps와 순수 순차 쓰기 약 2,180MiBps를 처리할 수 있는 것으로 추정됨을 보여줍니다.

NFS 64KiB 순차 6 n2-standard-32 Red Hat 9 VM의 벤치마크 결과
읽기 100%, 쓰기 0% 75% 읽기 및 25% 쓰기 50% 읽음 및 50% 쓰기 읽기 25%, 쓰기 75% 0% 읽음 및 100% 쓰기
읽기 MiBps 5,237 2,284 1,415 610 0
쓰기 MiBps 0 764 1,416 1,835 2,172

256KiB 블록 크기 (순차 I/O)

이러한 결과는 다음 설정으로 Fio를 사용하여 캡처되었습니다.

  • n2-standard-32 가상 머신 6개가 있는 단일 볼륨에 대한 256KiB 블록 크기

  • Red Hat 9 OS

  • 각 가상 머신의 작업 세트 1TiB, 총 6TiB

  • 각 호스트에 구성된 nconnect 마운트 옵션의 값이 16입니다.

  • 볼륨 크기는 익스트림 서비스 수준의 75TiB였습니다.

Fio는 각 가상 머신에서 8개의 작업으로 실행되었으며 총 48개의 작업이 실행되었습니다. 다음 표에서는 단일 볼륨이 NFSv3를 통해 256KiB 블록 크기로 순수 순차 읽기 약 4,930MiBps와 순수 순차 쓰기 약 2,440MiBps를 처리할 수 있는 것으로 추정됨을 보여줍니다.

NFS 256KiB 순차 6 n2-standard-32 Red Hat 9 VM의 벤치마크 결과
읽기 100%, 쓰기 0% 75% 읽기 및 25% 쓰기 50% 읽음 및 50% 쓰기 읽기 25%, 쓰기 75% 0% 읽음 및 100% 쓰기
읽기 MiBps 4,928 2,522 1,638 677 0
쓰기 MiBps 0 839 1,640 2,036 2,440

4KiB 블록 크기 (무작위 I/O)

이러한 결과는 다음 설정으로 Fio를 사용하여 캡처되었습니다.

  • n2-standard-32개의 가상 머신이 있는 단일 볼륨에 대한 4KiB 블록 크기

  • Red Hat 9 OS

  • 각 가상 머신의 작업 세트 1TiB, 총 6TiB

  • 각 호스트에 구성된 nconnect 마운트 옵션의 값이 16입니다.

  • 볼륨 크기는 익스트림 서비스 수준의 75TiB였습니다.

Fio는 각 가상 머신에서 8개의 작업으로 실행되었으며 총 48개의 작업이 실행되었습니다. 다음 표에서는 단일 볼륨이 NFSv3를 통해 4KiB 블록 크기로 순수 임의 읽기 IOPS 약 380,000개와 순수 임의 쓰기 IOPS 약 120,000개를 처리할 수 있는 것으로 추정됨을 보여줍니다.

NFS 4KiB Random 6 n2-standard-32 Red Hat 9 VM의 벤치마크 결과
읽기 100%, 쓰기 0% 75% 읽기 및 25% 쓰기 50% 읽음 및 50% 쓰기 읽기 25%, 쓰기 75% 0% 읽음 및 100% 쓰기
읽기 IOPS 380,000 172,000 79,800 32,000 0
쓰기 IOPS 0 57,300 79,800 96,200 118,000

8KiB 블록 크기 (무작위 I/O)

이러한 결과는 다음 설정으로 Fio를 사용하여 캡처되었습니다.

  • n2-standard-32 가상 머신 6개가 있는 단일 볼륨에 대한 8KiB 블록 크기

  • Red Hat 9 OS

  • 각 가상 머신의 작업 세트 1TiB, 총 6TiB

  • 각 호스트에 구성된 nconnect 마운트 옵션의 값이 16입니다.

  • 볼륨 크기는 익스트림 서비스 수준의 75TiB였습니다.

Fio는 각 가상 머신에서 8개의 작업으로 실행되었으며 총 48개의 작업이 실행되었습니다. 다음 표에서는 단일 볼륨이 NFSv3를 통해 8KiB 블록 크기로 약 270,000개의 순수 임의 읽기 IOPS와 약 110,000개의 순수 임의 쓰기 IOPS를 처리할 수 있는 것으로 추정됩니다.

NFS 8KiB Random 6 n2-standard-32 Red Hat 9 VM의 벤치마크 결과
읽기 100%, 쓰기 0% 75% 읽기 및 25% 쓰기 50% 읽음 및 50% 쓰기 읽기 25%, 쓰기 75% 0% 읽음 및 100% 쓰기
읽기 IOPS 265,000 132,000 66,900 30,200 0
쓰기 IOPS 0 44,100 66,900 90,500 104,000

SMB 액세스를 위한 볼륨 처리량 한도

다음 섹션에서는 SMB 액세스를 위한 볼륨 처리량 한도에 대해 자세히 설명합니다.

64KiB 블록 크기 (순차 I/O)

이러한 결과는 다음 설정으로 Fio를 사용하여 캡처되었습니다.

  • n2-standard-32 가상 머신 6개가 있는 단일 볼륨에 대한 64KiB 블록 크기

  • Windows 2022 OS

  • 각 가상 머신의 작업 세트 1TiB, 총 6TiB

  • 각 가상 머신에 16 값으로 구성된 RSS 네트워크 인터페이스별 SMB 연결 수 클라이언트 측 옵션

  • 볼륨 크기는 익스트림 서비스 수준의 75TiB였습니다.

Fio는 각 가상 머신에서 8개의 작업으로 실행되었으며 총 48개의 작업이 실행되었습니다. 다음 표에서는 단일 볼륨이 SMB를 통해 64KiB 블록 크기로 순수 순차 읽기 약 5,130MiBps와 순수 순차 쓰기 약 1,790MiBps를 처리할 수 있는 것으로 추정됨을 보여줍니다.

SMB 64KiB 순차 6 n2-standard-32 Windows 2022 VM

읽기 100%, 쓰기 0% 75% 읽기 및 25% 쓰기 50% 읽음 및 50% 쓰기 읽기 25%, 쓰기 75% 0% 읽음 및 100% 쓰기
읽기 MiBps 5,128 2,675 1,455 559 0
쓰기 MiBps 0 892 1,454 1,676 1,781

256KiB 블록 크기 (순차 I/O)

이러한 결과는 다음 설정으로 Fio를 사용하여 캡처되었습니다.

  • n2-standard-32 가상 머신 6개가 있는 단일 볼륨에 대한 256KiB 블록 크기

  • Windows 2022 OS

  • 각 가상 머신의 작업 세트 1TiB, 총 6TiB

  • 각 호스트에서 16 값으로 구성된 RSS 네트워크 인터페이스별 SMB 연결 수 클라이언트 측 옵션

  • 볼륨 크기는 익스트림 서비스 수준의 75TiB였습니다.

Fio는 각 가상 머신에서 8개의 작업으로 실행되었으며 총 48개의 작업이 실행되었습니다. 다음 표에서는 단일 볼륨이 SMB를 통해 256KiB 블록 크기로 순수 순차 읽기 약 4,620MiBps와 순수 순차 쓰기 약 1,830MiBps를 처리할 수 있는 것으로 추정됨을 보여줍니다.

SMB 256KiB 순차 6 n2-standard-32 Windows 2022 VM

읽기 100%, 쓰기 0% 75% 읽기 및 25% 쓰기 50% 읽음 및 50% 쓰기 읽기 25%, 쓰기 75% 0% 읽음 및 100% 쓰기
읽기 MiBps 4,617 2,708 1,533 584 0
쓰기 MiBps 0 900 1,534 1,744 1,826

4KiB 블록 크기 (무작위 I/O)

이러한 결과는 다음 설정으로 Fio를 사용하여 캡처되었습니다.

  • n2-standard-32개의 가상 머신이 있는 단일 볼륨에 대한 4KiB 블록 크기

  • Windows 2022 OS

  • 각 가상 머신의 작업 세트 1TiB, 총 6TiB

  • 각 호스트에서 SMB 연결 수(RSS 네트워크 인터페이스 클라이언트 측 옵션)가 16으로 사용 설정됨

  • 볼륨 크기는 익스트림 서비스 수준의 75TiB였습니다.

Fio는 각 가상 머신에서 8개의 작업으로 실행되었으며 총 48개의 작업이 실행되었습니다. 다음 표에서는 단일 볼륨이 SMB를 통해 4KiB 블록 크기로 약 390,000개의 순수 무작위 읽기 IOPS와 약 110,000개의 순수 무작위 쓰기 IOPS를 처리할 수 있는 것으로 추정됩니다.

SMB 4KiB Random 6 n2-standard-32 Windows 2022 VM의 벤치마크 결과

읽기 100%, 쓰기 0% 75% 읽기 및 25% 쓰기 50% 읽음 및 50% 쓰기 읽기 25%, 쓰기 75% 0% 읽음 및 100% 쓰기
읽기 IOPS 390,900 164,700 84,200 32,822 0
쓰기 IOPS 0 54,848 84,200 98,500 109,300

8KiB 블록 크기 (무작위 I/O)

이러한 결과는 다음 설정으로 Fio를 사용하여 캡처되었습니다.

  • n2-standard-32 가상 머신 6개가 있는 단일 볼륨에 대한 8KiB 블록 크기

  • Windows 2022 OS

  • 각 가상 머신의 작업 세트 1TiB, 총 6TiB

  • 각 호스트에서 16 값으로 구성된 SMB 연결 수(RSS 네트워크 인터페이스별) 클라이언트 측 옵션

  • 볼륨 크기는 익스트림 서비스 수준의 75TiB였습니다.

Fio는 각 가상 머신에서 8개의 작업으로 실행되었으며 총 48개의 작업이 실행되었습니다. 다음 표에서는 단일 볼륨이 SMB를 통해 8KiB 블록 크기로 순수 임의 읽기 IOPS 약 280,000개와 순수 임의 쓰기 IOPS 약 90,000개를 처리할 수 있는 것으로 추정됨을 보여줍니다.

SMB 8KiB Random 6 n2-standard-32 Windows 2022 VM의 벤치마크 결과

읽기 100%, 쓰기 0% 75% 읽기 및 25% 쓰기 50% 읽음 및 50% 쓰기 읽기 25%, 쓰기 75% 0% 읽음 및 100% 쓰기
읽기 IOPS 271,800 135,900 65,700 28,093 0
쓰기 IOPS 0 45,293 65,900 84,400 85,500

iSCSI 액세스의 볼륨 처리량 한도

다음 섹션에서는 Flex Unified 서비스 수준에서 iSCSI 액세스의 볼륨 처리량 한도를 설명합니다.

다음 테스트는 Flex 통합 맞춤 성능 리전 스토리지 풀에 있는 1TiB 볼륨 6개로 실행되었습니다. 최대 처리량과 IOPS로 풀을 구성하고 결과를 캡처했습니다.

64KiB 블록 크기 (순차 I/O)

이러한 결과는 다음 설정으로 Fio를 사용하여 캡처되었습니다.

  • n2-standard-32 가상 머신 6개가 있는 볼륨 6개의 블록 크기 64KiB

  • Red Hat Enterprise Linux (RHEL) 9 OS

  • 각 가상 머신의 작업 집합은 720GiB이며 총 4,320GiB입니다.

  • 각 호스트의 nr_sessions 매개변수가 16으로 설정된 iSCSI

  • 각 볼륨 크기는 10TiB 용량의 스토리지 풀에서 1TiB입니다.

Fio는 iodepth이 1로 설정된 각 가상 머신에서 24개의 작업으로 실행되었습니다. 다음 표에서는 스토리지 풀이 iSCSI를 통해 64KiB 블록 크기로 순수 순차 읽기 약 4,915MiBps와 순수 순차 쓰기 약 2,375MiBps를 처리할 수 있는 것으로 추정됨을 보여줍니다.

iSCSI 64KiB 순차 6 n2-standard-32 RHEL 9 VM

읽기 100%, 쓰기 0% 75% 읽기 및 25% 쓰기 50% 읽음 및 50% 쓰기 읽기 25%, 쓰기 75% 0% 읽음 및 100% 쓰기
읽기 MiBps 4,915 3,642 1,846 701 0
쓰기 MiBps 0 1,214 1,844 2,104 2,375

256KiB 블록 크기 (순차 I/O)

이러한 결과는 다음 설정으로 Fio를 사용하여 캡처되었습니다.

  • n2-standard-32 가상 머신 6개가 있는 볼륨 6개의 블록 크기 256KiB

  • RHEL 9 OS

  • 각 가상 머신의 작업 집합은 720GiB이며 총 4,320GiB입니다.

  • 각 호스트의 nr_sessions 매개변수가 16으로 설정된 iSCSI

  • 각 볼륨 크기는 10TiB 용량의 스토리지 풀에서 1TiB입니다.

Fio는 iodepth이 1로 설정된 각 가상 머신에서 24개의 작업으로 실행되었습니다. 다음 표에서는 스토리지 풀이 iSCSI를 통해 256KiB 블록 크기로 순수 순차 읽기 약 4,954MiBps와 순수 순차 쓰기 약 2,648MiBps를 처리할 수 있는 것으로 추정됨을 보여줍니다.

iSCSI 256KiB 순차 6 n2-standard-32 RHEL 9 VM

읽기 100%, 쓰기 0% 75% 읽기 및 25% 쓰기 50% 읽음 및 50% 쓰기 읽기 25%, 쓰기 75% 0% 읽음 및 100% 쓰기
읽기 MiBps 4,954 3,774 2,387 859 0
쓰기 MiBps 0 1,259 2,389 2,574 2,648

4KiB 블록 크기 (무작위 I/O)

이러한 결과는 다음 설정으로 Fio를 사용하여 캡처되었습니다.

  • n2-standard-32 가상 머신 6개가 있는 볼륨 6개의 4KiB 블록 크기

  • RHEL 9 OS

  • 각 가상 머신의 작업 집합은 720GiB이며 총 4,320GiB입니다.

  • 각 호스트의 nr_sessions 매개변수가 16으로 설정된 iSCSI

  • 각 볼륨 크기는 10TiB 용량의 스토리지 풀에서 1TiB입니다.

iodepth이 4로 설정된 각 가상 머신에서 24개의 작업으로 fio가 실행되었습니다. 다음 표에서는 스토리지 풀이 iSCSI를 통해 4KiB 블록 크기로 약 160,000개의 순수 임의 읽기 IOPS와 약 160,000개의 순수 임의 쓰기 IOPS를 처리할 수 있는 것으로 추정됩니다.

iSCSI 4KiB Random 6 n2-standard-32 RHEL 9 VM

읽기 100%, 쓰기 0% 75% 읽기 및 25% 쓰기 50% 읽음 및 50% 쓰기 읽기 25%, 쓰기 75% 0% 읽음 및 100% 쓰기
읽기 IOPS 159,861 120,061 80,047 40,027 0
쓰기 IOPS 0 40,031 80,056 120,060 160,072

8KiB 블록 크기 (무작위 I/O)

이러한 결과는 다음 설정으로 Fio를 사용하여 캡처되었습니다.

  • n2-standard-32 가상 머신 6개가 있는 볼륨 6개의 블록 크기 8KiB

  • RHEL 9 OS

  • 각 가상 머신의 작업 집합은 720GiB이며 총 4,320GiB입니다.

  • 각 호스트의 nr_sessions 매개변수가 16으로 설정된 iSCSI

  • 각 볼륨 크기는 10TiB 용량의 스토리지 풀에서 1TiB입니다.

iodepth이 4로 설정된 각 가상 머신에서 24개의 작업으로 fio가 실행되었습니다. 다음 표에서는 스토리지 풀이 iSCSI를 통해 8KiB 블록 크기로 약 158,000개의 순수 임의 읽기 IOPS와 약 140,400개의 순수 임의 쓰기 IOPS를 처리할 수 있는 것으로 추정됩니다.

iSCSI 8KiB Random 6 n2-standard-32 RHEL 9 VM

읽기 100%, 쓰기 0% 75% 읽기 및 25% 쓰기 50% 읽음 및 50% 쓰기 읽기 25%, 쓰기 75% 0% 읽음 및 100% 쓰기
읽기 IOPS 157,780 120,028 80,102 39,866 0
쓰기 IOPS 0 40,035 80,070 119,565 140,366

전자 설계 자동화 워크로드 벤치마크

NetApp Volumes 대용량 지원은 전자 설계 자동화 워크로드에 적합한 고성능 병렬 파일 시스템을 제공합니다. 이러한 파일 시스템은 최대 1PiB의 용량을 제공하며 지연 시간이 짧은 상태에서 높은 I/O 및 처리량 속도를 제공합니다.

전자 설계 자동화 워크로드의 경우 프런트엔드 단계와 백엔드 단계 간에 성능 요구사항이 다릅니다. 프런트엔드 단계에서는 메타데이터와 IOPS를 우선시하는 반면 백엔드 단계에서는 처리량에 중점을 둡니다.

혼합 프런트엔드 및 백엔드 워크로드가 있는 업계 표준 전자 설계 자동화 벤치마크는 6개의 IP 주소에 균등하게 분산된 여러 NFSv3 클라이언트를 사용하여 대용량으로 최대 21.5GiBps 처리량과 최대 1,350,000 IOPS를 달성할 수 있습니다.

다음 단계

실적 모니터링