このページでは、複数のクライアント仮想マシンからの単一の Google Cloud NetApp Volumes ボリュームのパフォーマンスの上限について説明します。このページの情報を使用して、ワークロードのサイズを設定します。
パフォーマンス テスト
次のテスト結果は、パフォーマンスの上限を示しています。これらのテストでは、スループットがベンチマーク テストに影響しないように、ボリュームに十分な容量があります。単一ボリュームの容量を次のスループット値を超えて割り当てても、パフォーマンスは向上しません。
パフォーマンス テストは Fio を使用して完了しました。
パフォーマンス テストの結果については、次の点を考慮してください。
Standard、Premium、Extreme の各サービスレベルのパフォーマンスは、上限に達するまでボリューム容量に比例してスループットをスケーリングします。すべての Flex サービスレベルはストレージ プールの機能に合わせてスケーリングされ、プール内のすべてのボリュームがプールのパフォーマンスを共有します。
カスタム パフォーマンスの Flex Unified サービスレベルと Flex File サービスレベルでは、容量、IOPS、スループットを個別にスケーリングできます。
IOPS の結果はあくまで情報提供を目的としたものです。
次の結果を生成するために使用される数値は、最大の結果を表示するように設定されています。次の結果は、達成可能な最大スループット容量の割り当ての見積もりと見なす必要があります。
プロジェクトごとに複数の高速ボリュームを使用する場合は、プロジェクトごとの上限が適用されることがあります。
次のパフォーマンス テストの結果は、NFSv3、SMB、またはその両方のプロトコル タイプのみを対象としています。NFSv4.1 などの他のプロトコル タイプは、NetApp Volumes のパフォーマンスのテストには使用されませんでした。
NFSv3 アクセスのボリューム スループットの上限
以降のセクションでは、NFSv3 アクセスのボリューム スループットの上限について詳しく説明します。
カスタム パフォーマンスの Flex File サービスレベル
次のテストは、Flex カスタム パフォーマンスのゾーン ストレージ プール内の単一ボリュームで実行されました。プールは最大スループットと IOPS で構成され、結果がキャプチャされました。
64 KiB ブロックサイズ(順次 I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 つの
n2-standard-32仮想マシンを含む単一ボリュームに対する 64 KiB のブロックサイズRed Hat 9 OS
各仮想マシンのワーキング セットは 96 GiB で、合計 576 GiB
各ホストで
nconnectマウント オプションが 16 の値に構成されているrsizeとwsizeのマウント オプションが 65536 に設定されているボリューム サイズは、カスタム パフォーマンスのフレキシブル サービスレベルの 10 TiB でした。テストでは、カスタム パフォーマンスは最大値の 5,120 MiBps と 160,000 IOPS に設定されました。
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、NFSv3 で 64 KiB のブロックサイズを使用した場合、1 つのボリュームで約 4,300 MiBps の純粋なシーケンシャル読み取りと 1,480 MiBps の純粋なシーケンシャル書き込みを処理できることを示しています。
NFS 64 KiB 順次 6 n2-standard-32 Red Hat 9 VM のベンチマーク結果
| 読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 0% 読み取り、100% 書き込み | |
|---|---|---|---|---|---|
| 読み取り MiBps | 4,304 | 2,963 | 1,345 | 464 | 0 |
| 書き込み MiBps | 0 | 989 | 1,344 | 1,390 | 1,476 |
8 KiB ブロックサイズ(ランダム I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 台の
n2-standard-32仮想マシンを含む単一ボリュームに対する 8 KiB のブロックサイズRed Hat 9 OS
各仮想マシンのワーキング セットは 96 GiB で、合計 576 GiB
各ホストで
nconnectマウント オプションが 16 の値に構成されている各ホストの
rsizeとwsizeのマウント オプションが 65536 に構成されているボリューム サイズは、カスタム パフォーマンスのフレキシブル サービスレベルの 10 TiB でした。テストでは、カスタム パフォーマンスは最大値の 5,120 MiBps と 160,000 IOPS に設定されました。
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一ボリュームが NFSv3 経由で 8 KiB のブロックサイズで約 126,400 の純粋なランダム読み取り IOPS と 78,600 の純粋なランダム書き込み IOPS を処理できると推定されることを示しています。
NFS 8 KiB ランダム 6 n2-standard-32 Red Hat 9 VM のベンチマーク結果
| 読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 0% 読み取り、100% 書き込み | |
|---|---|---|---|---|---|
| 読み取り IOPS | 126,397 | 101,740 | 57,223 | 23,600 | 0 |
| 書き込み IOPS | 0 | 33,916 | 57,217 | 70,751 | 78,582 |
Extreme サービスレベル
次のテストは、Extreme ストレージ プール内の単一ボリュームで実行され、結果がキャプチャされました。
64 KiB ブロックサイズ(順次 I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 つの
n2-standard-32仮想マシンを含む単一ボリュームに対する 64 KiB のブロックサイズRed Hat 9 OS
各仮想マシンのワーキング セットは 1 TiB で、合計 6 TiB
各ホストで
nconnectマウント オプションが 16 の値に構成されているボリューム サイズは Extreme サービスレベルの 75 TiB でした
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、NFSv3 で 64 KiB のブロックサイズを使用した場合、1 つのボリュームで約 5,240 MiBps の純粋なシーケンシャル読み取りと約 2,180 MiBps の純粋なシーケンシャル書き込みを処理できることを示しています。
NFS 64 KiB 順次 6 n2-standard-32 Red Hat 9 VM のベンチマーク結果
| 読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 0% 読み取り、100% 書き込み | |
|---|---|---|---|---|---|
| 読み取り MiBps | 5,237 | 2,284 | 1,415 | 610 | 0 |
| 書き込み MiBps | 0 | 764 | 1,416 | 1,835 | 2,172 |
256 KiB ブロックサイズ(順次 I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 台の
n2-standard-32仮想マシンを含む単一ボリュームに対する 256 KiB のブロックサイズRed Hat 9 OS
各仮想マシンのワーキング セットは 1 TiB で、合計 6 TiB
各ホストで
nconnectマウント オプションが 16 の値に構成されているボリューム サイズは Extreme サービスレベルの 75 TiB でした
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、NFSv3 で 256 KiB のブロックサイズを使用した場合、1 つのボリュームで約 4,930 MiBps の純粋なシーケンシャル読み取りと約 2,440 MiBps の純粋なシーケンシャル書き込みを処理できることを示しています。
NFS 256 KiB 順次 6 n2-standard-32 Red Hat 9 VM のベンチマーク結果
| 読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 0% 読み取り、100% 書き込み | |
|---|---|---|---|---|---|
| 読み取り MiBps | 4,928 | 2,522 | 1,638 | 677 | 0 |
| 書き込み MiBps | 0 | 839 | 1,640 | 2,036 | 2,440 |
4 KiB ブロックサイズ(ランダム I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 台の
n2-standard-32仮想マシンを含む単一ボリュームに対する 4 KiB ブロックサイズRed Hat 9 OS
各仮想マシンのワーキング セットは 1 TiB で、合計 6 TiB
各ホストで
nconnectマウント オプションが 16 の値に構成されているボリューム サイズは Extreme サービスレベルの 75 TiB でした
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一のボリュームが NFSv3 経由で 4 KiB のブロックサイズで約 380,000 回の純粋なランダム読み取りと約 120,000 回の純粋なランダム書き込みを処理できることを示しています。
NFS 4 KiB ランダム 6 n2-standard-32 Red Hat 9 VM のベンチマーク結果
| 読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 0% 読み取り、100% 書き込み | |
|---|---|---|---|---|---|
| 読み取り IOPS | 380,000 | 172,000 | 79,800 | 32,000 | 0 |
| 書き込み IOPS | 0 | 57,300 | 79,800 | 96,200 | 118,000 |
8 KiB ブロックサイズ(ランダム I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 台の
n2-standard-32仮想マシンを含む単一ボリュームに対する 8 KiB のブロックサイズRed Hat 9 OS
各仮想マシンのワーキング セットは 1 TiB で、合計 6 TiB
各ホストで
nconnectマウント オプションが 16 の値に構成されているボリューム サイズは Extreme サービスレベルの 75 TiB でした
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、NFSv3 で 8 KiB のブロックサイズを使用した場合、1 つのボリュームで約 270,000 回の純粋なランダム読み取りと約 110,000 回の純粋なランダム書き込みを処理できることを示しています。
NFS 8 KiB 6 n2-standard-32 Red Hat 9 VM のベンチマーク結果
| 読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 0% 読み取り、100% 書き込み | |
|---|---|---|---|---|---|
| 読み取り IOPS | 265,000 | 132,000 | 66,900 | 30,200 | 0 |
| 書き込み IOPS | 0 | 44,100 | 66,900 | 90,500 | 104,000 |
SMB アクセスのボリューム スループットの上限
以降のセクションでは、SMB アクセスのボリューム スループットの上限について詳しく説明します。
64 KiB ブロックサイズ(順次 I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 つの
n2-standard-32仮想マシンを含む単一ボリュームに対する 64 KiB のブロックサイズWindows 2022 OS
各仮想マシンのワーキング セットは 1 TiB で、合計 6 TiB
各仮想マシンで 16 の値に構成された SMB Connect Count Per RSS Network Interface クライアントサイド オプション
ボリューム サイズは Extreme サービスレベルの 75 TiB でした
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一のボリュームが SMB 経由で 64 KiB のブロックサイズで約 5,130 MiBps の純粋なシーケンシャル読み取りと約 1,790 MiBps の純粋なシーケンシャル書き込みを処理できると推定されることを示しています。
SMB 64 KiB 順次 6 n2-standard-32 Windows 2022 VM
| 読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 0% 読み取り、100% 書き込み | |
|---|---|---|---|---|---|
| 読み取り MiBps | 5,128 | 2,675 | 1,455 | 559 | 0 |
| 書き込み MiBps | 0 | 892 | 1,454 | 1,676 | 1,781 |
256 KiB ブロックサイズ(順次 I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 台の n2-standard-32 仮想マシンを含む単一ボリュームに対する 256 KiB のブロックサイズ
Windows 2022 OS
各仮想マシンのワーキング セットは 1 TiB で、合計 6 TiB
各ホストで 16 に設定された SMB 接続数(RSS ネットワーク インターフェースあたり)クライアントサイド オプション
ボリューム サイズは Extreme サービスレベルの 75 TiB でした
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一ボリュームで SMB 経由の 256 KiB ブロックサイズで約 4,620 MiBps の純粋なシーケンシャル読み取りと約 1,830 MiBps の純粋なシーケンシャル書き込みを処理できると推定されることを示しています。
SMB 256 KiB 順次 6 n2-standard-32 Windows 2022 VM
| 読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 0% 読み取り、100% 書き込み | |
|---|---|---|---|---|---|
| 読み取り MiBps | 4,617 | 2,708 | 1,533 | 584 | 0 |
| 書き込み MiBps | 0 | 900 | 1,534 | 1,744 | 1,826 |
4 KiB ブロックサイズ(ランダム I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 台の
n2-standard-32仮想マシンを含む単一ボリュームに対する 4 KiB ブロックサイズWindows 2022 OS
各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)
各ホストで有効になっている SMB 接続数(RSS ネットワーク インターフェースあたり)クライアントサイド オプションの値が 16
ボリューム サイズは Extreme サービスレベルの 75 TiB でした
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一のボリュームで、SMB 経由で 4 KiB のブロックサイズで約 390,000 の純粋なランダム読み取りと約 110,000 の純粋なランダム書き込みを処理できることを示しています。
SMB 4 KiB ランダム 6 n2-standard-32 Windows 2022 VM のベンチマーク結果
| 読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 0% 読み取り、100% 書き込み | |
|---|---|---|---|---|---|
| 読み取り IOPS | 390,900 | 164,700 | 84,200 | 32,822 | 0 |
| 書き込み IOPS | 0 | 54,848 | 84,200 | 98,500 | 109,300 |
8 KiB ブロックサイズ(ランダム I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 台の
n2-standard-32仮想マシンを含む単一ボリュームに対する 8 KiB のブロックサイズWindows 2022 OS
各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)
各ホストで SMB Connection Count Per RSS Network Interface クライアントサイド オプションが 16 の値に構成されている
ボリューム サイズは Extreme サービスレベルの 75 TiB でした
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一のボリュームで SMB 経由で 8 KiB のブロックサイズで約 280,000 回の純粋なランダム読み取りと約 90,000 回の純粋なランダム書き込みを処理できることを示しています。
SMB 8 KiB ランダム 6 n2-standard-32 Windows 2022 VM のベンチマーク結果
| 読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 0% 読み取り、100% 書き込み | |
|---|---|---|---|---|---|
| 読み取り IOPS | 271,800 | 135,900 | 65,700 | 28,093 | 0 |
| 書き込み IOPS | 0 | 45,293 | 65,900 | 84,400 | 85,500 |
電子設計自動化ワークロードのベンチマーク
NetApp Volumes の大容量ボリューム サポートは、電子設計自動化ワークロードに最適な高パフォーマンスの並列ファイル システムを提供します。これらのファイル システムは、最大 1 PiB の容量を提供し、低レイテンシで高い I/O とスループット率を実現します。
電子設計自動化ワークロードでは、フロントエンド フェーズとバックエンド フェーズでパフォーマンス要件が異なります。フロントエンド フェーズではメタデータと IOPS が優先され、バックエンド フェーズではスループットが重視されます。
フロントエンドとバックエンドのワークロードが混在する業界標準の電子設計自動化ベンチマークで、6 つの IP アドレスに均等に分散された複数の NFSv3 クライアントを使用して大容量のデータを処理する場合、最大 21.5 GiBps のスループットと最大 1,350,000 IOPS を実現できます。