Questa pagina mostra i limiti di prestazioni di un singolo volume Google Cloud NetApp Volumes da più macchine virtuali client. Utilizza le informazioni in questa pagina per dimensionare i tuoi carichi di lavoro.
Test delle prestazioni
I seguenti risultati del test mostrano i limiti di rendimento. In questi test, il volume ha una capacità sufficiente, quindi il throughput non influisce sui test di benchmark. L'allocazione della capacità di un singolo volume oltre i seguenti numeri di throughput non produce ulteriori miglioramenti delle prestazioni.
Tieni presente che i test delle prestazioni sono stati completati utilizzando Fio.
Per i risultati dei test delle prestazioni, tieni presente le seguenti considerazioni:
Le prestazioni dei livelli di servizio Standard, Premium ed Extreme scalano il throughput con la capacità del volume fino al raggiungimento dei limiti. Tutti i livelli di servizio Flex vengono scalati in base alle funzionalità del pool di archiviazione e tutti i volumi di un pool condividono le prestazioni del pool.
Il livello di servizio Flex Unified e Flex File con prestazioni personalizzate fornisce scalabilità indipendente di capacità, IOPS e throughput.
I risultati IOPS sono puramente informativi.
I numeri utilizzati per produrre i seguenti risultati sono configurati per mostrare il massimo dei risultati. I seguenti risultati devono essere considerati una stima dell'assegnazione della capacità di throughput massima raggiungibile.
L'utilizzo di più volumi veloci per progetto potrebbe essere soggetto a limiti per progetto.
I seguenti risultati dei test delle prestazioni riguardano solo i protocolli NFSv3, SMB e iSCSI. Altri tipi di protocollo come NFSv4.1 non sono stati utilizzati per testare le prestazioni NetApp Volumes.
Limiti di throughput del volume per l'accesso NFSv3
Le sezioni seguenti forniscono dettagli sui limiti di throughput del volume per l'accesso NFSv3.
Livello di servizio Flex File con prestazioni personalizzate
I seguenti test sono stati eseguiti con un singolo volume in un pool di archiviazione di zona con prestazioni personalizzate Flex. Il pool è stato configurato con il throughput e le IOPS massime e i risultati sono stati acquisiti.
Dimensione blocco di 64 KiB (I/O sequenziale)
Questi risultati sono stati acquisiti utilizzando Fio con le seguenti impostazioni:
Dimensione blocco di 64 KiB rispetto a un singolo volume con sei macchine virtuali
n2-standard-32Red Hat 9 OS
Set di lavoro di 96 GiB per ogni macchina virtuale con un totale combinato di 576 GiB
Opzione di montaggio
nconnectconfigurata su ogni host per un valore di 16Opzioni di montaggio
rsizeewsizeconfigurate su 65536La dimensione del volume era di 10 TiB del livello di servizio Flex con prestazioni personalizzate. Per i test, le prestazioni personalizzate sono state impostate sui valori massimi di 5120 MiBps e 160.000 IOPS.
Fio è stato eseguito con 8 job su ogni macchina virtuale per un totale di 48 job. La tabella seguente mostra che un singolo volume è in grado di gestire circa 4300 MiBps di letture sequenziali pure e 1480 MiBps di scritture sequenziali pure con una dimensione del blocco di 64 KiB su NFSv3.
Risultati del benchmark per VM NFS 64 KiB sequenziali 6 n2-standard-32 Red Hat 9
| 100% lettura e 0% scrittura | 75% lettura e 25% scrittura | 50% lettura e 50% scrittura | 25% lettura e 75% scrittura | 0% Lettura e 100% Scrittura | |
|---|---|---|---|---|---|
| MiBps di lettura | 4304 | 2963 | 1345 | 464 | 0 |
| MiBps di scrittura | 0 | 989 | 1344 | 1390 | 1476 |
Dimensione blocco di 8 KiB (I/O casuale)
Questi risultati sono stati acquisiti utilizzando Fio con le seguenti impostazioni:
Dimensione dei blocchi di 8 KiB rispetto a un singolo volume con sei macchine virtuali
n2-standard-32Red Hat 9 OS
Set di lavoro di 96 GiB per ogni macchina virtuale con un totale combinato di 576 GiB
Opzione di montaggio
nconnectconfigurata su ogni host per un valore di 16Opzioni di montaggio
rsizeewsizesu ogni host configurato su 65536La dimensione del volume era di 10 TiB del livello di servizio Flex con prestazioni personalizzate. Per i test, le prestazioni personalizzate sono state impostate sui valori massimi di 5120 MiBps e 160.000 IOPS.
Fio è stato eseguito con 8 job su ogni macchina virtuale per un totale di 48 job. La tabella seguente mostra che un singolo volume è in grado di gestire circa 126.400 IOPS di lettura casuali pure e 78.600 IOPS di scrittura casuali pure con una dimensione del blocco di 8 KiB su NFSv3.
Risultati del benchmark per NFS 8 KiB Random 6 n2-standard-32 VM Red Hat 9
| 100% lettura e 0% scrittura | 75% lettura e 25% scrittura | 50% lettura e 50% scrittura | 25% lettura e 75% scrittura | 0% Lettura e 100% Scrittura | |
|---|---|---|---|---|---|
| IOPS di lettura | 126.397 | 101.740 | 57.223 | 23.600 | 0 |
| IOPS di scrittura | 0 | 33.916 | 57.217 | 70.751 | 78.582 |
Livello di servizio estremo
I seguenti test sono stati eseguiti con un singolo volume in un pool di archiviazione Extreme e i risultati sono stati acquisiti.
Dimensione blocco di 64 KiB (I/O sequenziale)
Questi risultati sono stati acquisiti utilizzando Fio con le seguenti impostazioni:
Dimensione blocco di 64 KiB rispetto a un singolo volume con sei macchine virtuali
n2-standard-32Red Hat 9 OS
1 TiB di working set per ogni macchina virtuale con un totale combinato di 6 TiB
Opzione di montaggio
nconnectconfigurata su ogni host per un valore di 16La dimensione del volume era di 75 TiB del livello di servizio Extreme
Fio è stato eseguito con 8 job su ogni macchina virtuale per un totale di 48 job. La tabella seguente mostra che un singolo volume è in grado di gestire circa 5240 MiBps di letture sequenziali pure e circa 2180 MiBps di scritture sequenziali pure con una dimensione del blocco di 64 KiB su NFSv3.
Risultati del benchmark per VM NFS 64 KiB sequenziali 6 n2-standard-32 Red Hat 9
| 100% lettura e 0% scrittura | 75% lettura e 25% scrittura | 50% lettura e 50% scrittura | 25% lettura e 75% scrittura | 0% Lettura e 100% Scrittura | |
|---|---|---|---|---|---|
| MiBps di lettura | 5237 | 2284 | 1415 | 610 | 0 |
| MiBps di scrittura | 0 | 764 | 1416 | 1835 | 2172 |
Dimensione blocco di 256 KiB (I/O sequenziale)
Questi risultati sono stati acquisiti utilizzando Fio con le seguenti impostazioni:
Dimensione del blocco di 256 KiB rispetto a un singolo volume con sei macchine virtuali
n2-standard-32Red Hat 9 OS
1 TiB di working set per ogni macchina virtuale con un totale combinato di 6 TiB
Opzione di montaggio
nconnectconfigurata su ogni host per un valore di 16La dimensione del volume era di 75 TiB del livello di servizio Extreme
Fio è stato eseguito con 8 job su ogni macchina virtuale per un totale di 48 job. La tabella seguente mostra che un singolo volume è in grado di gestire circa 4930 MiBps di letture sequenziali pure e circa 2440 MiBps di scritture sequenziali pure con una dimensione del blocco di 256 KiB su NFSv3.
Risultati del benchmark per VM NFS 256 KiB sequenziali 6 n2-standard-32 Red Hat 9
| 100% lettura e 0% scrittura | 75% lettura e 25% scrittura | 50% lettura e 50% scrittura | 25% lettura e 75% scrittura | 0% Lettura e 100% Scrittura | |
|---|---|---|---|---|---|
| MiBps di lettura | 4928 | 2522 | 1638 | 677 | 0 |
| MiBps di scrittura | 0 | 839 | 1640 | 2036 | 2440 |
Dimensione blocco di 4 KiB (I/O casuale)
Questi risultati sono stati acquisiti utilizzando Fio con le seguenti impostazioni:
Dimensione del blocco di 4 KiB rispetto a un singolo volume con sei macchine virtuali
n2-standard-32Red Hat 9 OS
1 TiB di working set per ogni macchina virtuale con un totale combinato di 6 TiB
Opzione di montaggio
nconnectconfigurata su ogni host per un valore di 16La dimensione del volume era di 75 TiB del livello di servizio Extreme
Fio è stato eseguito con 8 job su ogni macchina virtuale per un totale di 48 job. La tabella seguente mostra che un singolo volume è in grado di gestire tra circa 380.000 IOPS di lettura casuali pure e circa 120.000 IOPS di scrittura casuali pure con una dimensione del blocco di 4 KiB su NFSv3.
Risultati del benchmark per NFS 4 KiB Random 6 n2-standard-32 VM Red Hat 9
| 100% lettura e 0% scrittura | 75% lettura e 25% scrittura | 50% lettura e 50% scrittura | 25% lettura e 75% scrittura | 0% Lettura e 100% Scrittura | |
|---|---|---|---|---|---|
| IOPS di lettura | 380.000 | 172.000 | 79.800 | 32.000 | 0 |
| IOPS di scrittura | 0 | 57.300 | 79.800 | 96.200 | 118.000 |
Dimensione blocco di 8 KiB (I/O casuale)
Questi risultati sono stati acquisiti utilizzando Fio con le seguenti impostazioni:
Dimensione dei blocchi di 8 KiB rispetto a un singolo volume con sei macchine virtuali
n2-standard-32Red Hat 9 OS
1 TiB di working set per ogni macchina virtuale con un totale combinato di 6 TiB
Opzione di montaggio
nconnectconfigurata su ogni host per un valore di 16La dimensione del volume era di 75 TiB del livello di servizio Extreme
Fio è stato eseguito con 8 job su ogni macchina virtuale per un totale di 48 job. La tabella seguente mostra che un singolo volume è in grado di gestire tra circa 270.000 IOPS di lettura casuale pura e circa 110.000 IOPS di scrittura casuale pura con una dimensione del blocco di 8 KiB su NFSv3.
Risultati del benchmark per NFS 8 KiB Random 6 n2-standard-32 VM Red Hat 9
| 100% lettura e 0% scrittura | 75% lettura e 25% scrittura | 50% lettura e 50% scrittura | 25% lettura e 75% scrittura | 0% Lettura e 100% Scrittura | |
|---|---|---|---|---|---|
| IOPS di lettura | 265.000 | 132.000 | 66.900 | 30.200 | 0 |
| IOPS di scrittura | 0 | 44.100 | 66.900 | 90.500 | 104.000 |
Limiti di throughput del volume per l'accesso SMB
Le sezioni seguenti forniscono dettagli sui limiti di throughput del volume per l'accesso SMB.
Dimensione blocco di 64 KiB (I/O sequenziale)
Questi risultati sono stati acquisiti utilizzando Fio con le seguenti impostazioni:
Dimensione blocco di 64 KiB rispetto a un singolo volume con sei macchine virtuali
n2-standard-32Sistema operativo Windows 2022
1 TiB di working set per ogni macchina virtuale con un totale combinato di 6 TiB
Opzione lato client SMB Connect Count Per RSS Network Interface configurata su ogni macchina virtuale con un valore di 16
La dimensione del volume era di 75 TiB del livello di servizio Extreme
Fio è stato eseguito con 8 job su ogni macchina virtuale per un totale di 48 job. La tabella seguente mostra che un singolo volume è in grado di gestire tra circa 5130 MiBps di letture sequenziali pure e circa 1790 MiBps di scritture sequenziali pure con una dimensione del blocco di 64 KiB su SMB.
SMB 64 KiB sequenziale 6 n2-standard-32 VM Windows 2022
| 100% lettura e 0% scrittura | 75% lettura e 25% scrittura | 50% lettura e 50% scrittura | 25% lettura e 75% scrittura | 0% Lettura e 100% Scrittura | |
|---|---|---|---|---|---|
| MiBps di lettura | 5128 | 2675 | 1455 | 559 | 0 |
| MiBps di scrittura | 0 | 892 | 1454 | 1676 | 1781 |
Dimensione blocco di 256 KiB (I/O sequenziale)
Questi risultati sono stati acquisiti utilizzando Fio con le seguenti impostazioni:
Dimensioni del blocco di 256 KiB rispetto a un singolo volume con sei macchine virtuali n2-standard-32
Sistema operativo Windows 2022
1 TiB di working set per ogni macchina virtuale con un totale combinato di 6 TiB
Opzione lato client Conteggio connessioni SMB per interfaccia di rete RSS configurata su ogni host con un valore di 16
La dimensione del volume era di 75 TiB del livello di servizio Extreme
Fio è stato eseguito con 8 job su ogni macchina virtuale per un totale di 48 job. La tabella seguente mostra che un singolo volume è in grado di gestire tra circa 4620 MiBps di letture sequenziali pure e circa 1830 MiBps di scritture sequenziali pure con una dimensione del blocco di 256 KiB su SMB.
SMB 256 KiB Sequential 6 n2-standard-32 VM Windows 2022
| 100% lettura e 0% scrittura | 75% lettura e 25% scrittura | 50% lettura e 50% scrittura | 25% lettura e 75% scrittura | 0% Lettura e 100% Scrittura | |
|---|---|---|---|---|---|
| MiBps di lettura | 4617 | 2708 | 1533 | 584 | 0 |
| MiBps di scrittura | 0 | 900 | 1534 | 1744 | 1826 |
Dimensione blocco di 4 KiB (I/O casuale)
Questi risultati sono stati acquisiti utilizzando Fio con le seguenti impostazioni:
Dimensione del blocco di 4 KiB rispetto a un singolo volume con sei macchine virtuali
n2-standard-32Sistema operativo Windows 2022
1 TiB di working set per ogni macchina virtuale per un totale combinato di 6 TiB
Opzione lato client Conteggio connessioni SMB per interfaccia di rete RSS abilitata su ogni host per un valore di 16
La dimensione del volume era di 75 TiB del livello di servizio Extreme
Fio è stato eseguito con 8 job su ogni macchina virtuale per un totale di 48 job. La tabella seguente mostra che un singolo volume è in grado di gestire tra circa 390.000 IOPS di lettura casuale pura e circa 110.000 IOPS di scrittura casuale pura con una dimensione dei blocchi di 4 KiB su SMB.
Risultati del benchmark per VM Windows 2022 SMB 4 KiB Random 6n2-standard-32
| 100% lettura e 0% scrittura | 75% lettura e 25% scrittura | 50% lettura e 50% scrittura | 25% lettura e 75% scrittura | 0% Lettura e 100% Scrittura | |
|---|---|---|---|---|---|
| IOPS di lettura | 390.900 | 164.700 | 84.200 | 32.822 | 0 |
| IOPS di scrittura | 0 | 54.848 | 84.200 | 98.500 | 109.300 |
Dimensione blocco di 8 KiB (I/O casuale)
Questi risultati sono stati acquisiti utilizzando Fio con le seguenti impostazioni:
Dimensione dei blocchi di 8 KiB rispetto a un singolo volume con sei macchine virtuali
n2-standard-32Sistema operativo Windows 2022
1 TiB di working set per ogni macchina virtuale per un totale combinato di 6 TiB
Opzione lato client Conteggio connessioni SMB per interfaccia di rete RSS configurata su ogni host per il valore 16
La dimensione del volume era di 75 TiB del livello di servizio Extreme
Fio è stato eseguito con 8 job su ogni macchina virtuale per un totale di 48 job. La tabella seguente mostra che un singolo volume è in grado di gestire tra circa 280.000 IOPS di lettura casuali pure e circa 90.000 IOPS di scrittura casuali pure con una dimensione dei blocchi di 8 KiB su SMB.
Risultati del benchmark per VM Windows 2022 SMB 8 KiB Random 6 n2-standard-32
| 100% lettura e 0% scrittura | 75% lettura e 25% scrittura | 50% lettura e 50% scrittura | 25% lettura e 75% scrittura | 0% Lettura e 100% Scrittura | |
|---|---|---|---|---|---|
| IOPS di lettura | 271.800 | 135.900 | 65.700 | 28.093 | 0 |
| IOPS di scrittura | 0 | 45.293 | 65.900 | 84.400 | 85.500 |
Limiti di throughput del volume per l'accesso iSCSI
Le sezioni seguenti descrivono i limiti di throughput del volume per l'accesso iSCSI con il livello di servizio Flex Unified.
I seguenti test sono stati eseguiti con sei volumi da 1 TiB in un pool di archiviazione regionale personalizzato Flex Unified. Il pool è stato configurato con il throughput e le IOPS massimi e i risultati sono stati acquisiti.
Dimensione blocco di 64 KiB (I/O sequenziale)
Questi risultati sono stati acquisiti utilizzando Fio con le seguenti impostazioni:
Dimensione del blocco di 64 KiB per 6 volumi con 6 macchine virtuali
n2-standard-32Red Hat Enterprise Linux (RHEL) 9 OS
Set di lavoro di 720 GiB per ogni macchina virtuale, con un totale combinato di 4320 GiB
iSCSI con il parametro
nr_sessionssu ogni host impostato su 16Ogni volume ha una dimensione di 1 TiB da un pool di archiviazione con una capacità di 10 TiB
Fio è stato eseguito con 24 job su ogni macchina virtuale con iodepth impostato su 1. La
tabella seguente mostra che un pool di archiviazione è stimato in grado di
gestire tra circa 4915 MiBps di letture sequenziali pure e circa 2375 MiBps di scritture sequenziali pure con una dimensione del blocco di 64 KiB su iSCSI.
iSCSI 64 KiB sequenziale 6 n2-standard-32 VM RHEL 9
| 100% lettura e 0% scrittura | 75% lettura e 25% scrittura | 50% lettura e 50% scrittura | 25% lettura e 75% scrittura | 0% Lettura e 100% Scrittura | |
|---|---|---|---|---|---|
| MiBps di lettura | 4915 | 3642 | 1846 | 701 | 0 |
| MiBps di scrittura | 0 | 1214 | 1844 | 2104 | 2375 |
Dimensione blocco di 256 KiB (I/O sequenziale)
Questi risultati sono stati acquisiti utilizzando Fio con le seguenti impostazioni:
Dimensione del blocco di 256 KiB per 6 volumi con 6 macchine virtuali
n2-standard-32RHEL 9 OS
Set di lavoro di 720 GiB per ogni macchina virtuale, con un totale combinato di 4320 GiB
iSCSI con il parametro
nr_sessionssu ogni host impostato su 16Ogni volume ha una dimensione di 1 TiB da un pool di archiviazione con una capacità di 10 TiB
Fio è stato eseguito con 24 job su ogni macchina virtuale con iodepth impostato su 1. La
tabella seguente mostra che un pool di archiviazione è in grado di gestire
tra circa 4954 MiBps di letture sequenziali pure e circa 2648 MiBps di scritture
sequenziali pure con una dimensione del blocco di 256 KiB su iSCSI.
VM iSCSI 256 KiB sequenziale 6 n2-standard-32 RHEL 9
| 100% lettura e 0% scrittura | 75% lettura e 25% scrittura | 50% lettura e 50% scrittura | 25% lettura e 75% scrittura | 0% Lettura e 100% Scrittura | |
|---|---|---|---|---|---|
| MiBps di lettura | 4954 | 3774 | 2387 | 859 | 0 |
| MiBps di scrittura | 0 | 1259 | 2389 | 2574 | 2648 |
Dimensione blocco di 4 KiB (I/O casuale)
Questi risultati sono stati acquisiti utilizzando Fio con le seguenti impostazioni:
Dimensione blocco di 4 KiB per 6 volumi con 6 macchine virtuali
n2-standard-32RHEL 9 OS
Set di lavoro di 720 GiB per ogni macchina virtuale, con un totale combinato di 4320 GiB
iSCSI con il parametro
nr_sessionssu ogni host impostato su 16Ogni volume ha una dimensione di 1 TiB da un pool di archiviazione con una capacità di 10 TiB
Fio è stato eseguito con 24 job su ogni macchina virtuale con iodepth impostato su 4. La
tabella seguente mostra che un pool di archiviazione è in grado di gestire
tra circa 160.000 IOPS di lettura casuale pura e circa 160.000 IOPS di scrittura casuale pura
con una dimensione del blocco di 4 KiB su iSCSI.
iSCSI 4 KiB Random 6 n2-standard-32 VM RHEL 9
| 100% lettura e 0% scrittura | 75% lettura e 25% scrittura | 50% lettura e 50% scrittura | 25% lettura e 75% scrittura | 0% Lettura e 100% Scrittura | |
|---|---|---|---|---|---|
| IOPS di lettura | 159.861 | 120.061 | 80.047 | 40.027 | 0 |
| IOPS di scrittura | 0 | 40.031 | 80.056 | 120.060 | 160.072 |
Dimensione blocco di 8 KiB (I/O casuale)
Questi risultati sono stati acquisiti utilizzando Fio con le seguenti impostazioni:
Dimensione del blocco di 8 KiB per 6 volumi con 6 macchine virtuali
n2-standard-32RHEL 9 OS
Set di lavoro di 720 GiB per ogni macchina virtuale, con un totale combinato di 4320 GiB
iSCSI con il parametro
nr_sessionssu ogni host impostato su 16Ogni volume ha una dimensione di 1 TiB da un pool di archiviazione con una capacità di 10 TiB
Fio è stato eseguito con 24 job su ogni macchina virtuale con iodepth impostato su 4. La
tabella seguente mostra che si stima che un pool di archiviazione sia in grado di
gestire tra circa 158.000 IOPS di lettura casuale pura e circa 140.400 IOPS di scrittura casuale pura
con una dimensione del blocco di 8 KiB su iSCSI.
VM iSCSI 8 KiB Random 6 n2-standard-32 RHEL 9
| 100% lettura e 0% scrittura | 75% lettura e 25% scrittura | 50% lettura e 50% scrittura | 25% lettura e 75% scrittura | 0% Lettura e 100% Scrittura | |
|---|---|---|---|---|---|
| IOPS di lettura | 157.780 | 120.028 | 80.102 | 39.866 | 0 |
| IOPS di scrittura | 0 | 40.035 | 80.070 | 119.565 | 140.366 |
Benchmark del workload di automazione della progettazione elettronica
Il supporto di volumi di grandi dimensioni di NetApp Volumes offre file system paralleli ad alte prestazioni ideali per i workload di automazione della progettazione elettronica. Questi file system forniscono fino a 1 PiB di capacità e offrono velocità di I/O e throughput elevate a bassa latenza.
I carichi di lavoro di automazione della progettazione elettronica hanno requisiti di prestazioni diversi tra le fasi di frontend e backend. La fase frontend dà la priorità ai metadati e agli IOPS, mentre la fase backend si concentra sul throughput.
Un benchmark di automazione della progettazione elettronica standard del settore con carichi di lavoro frontend e backend misti, utilizzando un volume di grandi dimensioni con più client NFSv3 distribuiti uniformemente su 6 indirizzi IP, può raggiungere un throughput fino a 21,5 GiBps e fino a 1.350.000 IOPS.