Leistungsbenchmarks

Auf dieser Seite werden die Leistungsgrenzen eines einzelnen Google Cloud NetApp Volumes-Volumes von mehreren Client-VMs aus dargestellt. Mithilfe der Informationen auf dieser Seite können Sie die Größe Ihrer Arbeitslasten festlegen.

Zufällige E/A im Vergleich zu sequenziellen E/A

Arbeitslasten, die hauptsächlich zufällige E/A-Vorgänge umfassen, können nicht den gleichen Durchsatz wie Arbeitslasten mit sequenziellen E/A-Vorgängen erzielen.

Leistungstests

Die folgenden Testergebnisse zeigen Leistungsgrenzwerte. Bei diesen Tests hat das Volume eine ausreichende Kapazität, sodass der Durchsatz die Benchmarktests nicht beeinträchtigt. Wenn Sie die Kapazität eines einzelnen Volumes über die folgenden Durchsatzwerte hinaus zuweisen, führt das nicht zu einer zusätzlichen Leistungssteigerung.

Die Leistungstests wurden mit Fio durchgeführt.

Beachten Sie bei den Ergebnissen der Leistungstests Folgendes:

  • Die Leistung der Service-Levels „Standard“, „Premium“ und „Extreme“ skaliert den Durchsatz mit der Volume-Kapazität, bis die Grenzwerte erreicht sind.

  • Mit der Flex-Dienststufe mit benutzerdefinierter Leistung können Kapazität, IOPS und Durchsatz unabhängig voneinander skaliert werden.

  • IOPS-Ergebnisse dienen nur zu Informationszwecken.

  • Die Zahlen, die für die folgenden Ergebnisse verwendet werden, sind so konfiguriert, dass sie maximale Ergebnisse zeigen. Die folgenden Ergebnisse sind Schätzungen der maximal erreichbaren Zuweisung der Durchsatzkapazität.

  • Die Verwendung mehrerer schneller Volumes pro Projekt unterliegt möglicherweise projektbezogenen Beschränkungen.

  • Die folgenden Leistungstestergebnisse beziehen sich nur auf die Protokolltypen NFSv3, SMB oder beide. Andere Protokolltypen wie NFSv4.1 wurden nicht zum Testen der Leistung von NetApp Volumes verwendet.

Volume-Durchsatzlimits für den NFSv3-Zugriff

In den folgenden Abschnitten finden Sie Details zu den Durchsatzlimits für Volumes für den NFSv3-Zugriff.

Die Tests wurden mit dem Service-Level „Flex“ mit benutzerdefinierter Leistung und dem Service-Level „Extreme“ durchgeführt. Im Folgenden sind die erfassten Ergebnisse aufgeführt.

Flex-Dienstebene mit benutzerdefinierter Leistung

Die folgenden Tests wurden mit einem einzelnen Volume in einem zonalen Speicherpool mit dem Service-Level „Flex“ und der benutzerdefinierten Leistung durchgeführt. Der Pool wurde mit dem maximalen Durchsatz und den maximalen IOPS konfiguriert und die Ergebnisse wurden erfasst.

Blockgröße von 64 KiB (sequenzielles I/O)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 64 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ n2-standard-32

  • Red Hat 9-Betriebssystem

  • 96 GiB Arbeitsset für jede virtuelle Maschine mit insgesamt 576 GiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • Die Bereitstellungsoptionen rsize und wsize sind auf 65536 konfiguriert.

  • Die Volumegröße betrug 10 TiB des Flex-Service-Levels mit benutzerdefinierter Leistung. Für die Tests wurde die benutzerdefinierte Leistung auf die Höchstwerte von 5.120 MiBps und 160.000 IOPS festgelegt.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise etwa 4.300 MiB/s für reine sequenzielle Lesevorgänge und 1.480 MiB/s für reine sequenzielle Schreibvorgänge mit einer Blockgröße von 64 KiB über NFSv3 verarbeiten kann.

Benchmark-Ergebnisse für NFS 64 KiB Sequential 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lese-MiB/s 4.304 2.963 1.345 464 0
Schreib-MiB/s 0 989 1.344 1.390 1.476

Blockgröße von 8 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • 8 KiB-Blockgröße für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Red Hat 9-Betriebssystem

  • 96 GiB Arbeitsset für jede virtuelle Maschine mit insgesamt 576 GiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • rsize- und wsize-Bereitstellungsoptionen auf jedem Host, der auf 65536 konfiguriert ist

  • Die Volumegröße betrug 10 TiB des Flex-Service-Levels mit benutzerdefinierter Leistung. Für die Tests wurde die benutzerdefinierte Leistung auf die Höchstwerte von 5.120 MiBps und 160.000 IOPS festgelegt.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise etwa 126.400 reine zufällige Lese-IOPS und 78.600 reine zufällige Schreib-IOPS mit einer Blockgröße von 8 KiB über NFSv3 verarbeiten kann.

Benchmark-Ergebnisse für NFS 8 KiB Random 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 126.397 101.740 57.223 23.600 0
IOPS für Schreibvorgänge 0 33.916 57.217 70.751 78.582

Extremes Servicelevel

Die folgenden Tests wurden mit einem einzelnen Volume in einem Extreme-Speicherpool durchgeführt und die Ergebnisse wurden erfasst.

Blockgröße von 64 KiB (sequenzielles I/O)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 64 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ n2-standard-32

  • Red Hat 9-Betriebssystem

  • 1 TiB Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume mit NFSv3 schätzungsweise zwischen 5.240 MiBps für reine sequenzielle Lesevorgänge und 2.180 MiBps für reine sequenzielle Schreibvorgänge mit einer Blockgröße von 64 KiB verarbeiten kann.

Benchmark-Ergebnisse für NFS 64 KiB Sequential 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lese-MiB/s 5.237 2.284 1.415 610 0
Schreib-MiB/s 0 764 1.416 1.835 2.172

Blockgröße von 256 KiB (sequenzielle E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 256 KiB für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Red Hat 9-Betriebssystem

  • 1 TiB Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume mit NFSv3 schätzungsweise etwa 4.930 MiBps für reine sequenzielle Lesevorgänge und etwa 2.440 MiBps für reine sequenzielle Schreibvorgänge mit einer Blockgröße von 256 KiB verarbeiten kann.

Benchmark-Ergebnisse für NFS 256 KiB Sequential 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lese-MiB/s 4.928 2.522 1.638 677 0
Schreib-MiB/s 0 839 1.640 2.036 2.440

Blockgröße von 4 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • 4 KiB-Blockgröße für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Red Hat 9-Betriebssystem

  • 1 TiB Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen 380.000 reinen zufälligen Lesevorgängen und etwa 120.000 reinen zufälligen Schreibvorgängen mit einer Blockgröße von 4 KiB über NFSv3 verarbeiten kann.

Benchmark-Ergebnisse für NFS 4 KiB Random 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 380.000 172.000 79.800 32.000 0
IOPS für Schreibvorgänge 0 57.300 79.800 96.200 118.000

Blockgröße von 8 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • 8 KiB-Blockgröße für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Red Hat 9-Betriebssystem

  • 1 TiB Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen 270.000 reinen zufälligen Lesevorgängen und 110.000 reinen zufälligen Schreibvorgängen mit einer Blockgröße von 8 KiB über NFSv3 verarbeiten kann.

Benchmark-Ergebnisse für NFS 8 KiB 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 265.000 132.000 66.900 30.200 0
IOPS für Schreibvorgänge 0 44.100 66.900 90.500 104.000

Volume-Durchsatzlimits für den SMB-Zugriff

Die folgenden Abschnitte enthalten Details zu den Durchsatzlimits für Volumes für den SMB-Zugriff.

Blockgröße von 64 KiB (sequenzielles I/O)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 64 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ n2-standard-32

  • Windows 2022

  • 1 TiB Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Die clientseitige Option „SMB Connect Count Per RSS Network Interface“ ist auf jeder VM mit dem Wert 16 konfiguriert.

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen ca. 5.130 MiB/s bei reinen sequenziellen Lesevorgängen und ca. 1.790 MiB/s bei reinen sequenziellen Schreibvorgängen mit einer Blockgröße von 64 KiB über SMB verarbeiten kann.

SMB 64 KiB sequenziell 6 n2-standard-32 Windows 2022-VMs

100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lese-MiB/s 5.128 2.675 1.455 559 0
Schreib-MiB/s 0 892 1.454 1.676 1.781

Blockgröße von 256 KiB (sequenzielle E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • 256 KiB-Blockgröße für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Windows 2022

  • 1 TiB Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Anzahl der SMB-Verbindungen pro RSS-Netzwerkschnittstelle (clientseitige Option auf jedem Host mit dem Wert 16 konfiguriert)

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen ~4.620 MiB/s bei reinen sequenziellen Lesevorgängen und ~1.830 MiB/s bei reinen sequenziellen Schreibvorgängen mit einer Blockgröße von 256 KiB über SMB verarbeiten kann.

SMB 256 KiB Sequential 6 n2-standard-32 Windows 2022-VMs

100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lese-MiB/s 4.617 2.708 1.533 584 0
Schreib-MiB/s 0 900 1.534 1.744 1.826

Blockgröße von 4 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • 4 KiB-Blockgröße für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Windows 2022

  • 1 TiB-Arbeitssatz für jede VM, insgesamt 6 TiB

  • Anzahl der SMB-Verbindungen pro RSS-Netzwerkschnittstelle (clientseitige Option auf jedem Host aktiviert) für einen Wert von 16

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen 390.000 reinen zufälligen Lesevorgängen und 110.000 reinen zufälligen Schreibvorgängen mit einer Blockgröße von 4 KiB über SMB verarbeiten kann.

Benchmark-Ergebnisse für SMB 4 KiB Random 6 n2-standard-32 Windows 2022-VMs

100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 390.900 164.700 84.200 32.822 0
IOPS für Schreibvorgänge 0 54.848 84.200 98.500 109.300

Blockgröße von 8 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • 8 KiB-Blockgröße für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Windows 2022

  • 1 TiB-Arbeitssatz für jede VM, insgesamt 6 TiB

  • Anzahl der SMB-Verbindungen pro RSS-Netzwerkschnittstelle (clientseitige Option, die auf jedem Host für den Wert 16 konfiguriert ist)

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen ca. 280.000 reinen zufälligen Lesevorgängen und ca. 90.000 reinen zufälligen Schreibvorgängen mit einer Blockgröße von 8 KiB über SMB verarbeiten kann.

Benchmark-Ergebnisse für SMB 8 KiB Random 6 n2-standard-32 Windows 2022-VMs

100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 271.800 135.900 65.700 28.093 0
IOPS für Schreibvorgänge 0 45.293 65.900 84.400 85.500

Benchmark für Electronic Design Automation-Arbeitslasten

Die Unterstützung großer Volumes in NetApp Volumes bietet leistungsstarke parallele Dateisysteme, die sich ideal für Arbeitslasten zur elektronischen Designautomatisierung eignen. Diese Dateisysteme bieten bis zu 1 PiB Kapazität und liefern hohe E/A- und Durchsatzraten bei niedriger Latenz.

Für EDA-Arbeitslasten (Electronic Design Automation) gelten unterschiedliche Leistungsanforderungen für die Frontend- und Backend-Phasen. In der Frontend-Phase werden Metadaten und IOPS priorisiert, während in der Backend-Phase der Schwerpunkt auf dem Durchsatz liegt.

Ein branchenüblicher EDA-Benchmark (Electronic Design Automation) mit gemischten Frontend- und Backend-Arbeitslasten, bei dem ein großes Volume mit mehreren NFSv3-Clients verwendet wird, die gleichmäßig auf 6 IP-Adressen verteilt sind,kann einen Durchsatz von bis zu 21,5 GiBps und bis zu 1.350.000 IOPS erreichen.

Nächste Schritte

Leistung im Blick behalten: