Leistungsbenchmarks

Auf dieser Seite werden die Leistungsgrenzen eines einzelnen Google Cloud NetApp Volumes-Volumes von mehreren Client-VMs aus dargestellt. Mithilfe der Informationen auf dieser Seite können Sie die Größe Ihrer Arbeitslasten festlegen.

Leistungstests

Die folgenden Testergebnisse zeigen Leistungsgrenzwerte. Bei diesen Tests hat das Volume genügend Kapazität, sodass der Durchsatz die Benchmarktests nicht beeinträchtigt. Wenn Sie die Kapazität eines einzelnen Volumes über die folgenden Durchsatzwerte hinaus zuweisen, führt das nicht zu einer zusätzlichen Leistungssteigerung.

Die Leistungstests wurden mit Fio durchgeführt.

Beachten Sie bei den Ergebnissen der Leistungstests Folgendes:

  • Die Leistung der Service-Levels „Standard“, „Premium“ und „Extreme“ skaliert den Durchsatz mit der Volume-Kapazität, bis die Grenzwerte erreicht sind. Alle Flex-Service-Levels werden mit den Funktionen des Speicherpools skaliert. Alle Volumes in einem Pool teilen sich die Leistung des Pools.

  • Das Service-Level „Flex Unified“ und „Flex File“ mit benutzerdefinierter Leistung bietet eine unabhängige Skalierung von Kapazität, IOPS und Durchsatz.

  • IOPS-Ergebnisse dienen nur zu Informationszwecken.

  • Die Zahlen, die für die folgenden Ergebnisse verwendet werden, sind so konfiguriert, dass sie maximale Ergebnisse zeigen. Die folgenden Ergebnisse sind eine Schätzung der maximal erreichbaren Zuweisung der Durchsatzkapazität.

  • Die Verwendung mehrerer schneller Volumes pro Projekt unterliegt möglicherweise projektbezogenen Beschränkungen.

  • Die folgenden Leistungstestergebnisse beziehen sich nur auf die Protokolle NFSv3, SMB und iSCSI. Andere Protokolltypen wie NFSv4.1 wurden nicht zum Testen der Leistung von NetApp Volumes verwendet.

Volume-Durchsatzlimits für den NFSv3-Zugriff

In den folgenden Abschnitten finden Sie Details zu den Durchsatzlimits für Volumes für den NFSv3-Zugriff.

Flex-Dateidienstebene mit benutzerdefinierter Leistung

Die folgenden Tests wurden mit einem einzelnen Volume in einem zonalen Speicherpool mit dem Service-Level „Flex“ und der benutzerdefinierten Leistungsklasse durchgeführt. Der Pool wurde mit dem maximalen Durchsatz und den maximalen IOPS konfiguriert und die Ergebnisse wurden erfasst.

Blockgröße von 64 KiB (sequenzielles I/O)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 64 KiB für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Red Hat 9-Betriebssystem

  • 96 GiB Arbeitsgruppe für jede virtuelle Maschine mit insgesamt 576 GiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • Die Bereitstellungsoptionen rsize und wsize sind auf 65536 konfiguriert.

  • Die Volumegröße betrug 10 TiB des Flex-Service-Levels mit benutzerdefinierter Leistung. Für die Tests wurde die benutzerdefinierte Leistung auf die Höchstwerte von 5.120 MiBps und 160.000 IOPS festgelegt.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise etwa 4.300 MiBps für reine sequenzielle Lesevorgänge und 1.480 MiBps für reine sequenzielle Schreibvorgänge mit einer Blockgröße von 64 KiB über NFSv3 verarbeiten kann.

Benchmark-Ergebnisse für NFS 64 KiB Sequential 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lesen (MiB/s) 4.304 2.963 1.345 464 0
Schreiben (MiB/s) 0 989 1.344 1.390 1.476

Blockgröße von 8 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 8 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ n2-standard-32

  • Red Hat 9-Betriebssystem

  • 96 GiB Arbeitsgruppe für jede virtuelle Maschine mit insgesamt 576 GiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • Die Bereitstellungsoptionen rsize und wsize sind auf jedem Host auf 65536 konfiguriert.

  • Die Volumegröße betrug 10 TiB des Flex-Service-Levels mit benutzerdefinierter Leistung. Für die Tests wurde die benutzerdefinierte Leistung auf die Höchstwerte von 5.120 MiBps und 160.000 IOPS festgelegt.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt,dass ein einzelnes Volume schätzungsweise in der Lage ist,über NFSv3 etwa 126.400 reine zufällige Lese-IOPS und 78.600 reine zufällige Schreib-IOPS mit einer Blockgröße von 8 KiB zu verarbeiten.

Benchmark-Ergebnisse für NFS 8 KiB Random 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 126.397 101.740 57.223 23.600 0
IOPS für Schreibvorgänge 0 33.916 57.217 70.751 78.582

Extremes Servicelevel

Die folgenden Tests wurden mit einem einzelnen Volume in einem Speicherpool mit dem Service-Level „Extrem“ durchgeführt und die Ergebnisse wurden erfasst.

Blockgröße von 64 KiB (sequenzielles I/O)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 64 KiB für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Red Hat 9-Betriebssystem

  • 1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume mit NFSv3 schätzungsweise zwischen 5.240 MiBps für reine sequenzielle Lesevorgänge und 2.180 MiBps für reine sequenzielle Schreibvorgänge mit einer Blockgröße von 64 KiB verarbeiten kann.

Benchmark-Ergebnisse für NFS 64 KiB Sequential 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lesen (MiB/s) 5.237 2.284 1.415 610 0
Schreiben (MiB/s) 0 764 1.416 1.835 2.172

Blockgröße von 256 KiB (sequenzielle E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 256 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ n2-standard-32

  • Red Hat 9-Betriebssystem

  • 1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume mit NFSv3 schätzungsweise etwa 4.930 MiBps für reine sequenzielle Lesevorgänge und etwa 2.440 MiBps für reine sequenzielle Schreibvorgänge mit einer Blockgröße von 256 KiB verarbeiten kann.

Benchmark-Ergebnisse für NFS 256 KiB Sequential 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lesen (MiB/s) 4.928 2.522 1.638 677 0
Schreiben (MiB/s) 0 839 1.640 2.036 2.440

Blockgröße von 4 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • 4 KiB-Blockgröße für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Red Hat 9-Betriebssystem

  • 1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen 380.000 IOPS für reine zufällige Lesevorgänge und etwa 120.000 IOPS für reine zufällige Schreibvorgänge mit einer Blockgröße von 4 KiB über NFSv3 verarbeiten kann.

Benchmark-Ergebnisse für NFS 4 KiB Random 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 380.000 172.000 79.800 32.000 0
IOPS für Schreibvorgänge 0 57.300 79.800 96.200 118.000

Blockgröße von 8 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 8 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ n2-standard-32

  • Red Hat 9-Betriebssystem

  • 1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen ca. 270.000 reinen zufälligen Lese-IOPS und ca. 110.000 reinen zufälligen Schreib-IOPS mit einer Blockgröße von 8 KiB über NFSv3 verarbeiten kann.

Benchmark-Ergebnisse für NFS 8 KiB Random 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 265.000 132.000 66.900 30.200 0
IOPS für Schreibvorgänge 0 44.100 66.900 90.500 104.000

Volume-Durchsatzlimits für den SMB-Zugriff

Die folgenden Abschnitte enthalten Details zu den Durchsatzlimits für Volumes für den SMB-Zugriff.

Blockgröße von 64 KiB (sequenzielles I/O)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 64 KiB für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Windows 2022

  • 1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Die clientseitige Option „SMB Connect Count Per RSS Network Interface“ ist auf jeder virtuellen Maschine mit dem Wert 16 konfiguriert.

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen ca. 5.130 MiB/s bei reinen sequenziellen Lesevorgängen und ca. 1.790 MiB/s bei reinen sequenziellen Schreibvorgängen mit einer Blockgröße von 64 KiB über SMB verarbeiten kann.

SMB 64 KiB sequenziell 6 n2-standard-32 Windows 2022-VMs

100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lesen (MiB/s) 5.128 2.675 1.455 559 0
Schreiben (MiB/s) 0 892 1.454 1.676 1.781

Blockgröße von 256 KiB (sequenzielle E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • 256 KiB-Blockgröße für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Windows 2022

  • 1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Anzahl der SMB-Verbindungen pro RSS-Netzwerkschnittstelle (clientseitige Option) auf jedem Host auf den Wert 16 konfiguriert

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt,dass ein einzelnes Volume schätzungsweise in der Lage ist,über SMB zwischen etwa 4.620 MiB/s reiner sequenzieller Lesevorgänge und etwa 1.830 MiB/s reiner sequenzieller Schreibvorgänge mit einer Blockgröße von 256 KiB zu verarbeiten.

SMB 256 KiB sequenziell 6 n2-standard-32 Windows 2022-VMs

100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lesen (MiB/s) 4.617 2.708 1.533 584 0
Schreiben (MiB/s) 0 900 1.534 1.744 1.826

Blockgröße von 4 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • 4 KiB-Blockgröße für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Windows 2022

  • 1 TiB Arbeitsgruppe für jede VM, insgesamt 6 TiB

  • Anzahl der SMB-Verbindungen pro RSS-Netzwerkschnittstelle (clientseitige Option auf jedem Host aktiviert) für einen Wert von 16

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume über SMB schätzungsweise zwischen ca. 390.000 reinen zufälligen Lese-IOPS und ca. 110.000 reinen zufälligen Schreib-IOPS mit einer Blockgröße von 4 KiB verarbeiten kann.

Benchmark-Ergebnisse für SMB 4 KiB Random 6 n2-standard-32 Windows 2022-VMs

100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 390.900 164.700 84.200 32.822 0
IOPS für Schreibvorgänge 0 54.848 84.200 98.500 109.300

Blockgröße von 8 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 8 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ n2-standard-32

  • Windows 2022

  • 1 TiB Arbeitsgruppe für jede VM, insgesamt 6 TiB

  • Anzahl der SMB-Verbindungen pro RSS-Netzwerkschnittstelle (clientseitige Option auf jedem Host auf den Wert 16 konfiguriert)

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen etwa 280.000 reinen zufälligen Lese-IOPS und etwa 90.000 reinen zufälligen Schreib-IOPS mit einer Blockgröße von 8 KiB über SMB verarbeiten kann.

Benchmark-Ergebnisse für SMB 8 KiB Random 6 n2-standard-32 Windows 2022-VMs

100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 271.800 135.900 65.700 28.093 0
IOPS für Schreibvorgänge 0 45.293 65.900 84.400 85.500

Limits für den Volume-Durchsatz für den iSCSI-Zugriff

In den folgenden Abschnitten werden die Limits für den Volumedurchsatz für den iSCSI-Zugriff mit der Flex Unified-Dienstebene beschrieben.

Die folgenden Tests wurden mit sechs 1-TiB-Volumes in einem regionalen Speicherpool mit dem Service-Level „Flex“ und dem Speicherpooltyp „Einheitlich“ durchgeführt. Der Pool wurde mit dem maximalen Durchsatz und den maximalen IOPS konfiguriert und die Ergebnisse wurden erfasst.

Blockgröße von 64 KiB (sequenzielles I/O)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • 64 KiB-Blockgröße für 6 Volumes mit 6 n2-standard-32-VMs

  • Red Hat Enterprise Linux (RHEL) 9 OS

  • 720 GiB Arbeitsset für jede virtuelle Maschine mit einem kombinierten Gesamtwert von 4.320 GiB

  • iSCSI mit dem Parameter nr_sessions, der auf jedem Host auf 16 festgelegt ist

  • Jede Volumegröße beträgt 1 TiB aus einem Speicherpool mit einer Kapazität von 10 TiB.

Fio wurde mit 24 Jobs auf jeder virtuellen Maschine mit iodepth auf 1 gesetzt ausgeführt. Die folgende Tabelle zeigt,dass ein Speicherpool schätzungsweise in der Lage ist,über iSCSI zwischen etwa 4.915 MiBps reiner sequenzieller Lesevorgänge und etwa 2.375 MiBps reiner sequenzieller Schreibvorgänge mit einer Blockgröße von 64 KiB zu verarbeiten.

iSCSI 64 KiB sequenziell 6 n2-standard-32 RHEL 9-VMs

100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lesen (MiB/s) 4.915 3.642 1.846 701 0
Schreiben (MiB/s) 0 1.214 1.844 2.104 2.375

Blockgröße von 256 KiB (sequenzielle E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • 256 KiB-Blockgröße für 6 Volumes mit 6 n2-standard-32-VMs

  • RHEL 9-Betriebssystem

  • 720 GiB Arbeitsgruppe für jede virtuelle Maschine mit insgesamt 4.320 GiB

  • iSCSI mit dem Parameter nr_sessions, der auf jedem Host auf 16 festgelegt ist

  • Jede Volumegröße beträgt 1 TiB aus einem Speicherpool mit einer Kapazität von 10 TiB.

Fio wurde mit 24 Jobs auf jeder virtuellen Maschine mit iodepth auf 1 gesetzt ausgeführt. Die folgende Tabelle zeigt,dass ein Speicherpool schätzungsweise in der Lage ist,über iSCSI zwischen etwa 4.954 MiBps reiner sequenzieller Lesevorgänge und etwa 2.648 MiBps reiner sequenzieller Schreibvorgänge mit einer Blockgröße von 256 KiB zu verarbeiten.

iSCSI 256 KiB sequenziell 6 n2-standard-32 RHEL 9-VMs

100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lesen (MiB/s) 4.954 3.774 2.387 859 0
Schreiben (MiB/s) 0 1.259 2.389 2.574 2.648

Blockgröße von 4 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • 4 KiB-Blockgröße für 6 Volumes mit 6 n2-standard-32-VMs

  • RHEL 9-Betriebssystem

  • 720 GiB Arbeitsgruppe für jede virtuelle Maschine mit insgesamt 4.320 GiB

  • iSCSI mit dem Parameter nr_sessions, der auf jedem Host auf 16 festgelegt ist

  • Jede Volumegröße beträgt 1 TiB aus einem Speicherpool mit einer Kapazität von 10 TiB.

Fio wurde mit 24 Jobs auf jeder virtuellen Maschine ausgeführt, wobei iodepth auf 4 festgelegt war. Die folgende Tabelle zeigt, dass ein Speicherpool schätzungsweise zwischen ca. 160.000 reinen zufälligen Lese-IOPS und ca. 160.000 reinen zufälligen Schreib-IOPS mit einer Blockgröße von 4 KiB über iSCSI verarbeiten kann.

iSCSI 4 KiB Random 6 n2-standard-32 RHEL 9-VMs

100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 159.861 120.061 80.047 40.027 0
IOPS für Schreibvorgänge 0 40.031 80.056 120.060 160.072

Blockgröße von 8 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • 8 KiB-Blockgröße für 6 Volumes mit 6 n2-standard-32-VMs

  • RHEL 9-Betriebssystem

  • 720 GiB Arbeitsgruppe für jede virtuelle Maschine mit insgesamt 4.320 GiB

  • iSCSI mit dem Parameter nr_sessions, der auf jedem Host auf 16 festgelegt ist

  • Jede Volumegröße beträgt 1 TiB aus einem Speicherpool mit einer Kapazität von 10 TiB.

Fio wurde mit 24 Jobs auf jeder virtuellen Maschine ausgeführt, wobei iodepth auf 4 festgelegt war. Die folgende Tabelle zeigt, dass ein Speicherpool schätzungsweise zwischen ca. 158.000 reinen zufälligen Lese-IOPS und ca. 140.400 reinen zufälligen Schreib-IOPS mit einer Blockgröße von 8 KiB über iSCSI verarbeiten kann.

iSCSI 8 KiB Random 6 n2-standard-32 RHEL 9-VMs

100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 157.780 120.028 80.102 39.866 0
IOPS für Schreibvorgänge 0 40.035 80.070 119.565 140.366

Benchmark für Arbeitslasten für Electronic Design Automation

Die Unterstützung großer Volumes in NetApp Volumes bietet leistungsstarke parallele Dateisysteme, die sich ideal für Arbeitslasten zur elektronischen Designautomatisierung eignen. Diese Dateisysteme bieten bis zu 1 PiB Kapazität und liefern hohe I/O- und Durchsatzraten bei niedriger Latenz.

Für EDA-Arbeitslasten (Electronic Design Automation) gelten unterschiedliche Leistungsanforderungen für die Frontend- und Backend-Phasen. In der Frontend-Phase werden Metadaten und IOPS priorisiert, während in der Backend-Phase der Schwerpunkt auf dem Durchsatz liegt.

Ein branchenüblicher EDA-Benchmark (Electronic Design Automation) mit gemischten Frontend- und Backend-Arbeitslasten, bei dem ein großes Volume mit mehreren NFSv3-Clients verwendet wird, die gleichmäßig auf 6 IP-Adressen verteilt sind,kann einen Durchsatz von bis zu 21,5 GiBps und bis zu 1.350.000 IOPS erreichen.

Nächste Schritte

Leistung im Blick behalten: