ISCSI-Durchsatz auf NetApp lahm
Moin,
wir haben folgendes neu angeschafft:
Die beiden Server sind HyperV-Server mit Server 2022, auf der NetApp läuft ONTAP 9.14.1P9, zustätzlich sind über ein Shelf weitere 24 SSDs angebunden.
Ich habe Multipath konfiguriert, die Verbindung an sich steht. Kopiere ich jetzt testweise eine 6GB-ISO vom Server auf die NetApp, bekomme ich bei einer 10Gbit-Anbindung einen maximalen Durchsatz von 600MB/s. Testweise habe ich eine alte Primergy (Server 2019) an die NetApp angebunden, auch hier der magere Durchsatz. Kopiere ich von hier auf unsere alte Eternus, auf der auch die HyperV-VMs laufen, habe ich einen Durchsatz von bis zu 1,8GB/s.
Die Netzwerkkarten sind jeweils, auch im Testfall mit der alten Primergy, Intel X710-DA4.
Testweise habe ich Flow Control deaktiviert, bringt nichts. Jumbo Packets sind konfiguriert, die richtige Paketgröße ist an jedem Endpunkt eingestellt.
Ideen? Braucht Ihr weitere Infos?
Gruß
EDIT: Alt-Server-Anbindung war falsch beschrieben.
wir haben folgendes neu angeschafft:
- 2x Fujitsu Primergy RX2540M7
- NetApp AFF A150
Die beiden Server sind HyperV-Server mit Server 2022, auf der NetApp läuft ONTAP 9.14.1P9, zustätzlich sind über ein Shelf weitere 24 SSDs angebunden.
Ich habe Multipath konfiguriert, die Verbindung an sich steht. Kopiere ich jetzt testweise eine 6GB-ISO vom Server auf die NetApp, bekomme ich bei einer 10Gbit-Anbindung einen maximalen Durchsatz von 600MB/s. Testweise habe ich eine alte Primergy (Server 2019) an die NetApp angebunden, auch hier der magere Durchsatz. Kopiere ich von hier auf unsere alte Eternus, auf der auch die HyperV-VMs laufen, habe ich einen Durchsatz von bis zu 1,8GB/s.
Die Netzwerkkarten sind jeweils, auch im Testfall mit der alten Primergy, Intel X710-DA4.
Testweise habe ich Flow Control deaktiviert, bringt nichts. Jumbo Packets sind konfiguriert, die richtige Paketgröße ist an jedem Endpunkt eingestellt.
Ideen? Braucht Ihr weitere Infos?
Gruß
EDIT: Alt-Server-Anbindung war falsch beschrieben.
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 670838
Url: https://administrator.de/forum/iscsi-durchsatz-auf-netapp-lahm-670838.html
Ausgedruckt am: 21.01.2025 um 13:01 Uhr
8 Kommentare
Neuester Kommentar
Moin,
bei 1x 10GBit/s nen Durchsatz von 1,8 GByte/s zu bekommen ist mathematisch "fragwürdig" ;)
Ihr nutzt das SMB der NetApp?
Hast du mal ein Schaubild?
Wir hatten damals auch massive Performance Probleme mit dem NetApp SMB. Als wir auf den gleiche Platten die Filer einfach virtualisiert haben, war das deutlich schneller.
Gruß
bei 1x 10GBit/s nen Durchsatz von 1,8 GByte/s zu bekommen ist mathematisch "fragwürdig" ;)
Ihr nutzt das SMB der NetApp?
Hast du mal ein Schaubild?
Wir hatten damals auch massive Performance Probleme mit dem NetApp SMB. Als wir auf den gleiche Platten die Filer einfach virtualisiert haben, war das deutlich schneller.
Gruß
Wie und wo ist denn der Server angebunden mit dem du auf die NetApp kopierst?
Mit auf die NetApp kopieren meinst du, auf eine VM die auf dem HyperV läuft die per iSCSI an der NetApp hängt?
Gleichzeitig hängt ein alter Barmetall 2019 Server an der NetApp per iSCSI? und erreicht mehr?
Nochmals: 1,8 GByte/s bei 10Gbit/s sind unmöglich.
Bei 2x 10GBit/s aber schon fast perfekt.
Es gab irgendwo nen Schönen Artikel von NetApp wie man unter Einbeziehung von Header Infos bei SMB auf den Durchsatz kommt. Bei 1GBit/s war das irgendwas um die 112MB/s > rein theoretisch! Finde den Artikel gerade nicht. Wir haben uns vor 8 Jahren von der NetApp getrennt. Auch angebunden per 10G iSCSI. Das Thema kenne ich daher
Mit auf die NetApp kopieren meinst du, auf eine VM die auf dem HyperV läuft die per iSCSI an der NetApp hängt?
Gleichzeitig hängt ein alter Barmetall 2019 Server an der NetApp per iSCSI? und erreicht mehr?
Nochmals: 1,8 GByte/s bei 10Gbit/s sind unmöglich.
Bei 2x 10GBit/s aber schon fast perfekt.
Es gab irgendwo nen Schönen Artikel von NetApp wie man unter Einbeziehung von Header Infos bei SMB auf den Durchsatz kommt. Bei 1GBit/s war das irgendwas um die 112MB/s > rein theoretisch! Finde den Artikel gerade nicht. Wir haben uns vor 8 Jahren von der NetApp getrennt. Auch angebunden per 10G iSCSI. Das Thema kenne ich daher
Hallo,
Wie viele Active IO Pfade hast du denn beim Zugriff auf die NetApp im Vergleich zur Eternus?
Beispiel-IPs:
Server 192.168.1.100
192.168.2.100
NetApp 192.168.1.150
192.168.2.150
192.168.1.151
192.168.2.151
Server 192.168.1.100
192.168.2.100
NetApp 192.168.1.150
192.168.2.150
192.168.1.151
192.168.2.151
Wie viele Active IO Pfade hast du denn beim Zugriff auf die NetApp im Vergleich zur Eternus?
Den optimalen Durchsatz habe ich so gelernt (grob, absoluter Max-Wert, der aber nicht erreicht wird): Datenleitung geteilt durch 8. Keine Ahnung, wo ich das herhabe, passte bisher aber immer
Das wäre ja einfach 1 Byte in 8 Bits umgerechnet. Hier kommen aber noch die ganzen Header Infos hinzu.P.S.: Ihr habt Euch hoffentlich nicht aus Enttäuschung von NetApp getrennt?
DOCH!
Hallo,
Große Datei kopieren ist zwar ein erstes Indiz für einen Performance Messung, ich würde da allerdings später eher ein IO Meter o.Ä. laufen lassen.
Wir haben uns daher nach etwas schlichterem umgesehen.
Allerdings ausschließlich mit ESX-Hosts.
Von einer VM auf die andere Kopieren komme ich per 2x10G auf max 850MB/s. Hier hatten wir nie Bedarf nach mehr Performance bzw SMB Durchsatz...
Gruß
4 Pfade auf die NetApp, zur Eternus sind es 2 Pfade, aber nur einer aktiv, der andere im Standby
Mit einem aktiven 10G Pfad kann man keine 1,8GByte/s erreichen. Dann hast du da nen Messfehler!Große Datei kopieren ist zwar ein erstes Indiz für einen Performance Messung, ich würde da allerdings später eher ein IO Meter o.Ä. laufen lassen.
Interessant und sch...ade. Welche Probleme gab es denn? I
Grottiger Support. u.A. wegen Performance. SMB buggy. Bei Nutzung der Snapmanager ist man gefangen in der Netapp Welt, etcWir haben uns daher nach etwas schlichterem umgesehen.
Was nutzt Ihr jetzt?
Und sind dann bei PureStorage gelandet und haben noch einige DELL PowerStore. Alles per 10/25G iSCSI.Allerdings ausschließlich mit ESX-Hosts.
Von einer VM auf die andere Kopieren komme ich per 2x10G auf max 850MB/s. Hier hatten wir nie Bedarf nach mehr Performance bzw SMB Durchsatz...
Gruß