111945
Goto Top

Storage Spaces Direct : 0 Performance

Hallo Zusammen,

Ich habe mir ein TestCluster aufgesetzt um S2D zu testen. Erstellt habe ich zwei Volumes (Dual Mirror) Wenn ich jetzt eine 20 GB *.VHDX von Volume1 nach Volume2 kopiere komme ich auf Datenraten von 10-25 Mbyte die Sekunde. Die Auslastung der Netzwerkinterface sind ca bei 400MB.

Folgend meine Konfiguration

Anzahl Nodes : 3
Jeder Node ist mit 2 NVMes a 400 GB ausgesatttet und 4x 2TB SATA HDD
Jeder Node hat 128 GB RAM und 2x E5-2620 V4 @ 2,1 GHZ
Jeder Node ist mit einer 10GBit Kupfer Karte, die 2 Ports hat angebunden.
Der Switch hat 10 GBit Ports, die Backplane schafft bis 100GBit

Die Netzwerkkonfiguration habe ich wie folgt vorgenommen.
# Erstellen des Teaming-Switches
New-VMSwitch -Name MGMT -AllowManagementOS $True -NetAdapterName MGMT-NIC-01,MGMT-NIC-02 -EnableEmbeddedTeaming $True

#Erstellen der vNICS auf Node-Ebene
Add-VMNetworkAdapter -ManagementOS -Switchname MGMT -Name SMB_01
Add-VMNetworkAdapter -ManagementOS -Switchname MGMT -Name SMB_02

# Den vNICS ein VLAN zuordnen 603
$Nic = Get-VMNetworkAdapter -Name SMB_01 -ManagementOS
Set-VMNetworkAdapterVlan -VMNetworkAdapter $Nic -Access -VlanId 603

$Nic = Get-VMNetworkAdapter -Name SMB_02 -ManagementOS
Set-VMNetworkAdapterVlan -VMNetworkAdapter $Nic -Access -VlanId 603

# RDMA Deaktivieren
Get-NetAdapterRDMA -Name *SMB* | Disable-NetAdapterRdma

# Binden des Ext NICs zum vNIC
Set-VMNetworkAdapterTeamMapping –VMNetworkAdapterName SMB_01 –ManagementOS –PhysicalNetAdapterName MGMT-NIC-01
Set-VMNetworkAdapterTeamMapping –VMNetworkAdapterName SMB_02 –ManagementOS –PhysicalNetAdapterName MGMT-NIC-02

# Vergabe der IP-Addresse
New-NetIPAddress -InterfaceAlias "vEthernet (SMB_01)" -IPAddress 192.168.100.70 -PrefixLength 24 -Type Unicast  

New-NetIPAddress -InterfaceAlias "vEthernet (SMB_02)" -IPAddress 192.168.100.170 -PrefixLength 24 -Type Unicast  

Gibt es irgendwas was ich vergessen habe oder ist das System langsamer als mein USB 2.0 Stick? Jeder hinweis ist hilfreich!


Vielen Dank

Content-Key: 334292

Url: https://administrator.de/contentid/334292

Printed on: April 18, 2024 at 05:04 o'clock

Member: Vision2015
Vision2015 Apr 06, 2017 at 13:05:31 (UTC)
Goto Top
moin...

als erstes würde ich das teaming aus der config werfen! mit einer falschen teaming config kannst du viel kapput machen!

Zitat von @111945:

Hallo Zusammen,

Ich habe mir ein TestCluster aufgesetzt um S2D zu testen. Erstellt habe ich zwei Volumes (Dual Mirror) Wenn ich jetzt eine 20 GB *.VHDX von Volume1 nach Volume2 kopiere komme ich auf Datenraten von 10-25 Mbyte die Sekunde. Die Auslastung der Netzwerkinterface sind ca bei 400MB.
hm.. du meinst 400 MBit/s oder wirklich Mbyte/s ?

Folgend meine Konfiguration

Anzahl Nodes : 3
Jeder Node ist mit 2 NVMes a 400 GB ausgesatttet und 4x 2TB SATA HDD
was für NVE´s sind das genau. Treiber aktuell.. grade bei Intel...
Sata HDD`s woran ?
Jeder Node hat 128 GB RAM und 2x E5-2620 V4 @ 2,1 GHZ
ok... das Board hat aber PCI-e v.3 ... oder ? bei v.2 hast du etwa nur noch 50% der leistung der NVE...
Jeder Node ist mit einer 10GBit Kupfer Karte, die 2 Ports hat angebunden.
Der Switch hat 10 GBit Ports, die Backplane schafft bis 100GBit
was für ein switch genau ?

Server 2016 ? wie Installiert ? als was genau ?

Gibt es irgendwas was ich vergessen habe oder ist das System langsamer als mein USB 2.0 Stick? Jeder hinweis ist hilfreich!


Vielen Dank
Frank
Mitglied: 111945
111945 Apr 06, 2017 at 13:10:02 (UTC)
Goto Top
Zitat von @Vision2015:

moin...

als erstes würde ich das teaming aus der config werfen! mit einer falschen teaming config kannst du viel kapput machen!

Zitat von @111945:

Hallo Zusammen,

Ich habe mir ein TestCluster aufgesetzt um S2D zu testen. Erstellt habe ich zwei Volumes (Dual Mirror) Wenn ich jetzt eine 20 GB *.VHDX von Volume1 nach Volume2 kopiere komme ich auf Datenraten von 10-25 Mbyte die Sekunde. Die Auslastung der Netzwerkinterface sind ca bei 400MB.
hm.. du meinst 400 MBit/s oder wirklich Mbyte/s ?

Da meine ich natührlich Mbit


Folgend meine Konfiguration

Anzahl Nodes : 3
Jeder Node ist mit 2 NVMes a 400 GB ausgesatttet und 4x 2TB SATA HDD
was für NVE´s sind das genau. Treiber aktuell.. grade bei Intel...
Sata HDD`s woran ?
Das sind die Intel P3600. Sata hängen am Mainboard

Jeder Node hat 128 GB RAM und 2x E5-2620 V4 @ 2,1 GHZ
ok... das Board hat aber PCI-e v.3 ... oder ? bei v.2 hast du etwa nur noch 50% der leistung der NVE...
Jeder Node ist mit einer 10GBit Kupfer Karte, die 2 Ports hat angebunden.
Der Switch hat 10 GBit Ports, die Backplane schafft bis 100GBit
was für ein switch genau ?

Server 2016 ? wie Installiert ? als was genau ?
Ich nutze einen Cisco SG550, Windows 2016 hab ich Standardmäßig installiert.


Gibt es irgendwas was ich vergessen habe oder ist das System langsamer als mein USB 2.0 Stick? Jeder hinweis ist hilfreich!


Vielen Dank
Frank
Member: Vision2015
Vision2015 Apr 06, 2017 at 13:25:54 (UTC)
Goto Top
auf was für transferraten kommst du mit den NVE´s auf jedem host ?
ich frage noch mal nach den treibern...

sind in deinem storage pool auch SATA Platten ?

Frank
Mitglied: 111945
111945 Apr 06, 2017 at 13:33:15 (UTC)
Goto Top
Hallo,

die Transferraten kann ich nicht testen. NVMEs sind nach hinzufügen zum S2D "verschwunden" Zu den zwei NVMs kommen 4x2TB SATA

Die Treiber sind aktuell

Danke
Member: Vision2015
Vision2015 Apr 06, 2017 at 13:46:55 (UTC)
Goto Top
hi,

wie "verschwunden" ?

ok.. du hast doch einen speicherpool angelegt...
in diesem speicherpool kannst du eine schnelle ebene (SSD/NVE) angeben... und die standard ebene (HHD´s)
hast du beides auf maximale größe gesetzt ?
hast du daran gedacht platz für den schreibcache zu lassen ?
können deine Netzwerk karten RDMA... bzw. ist der richtige treiber dafür Installiert
Storage Spaces Direct nutzt zum Datenaustausch nur SMB3..
können das deine Gäste ?

Frank
Mitglied: 111945
111945 Apr 07, 2017 at 13:31:15 (UTC)
Goto Top
So.

Mitlerweile habe ich JumboFrames aktiviert. Wenn ich jetzt 1GB Dateien kopiere gehts.. sekundenschnell.. Die 25GB Datei kopiert aber immernoch mit 30-50 MByte/s
Member: psannz
psannz May 17, 2017 at 11:14:13 (UTC)
Goto Top
Sers,

SMBdirect ohne RDMA ist... grausam.

Dual Mirror? Sicher, dass es nicht Dual Parity ist? Oder meinst du 2-Way-Mirror?

Wie sind die Pools, Tiers, Caches und Vdisks konfiguriert?

Grüße,
Philip
Mitglied: 111945
111945 May 18, 2017 at 06:37:14 (UTC)
Goto Top
Hi,

ja, ich meinte 2-Way-Mirror.

Performance ist auch super. Ich komme auf knapp 2 Gbyte Lesend/Schreibend 70/30 und ca 400K iops.

Das einzige Problem was jetzt noch besteht ist, dass bei Last andauernd verschiedene Festplatten mit folgender Fehlermeldung aussteigen.

Der Plattenheader für den physischen Datenträger "{546d8bd3-616d-8b0e-6b8e-9c2357000cd7}" konnte von Windows nicht gelesen werden

Ich denke es liegt daran, dass ich keinen SAS HBA nutze. In der Testumgebung verwende ich die Onboard-Uefi-Sata-Ports

Viele Grüße


Zitat von @psannz:

Sers,

SMBdirect ohne RDMA ist... grausam.

Dual Mirror? Sicher, dass es nicht Dual Parity ist? Oder meinst du 2-Way-Mirror?

Wie sind die Pools, Tiers, Caches und Vdisks konfiguriert?

Grüße,
Philip