meinsenfdazu
Goto Top

Core Switch vs. seperater SAN Switch

Hallo zusammen,

ich bin gerade bei der Planung für unser neues Storage System. Erstmal nichts besonders anspruchsvolles.

2x HP G9 Server mit ESXI 6.5 mit einem VCenter
2x Dell EMC SCv3020 Storages als Cluster
2x Aruba 3810 10GB SFP+ als Core Switch
3x Aruba 3810 48 Port POE als Access Switch
10x ISCSI LUNs
20 VMs auf die beiden EXSI Hosts verteilt
alles mit 10 GB Etnernet LWL angebunden

Bisher hieß es doch immer das für das Storage immer ein eigener Switch verwendet werden sollte. Nun war ich vor kurzem auf einer VMware Schulung und da hieß es dies sei nicht notwendig.

Ich habe das mal grob gemalt wie sich der Dozent von VMware das vorgestellt hat. Seht ihr das auch so oder würdet ihr das anders machen und zusätzlich 2 SAN Switches nur für die beiden Storages verwenden. Selbstverständlich würde das alles mit VLANs getrennt werden.

storage

Viele Grüße

Content-Key: 507260

Url: https://administrator.de/contentid/507260

Printed on: April 19, 2024 at 11:04 o'clock

Member: aqui
aqui Oct 22, 2019 updated at 11:28:56 (UTC)
Goto Top
Bisher hieß es doch immer das für das Storage immer ein eigener Switch verwendet werden sollte
Das war mal so aber mit modernen Fabric basierten Switches die mit TRILL oder SPF Technik arbeiten ist das in der Tat nicht mehr nötig da du darin Storage Traffic sehr leicht und effizient priorisieren kannst.
Das ist in einem gesharten Netz zwingend, denn Storage Traffic muss dort aus gutem Grund absolute Priorität haben. Fast immer sind solche Fabric basierten Switches Cut Through Switches mit sehr geringer Latency die nicht mehr nach einem ollen Store and Forward Prinzip funktionieren. TRILL oder SPF Technik ersetzt auch Spanning Tree so das eine Vollvermaschung in solchen Netzen möglich wird mit aktiven, redundanten Links wie man es aus Fibre Channel Designs auch kennt.
In so fern haben die VmWare Leute schon recht. Der langfristige Trend geht eh von Fiber Channel (SAN) weg auf Ethernet.
Ob man dann mit billigen HP ProCurve Switches gut beraten ist wohl eher nicht. Die VmWare Dozenten haben sicher auch nicht solche Switch HW gemeint. Wohl eher Extreme VDX, Arista oder Cisco Nexus Switches und solche Kaliber.
Mit den billigen Consumer HPs wohl eher nicht. Mit solcher HW sollte man dann doch besser auf ein SAN mit Fibre Channel setzen oder ein separates Storage Netz was vom RZ Backbone getrennt ist.
Member: ukulele-7
ukulele-7 Oct 22, 2019 at 11:41:07 (UTC)
Goto Top
Ich bin in meiner doch eher kleinen Umgebung auch weg von dedizierten SAN Switches und bilde das SAN jetzt auf dem Core ab (2x 5406R tl2). Ich sehe da jetzt auch keine Probleme bzw. hatte bisher keine.
Member: SlainteMhath
SlainteMhath Oct 22, 2019 at 13:21:15 (UTC)
Goto Top
Moin,

also auch wenn das technisch möglich ist und in 99,9% der Einsatzszenarien auch gut funktioniert. Aber wenn der erste Packetstorm aus dem LAN oder xSTP-Fehler die SAN Storage ausbremst ist Schluss mit lustig. Ich würde daher LAN und SAN immer durch separate Switche/Fabrics abbilden. Letztendlich ist das aber natürlich auch eine Geldfrage.

lg,
Slainte
Member: clSchak
clSchak Oct 22, 2019 updated at 14:01:18 (UTC)
Goto Top
<3 TRILL ... leider sind die jetzt Extreme und nicht mehr Brocade face-sad

Ähnliches Technik hat auch Dell mit den Force10 10G Geräten, allerdings kleiner Dimensioniert wie bei den VDX'n.

Und ja du kannst alles über einen Switch laufen lassen, dann würde ich aber NFS statt iSCSI verwenden (auch wenn das Protokoll langsamer ist) - vor allem wenn du keine HighEnd Switche zur Verfügung hast - ist halt dann kein BlockLevel basierende Anbindung mehr, mit all seinen Vor- und Nachteilen, auch eine Frage der IO Last

Dazu gibt es im VMWare Forum auch einen relativ aktuellen Thread - wobei die Frage immer wieder kommt:
https://communities.vmware.com/thread/607260

Edit / Add: https://www.hyper-v.io/whos-got-bigger-balls-testing-nfs-vs-iscsi-perfor ... mal so als Info was die Performance-Unterschiede ausmachen, habe es jetzt aber auch nur überflogen.

Gruß
@clSchak