mrfrog
Goto Top

FibreChannel-Switch für eine SAN

Hallo zusammen,

ich bin noch neu hier im Forum und habe direkt eine Frage.

Für unsere interne Umgebung bekommen wir 3 ESXi Host und eine SAN. Nun möchten wir eine FibreChannel-Switch zwischen den Host (jeweils 2x8GB Ports) und der SAN.

Ich habe folgende Switche rausgesucht:

Extreme X670 Serie
Juniper EX 4550
Brocade 6505

Nun gibt es ein paar Leute die behaupten, dass man Extreme und Juniper nicht unbedingt für dieses Umfeld nutzen sollte. Gibt es hier jemanden, der eventuell Erfahrung damit hat?

Vielen Dank face-smile

Content-Key: 328793

Url: https://administrator.de/contentid/328793

Printed on: April 24, 2024 at 15:04 o'clock

Member: aqui
aqui Feb 08, 2017 updated at 10:47:38 (UTC)
Goto Top
Du vergleichst hier sehr laienhaft Äpfel und Birnen, was zeigt das du nicht wirklich weisst wovon du eigentlich redest. face-sad
Zwischen IP basiertem Storage (iSCSI, NFS etc.) was Ethernet basierend ist und Fiberchannel ist ein himmelweiter Unterschied.
Juniper und Extreme sind 2 reine Ethernet Hersteller die gar keine Fiberchannel Switches im Portfolio haben !!
Die 2 sind also reine Ethernethersteller und kannst du gleich vergessen zum Thema Fibrechannel. Man "sollte" sie also nicht nutzen sondern man kann es deshalb schlicht und einfach auch gar nicht.
Mit einem Dacia Logan kannst du auch nicht zum Mond fliegen....
Brocade ist der Marktführer der seine Switches auch an so gut wie ALLE Server Hersteller OEMt. Sprich also bei HP, IBM, Fujitsu, Dell usw. sind zwar deren Aufkleber drauf intern werkelt aber immer ein Brocade Switch.
Deshalb macht es Sinn das du den FC Switch besser über deinen Server Lieferanten beziehst. Separat ist erheblich teurer.
Ansonsten ist die Auswahl bei FC eher überschaubar.
Cisco, QLogic, Emulex spielen da noch als Zwerge mit und dann hört's auch schon so ziemlich auf.

Für deine recht popelige Anwendung mit langsamen 8Gig FC reicht ein simpler Brocade 300 FC Switch allemal aus:
http://www.brocade.com/en/products-services/storage-networking/fibre-ch ...
Member: MrFrog
MrFrog Feb 08, 2017 at 13:05:02 (UTC)
Goto Top
Vielen Dank für deine Antwort.

Ich gebe zu, dass Fibre Channel nicht zu meinen Stärken gehört.

Bis jetzt war ich auch der Meinung, dass Exclusive und Juniper reine Netzwerkswitche sind. Mir wurde allerdings nahe gelegt, die Situation mit diesen beiden Herstellern zu lösen. Und genau das ist der Punkt, den ich nicht verstehe.
Member: aqui
aqui Feb 08, 2017 updated at 13:12:55 (UTC)
Goto Top
Den Punkt versteht wohl auch nur der Wind... face-sad
Der, der dir das nahegelegt hat hat entweder vom Tuten und Blasen keine Ahnung oder hat was geraucht. Wohl eher das Erste...?!
Das wäre so als wenn du zum VW Händler gehst und ein Motorboot kaufen willst.
Sprich es ist Blödsinn das mit denen lösen zu wollen, denn die haben die Technik (Fibrechannel) gar nicht im Produktportfolio die dafür nötig ist ! Das kann man gleich vergessen....
Member: Dr.EVIL
Dr.EVIL Feb 08, 2017 at 14:44:32 (UTC)
Goto Top
Es wäre an dieser Stelle interessant zu wissen, welche FC HBA (Fibrechannel PCI-Karten) verwendet werden und welches FC Storage angeschlossen werden soll.
Viele FC Storages haben bis zu vier Verbindungen pro Controller und erlauben es die FC Hosts "direct connected", ohne Switch anzuschließen.
Ich würde diese Möglichkeit prüfen, bevor ich viel Geld für u.U. überflüssige Switche ausgebe.

Und:
Brocade ist für mich "DER" FC Switch!
Zwar gibt es auch bspw. von Cisco und QLogic sehr gute FC Switche, aber Brocade ist auf diesem Gebiet (zurecht...) der unumstrittene Marktführer
Member: nighthawk1981
nighthawk1981 Feb 08, 2017 at 16:15:17 (UTC)
Goto Top
Hallo,

ich würde nicht nur einen FC Switch nehmen, sondern zwei. Jeden Server über einen Switch an das SAN ankoppeln und schon läuft auch alles weiter falls ein Switch mal defekt ist.


Gruß
Member: aqui
aqui Feb 09, 2017 at 14:46:09 (UTC)
Goto Top
Genau richtig !
Eine SAN FC Fabric besteht deswegen immer aus 2 Switches im Minimum.
Member: gansa28
gansa28 Feb 10, 2017 updated at 20:42:23 (UTC)
Goto Top
Hallo Mr.Frog

wenn ihr schon 3 ESXi Hosts mit einem FC Storage bekommt sollte man direkt 2 FC Switche dazu ordern, im Komplett Set immer billiger als einzeln zu kaufen.

Wie die Kollegen schon schon geschrieben Brocade 300 wird von allen großen Herstellern unter eigenem Namen als Rebrand angeboten.

Die ESXi benötigen natürlich zum Storage und zu den FC Switchen passenden HBAs, jeweils eine 2 Pfadige Anbindungen in unabhängigen HBAs.

Meist haben günstige FC Storage nur 2-4 FC Ports pro StorageProcessor so das man dann über FC Switche lösen muss. Allerdings muss man wenn man FC einsetzen meist ziemlich tief in die Tasche greifen, aber es lohnt sich.

iSCSI ist günstiger Umzusetzen allerdings nicht so low latency und Performant wie FC.

Grüße

Gansa28
Member: aqui
aqui Feb 11, 2017 at 12:00:40 (UTC)
Goto Top
iSCSI ist günstiger Umzusetzen allerdings nicht so low latency und Performant wie FC.
Kommt drauf an... face-wink
Mit einem DCB Switch auf Fabric Basis wie dem Brocade VDX und entsprechender DCB Priorisierung kommt es sehr sehr nah an FC ran wenn man die richtige HW einsetzt.
Mit billigen Dell oder HP Switches klappt das natürlich nicht, keine Frage.
Member: Dr.EVIL
Dr.EVIL Feb 13, 2017 updated at 09:38:54 (UTC)
Goto Top
Genau das ist das grundlegende Problem bei iSCSI:
Um die Geschwindigkeit eines simpelen 8Gbit Fibrechannel SAN zu erreichen, muss man 10Gbit Switche einsetzen, die deutlich teurer sind als bspw. ein Brocade 300 (oder dessen OEM Versionen)!
Der kleinste voll iSCSI taugliche HPN Aruba Switch wäre z.B. der 2920, der voll Aufgerüstet mit vier 10Gbit SFP+ Ports und einem 2x 20Gbit Stacking Modul, einen Listenpreis (ohne CarePack und Kabel) von etwa 4.500,-€ hat. Der mit bis zu 48 Ports ausgestattete HPN 5700 und nahezu alle Alternativen von Cisco (z.B. Nexus 55XX) liegen sogar im fünfstelligen Bereich... (Es gibt auch teure HP Switche! face-wink)

Ein vergleichbarer 8Gbit FC Switch mit SFP+ Modulen ist zumeist billiger...
(Das ich in diesem Zusammenhang IMMER von einer HA Umgebung mit WENIGSTENS zwei Switchen schreibe, setze ich als bekannt voraus... face-big-smile)

iSCSI ist imho keine Technik, die man einsetzen sollte um Geld zu sparen, oder gar wenn es um "All Flash Performance" geht...
Die Vorteile von iSCSI liegen für mich in der leichten Integriebarkeit in größeren RZ, bei "HyperConverged" Systemen, oder wenn es um einen "protokollbasierten Seamless Failover geht" (hier ist der fast 20% IP-Overhead ein Vorteil gegenüber dem wenig fehlertoleranten FC Protokoll)

Leider wurde hier in der Vergangenheit viel durch "Marketing" kaputt gemacht.
Viele Kunden glaubten den Versprechungen, durch einfache 1Gbit Verbindungen, an billigsten "NetGear" Switchen (gerne auch als VLAN), Geld sparen zu können.
Dies wurde dann aber mit unzuverlässigen und "kreuzlahmen" SAN Verbindungen bestraft...
(Die selben Kunden experimentieren derzeit mit "MS StorageSpaces" herum...) face-wink
Member: aqui
aqui Feb 13, 2017 updated at 10:39:03 (UTC)
Goto Top
die deutlich teurer sind als bspw. ein Brocade 300
Mmmhhh...ein Brocade VDX Fabric Switch mit 24 mal 10G Ports liegt Strassenpreis so bei 5k Euro. Da ist ein 300er aber nicht so weit weg von, oder ?
Der kleinste voll iSCSI taugliche HPN Aruba Switch
Igitt !
Den kannst du damit NICHT vergleichen, denn dann vergleichst du Äpfel mit Brinen !
Die Aruba Gurken sind allerbilligste Enterprise Switches und KEINE DCB Switches. Solche billigen Enterprise Access Teile sind für performantes iSCSI oder NFS nicht zu gebrauchen und deshalb auch niemals mit FC zu vergleichen.
Das ist die von dir zu Recht unten angesprochene NetGear Denke von Laien die leider wegen der fatalen Technik Unwissenheit in diesem Bereich weit verbreitet ist.
Du weisst selber das FC Traffic immer lossless ist. Man muss also wenn man fair ist es auch mit einem lossless Ethernet Switch vergleichen im Bereich IP basiertes Storage und das sind dann ausschliesslich nur DCB Switches auf TRILL oder SPB Basis.
Niemals aber diese HP Billiggurken oben für den einfachen Enterprise Bereich. Die haben in einem RZ eh nichts zu suchen bei solchen Anwendungen.
Der HPE5700 ist da eher dran, da TRILL basierend und DCB fähig. Ist von HP zugekaufte Technik aus dem 3Com Huawei (H3C) Deal. Kommt aber bei weitem nicht an den Brocade VDX 6740 ran vom Featureset.
Wenn, dann also Äpfel mit Äpfeln vergleichen.
Ansonsten hast du absolut Recht mit deiner iSCSI Einschätzung und Einordnung.
Ganz besonders was das Thema billiges von NetGear anbetrifft in diesem Umfeld.
Das Flash Zeitalter wird hier so oder so für Umwälzungen sorgen denn NVMe steht mit NVMe over FC oder over IP vor der Tür.
Wer da das Rennen macht bleibt abzuwarten. Da Ethernet basierte Infrastruktur generell preiswerter ist und einfacher zu implementieren sieht es langsfristig dann nicht ganz so rosig aus für FC. Wobei hier die Betonung auf langfristig liegt.
Member: Dr.EVIL
Dr.EVIL Feb 13, 2017 at 15:05:59 (UTC)
Goto Top
Sorry, aber bezüglich Aruba muss ich Dir wiedersprechen:
Die Bezeichnung "Aruba" dient lediglich als Unterscheidung zwischen den "kleinen KMU" Switchen (ehemals "ProCurve") und der "großen" Datacenter Serien. Mit "3Com Vergangenheit", oder ohne... (Ähnlich wie 3Com wurde Aruba von "Big Mama Meg absorbiert".)
"iSCSI Fähigkeit" mache ich dabei an der Latenzzeit bei Betrieb mit Jumboframes fest, wenn alle Ports unter "Dampf" stehen. Bei nur 4 10Gbit Ports ist dies zugegeben keine große "Kunst"...
Daher ist der Aruba 2920 der billigste iSCSI Switch den ich kenne.
(Es gibt zwar noch "billigere" HPE Switche mit 10Gbit, aber die würde ich höchstens als Etagenverteiler einsetzen...)

Man benötigt nicht unbedingt einen Ferrari um schnell zu fahren, manchmal tut es auch ein "billiger Porsche"... face-wink

Für "NVMe over FC/IP" mit Latenzen im Nanosekunden Bereich benötigt man in diesem Vergleich allerdings mindestens eine Saturn-V Rakete... face-wink
(z.B. Brocade G620 mit 4x128Gbit/s aka. HPE SN6600B - Stückpreis >40.000,-€)
Member: aqui
aqui Feb 13, 2017 at 16:22:19 (UTC)
Goto Top
M.E. gehört jeglicher IP Storage Traffic niemals auf billige Access Hardware wie den 2920. OK, bei Klempnermeister Röhricht im Büro mit einem Bastelserver und 2 PCs und 1 Drucker reicht das natürlich. RZ aber niemals.
Hier stimmt dann wieder der Vergleich Golf GTI und Ferrari..keine Frage. face-smile
Zumal wenn die gleiche Infrastruktur noch das weitere Netz bedient, was bei DCB Fabric Switches problemlos möglich ist.
Die ex ProCurve und neu Aruba sind eh alles OEMte Accton Barebones wo HP nur sein Label raufbäppelt. Analog zu deren FC Switches, da werkelt reinrassig Brocade drin. Haben eben nix eigenes im Netzwerk Bereich sondern einen zugekauften Zoo. Entsprechend performen diese Komponenten auch.
Pikannt ist das sie bei relevanten Projekten und im eigenen Corporate Backbone Cisco einsetzen und planen. Ein Schelm wer Böses dabei denkt.
So oder so ist die Latenz aber bei FC immer deutlich geringer als Ethernet. Ist aber klar, da weniger Overhead. Da hat FC immer die Nase vorn. Letztlich für Storage besser aber leider hat nicht immer die bessere Technik am Ende gewonnen im Markt siehe Video2000 und VHS. Der Preis spricht da immer mit.
Member: Dr.EVIL
Dr.EVIL Feb 14, 2017 updated at 12:57:45 (UTC)
Goto Top
Ich denke, das es auf dem Markt keinen größeren Hersteller gibt, der nicht OEM Ware in seinem Programm hat, oder sein Programm durch zukäufe von kleineren Wettbewerbern und Start-Ups vervollständigt.
Auch Brocade hat z.B. in den letzten Jahren kräftig "hinzugekauft" (z.B. Rukus, McData, Foundry usw.) bevor sie vor kurzem selbst durch Broadcom aufgekauft wurden...
Das solche Firmen nicht sofort "dicht gemacht" werden und noch lange an ihren angestammten Standorten für die Muttergesellschaft weiter produzieren, dürfte betriebswirtschaftlich sinnvoll sein.
Bei Accton werden aber bereits seit längerem keine Switche der HPN 2XXX Serien produziert. Diese werden m.W. "proudly manufactured in California (USA)" (Wo sie auch konstruiert wurden...)
Was die einen als "Zoo" betrachten, ist für andere ein großer Vorteil da sie so verschiedene, teilw. properitäre Technologien miteinander kombinieren können, ohne eine "heterogene Multi-Vendor" Umgebung zu riskieren, in der beim kleinsten Problem "schwarzer Peter" zwischen den Herstellern gespielt wird...

Dies ist allerdings imho "Meckern auf höchstem Niveau"!
Wenn ich den TO richtig verstehe, haben wir es hier (3 ESXi Hosts, ohne FT, kein Backup) mit einem klassischen Projekt für Unternehmen wie "Gas, Wasser, ScheiXXe Röhrich in Flensburg" zu tun... face-wink
Bei den engen Preisvorgaben in diesem Bereich kann man froh sein, wenn überhaupt zwei separate Switche für das Storage vorgesehen werden.
Ich habe bereits größere Anlagen gesehen, bei denen sämtlicher IP Verkehr mit VLans über ein und den selben (unmanaged) 48Port 1Gbit Switch geführt wurden, weil am Ende das Geld für die Infrastruktur fehlte...

BTT:
Gegen FC spricht leider der "Medienbruch" der durch eine getrennte LAN und SAN Infrastruktur auftritt und die auch durch multifunktionale Hardwaretechniken wie z.B. "FlexFabric" nur in relativ großen Umgebungen kompensiert werden kann.
"Software defined Storage" und "Hyperconverged" Lösungen bauen daher fast alle auf 10Gb IP Verbindungen auf. Teilweise sogar ohne das iSCSI Protokoll zu nutzen. Hierdurch entstehende Performance Nachteile werden dann durch "exzessiven Hardwareeinsatz", wie z.B. iWARP RDMA und NVMe Speicher kompensiert...
("Keiner hat gesagt, das einfacher auch billiger sein muss...") face-wink