Fibre Channel SAN overload?
Guten Tag,
ich plane unsere 2 VM-Host Server über Fibrechannel an unser SAN Storage anzuschließen.
Pro Host Server habe ich 2x 8Gbit Fibre Channel und am SAN auch 2x 8Gbit Fibre Channel. Dawzischen ist ein Fibre Channel Switch mit 16Ports.
Maximal kann also jeder Host Server 16Gbit an Traffic verursachen, was ja einfach doppelt so viel ist wie das SAN aufnehmen kann.
Ist dies ein Problem oder wird der Switch und die Hosts das selber regeln?
ich plane unsere 2 VM-Host Server über Fibrechannel an unser SAN Storage anzuschließen.
Pro Host Server habe ich 2x 8Gbit Fibre Channel und am SAN auch 2x 8Gbit Fibre Channel. Dawzischen ist ein Fibre Channel Switch mit 16Ports.
Maximal kann also jeder Host Server 16Gbit an Traffic verursachen, was ja einfach doppelt so viel ist wie das SAN aufnehmen kann.
Ist dies ein Problem oder wird der Switch und die Hosts das selber regeln?
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 364878
Url: https://administrator.de/contentid/364878
Ausgedruckt am: 22.11.2024 um 22:11 Uhr
8 Kommentare
Neuester Kommentar
Moin,
mach dir um die Last am Brocade mal keinen Kopp...
Wir hatten den (bzw. die) auch bis vor kurzem im Einsatz (bzw. dessen IBM-Version 2498-B24). Dort hingen dran:
2x V3700, 2x SVC-Knoten, 1x Power8, 4x vmWare Host je Switch nochmal ein 2498-B24 an dem wiederum "nur" ne weitere V3700 sowie 5 TapeDrives hingen.....
Und in die Knie ist das SAN nie gegangen...
Gruß
em-pie
mach dir um die Last am Brocade mal keinen Kopp...
Wir hatten den (bzw. die) auch bis vor kurzem im Einsatz (bzw. dessen IBM-Version 2498-B24). Dort hingen dran:
2x V3700, 2x SVC-Knoten, 1x Power8, 4x vmWare Host je Switch nochmal ein 2498-B24 an dem wiederum "nur" ne weitere V3700 sowie 5 TapeDrives hingen.....
Und in die Knie ist das SAN nie gegangen...
Gruß
em-pie
Hi,
sind das dann wirklich 16G?
Oder ist der zweite Pfade "nur" der redundante Pfad?
Ich weiß es auch nicht, ist mir gerade so eingefallen.
Und Gedanken brauchst du dir auch nicht zu machen.
Wir haben auch einige Server, ESX-Hosts, SAN und Tape Libs am Brocade 300 hängen, Probleme gab es da noch nie
VG,
Deepsys
sind das dann wirklich 16G?
Oder ist der zweite Pfade "nur" der redundante Pfad?
Ich weiß es auch nicht, ist mir gerade so eingefallen.
Und Gedanken brauchst du dir auch nicht zu machen.
Wir haben auch einige Server, ESX-Hosts, SAN und Tape Libs am Brocade 300 hängen, Probleme gab es da noch nie
VG,
Deepsys
berechtigte Anmerkung/ Frage:
Meines Wissens nach sind das alles nur redundante PFade, denn am Host/ Storage definiert das System selbstsändig immer einen prefered path
Ansonsten wären die Storages / SVC-Knoten sogar mit 16G je fabric angebunden gewesen, hätten also Daten mit 32G wegschaufeln können...
Und dann mache ich mir eher GEdanken über die Innereien der angebundenen Systeme, ob die das alles so packen...
Zuerst einmal sollte man definieren was mit "overload" gemeint sein soll...
Man kann (irgendeine) SAN Verbibndung in die "Sättigung" fahren, so das 100% der Bandbreite genutzt werden.
Das Ergebnis ist, das weniger Daten pro Sekunde transferiert werden können und daher auch die Latenzen des Storage steigen:
Der Speicher wird langsamer!
Dies ist aber eine rein theoretische Überlegung, denn ich habe in über 20 Jahren mit FC SAN noch nicht einmal erlebt, das ein einziger Server soviele Daten produziert hätte, das ein FC HBA 100% Systemleistung belegt hat.
Praktisch hast Du allerdings ein viel größeres Problem, da Du nur einen einzigen Switch verwendest!
Auch wenn du ein Zoning auf dem Switch für beise Fabrics durchgeführt hast, erzeugst du somit einen "Single Point of Failure".
Sollte irgendetwas mit dem Switch nicht stimmen, fällt dein gesamtes SAN aus oder wird heruntergebremst!
Dies ist viel wahrscheinlicher als irgendein "Overload".
Bei nur zwei Hosts an einem Storage sollte es übrigens möglich sein, die Server "direct Attached", also ohne Switch, direkt anzuschließen.
Mir sind nur wenige Storages Bekannt welches dies nicht unterstützten...
Man kann (irgendeine) SAN Verbibndung in die "Sättigung" fahren, so das 100% der Bandbreite genutzt werden.
Das Ergebnis ist, das weniger Daten pro Sekunde transferiert werden können und daher auch die Latenzen des Storage steigen:
Der Speicher wird langsamer!
Dies ist aber eine rein theoretische Überlegung, denn ich habe in über 20 Jahren mit FC SAN noch nicht einmal erlebt, das ein einziger Server soviele Daten produziert hätte, das ein FC HBA 100% Systemleistung belegt hat.
Praktisch hast Du allerdings ein viel größeres Problem, da Du nur einen einzigen Switch verwendest!
Auch wenn du ein Zoning auf dem Switch für beise Fabrics durchgeführt hast, erzeugst du somit einen "Single Point of Failure".
Sollte irgendetwas mit dem Switch nicht stimmen, fällt dein gesamtes SAN aus oder wird heruntergebremst!
Dies ist viel wahrscheinlicher als irgendein "Overload".
Bei nur zwei Hosts an einem Storage sollte es übrigens möglich sein, die Server "direct Attached", also ohne Switch, direkt anzuschließen.
Mir sind nur wenige Storages Bekannt welches dies nicht unterstützten...
Zitat von @em-pie:
berechtigte Anmerkung/ Frage:
Meines Wissens nach sind das alles nur redundante PFade, denn am Host/ Storage definiert das System selbstsändig immer einen prefered path
Ansonsten wären die Storages / SVC-Knoten sogar mit 16G je fabric angebunden gewesen, hätten also Daten mit 32G wegschaufeln können...
Und dann mache ich mir eher GEdanken über die Innereien der angebundenen Systeme, ob die das alles so packen...
berechtigte Anmerkung/ Frage:
Meines Wissens nach sind das alles nur redundante PFade, denn am Host/ Storage definiert das System selbstsändig immer einen prefered path
Ansonsten wären die Storages / SVC-Knoten sogar mit 16G je fabric angebunden gewesen, hätten also Daten mit 32G wegschaufeln können...
Und dann mache ich mir eher GEdanken über die Innereien der angebundenen Systeme, ob die das alles so packen...
Es spielt keine Rolle, ob der Switch 8 oder 16 oder 32Gbit "kann"!
Wenn an einem 16 Gbit Switch 8Gbit FC Transceiver angeschlossen werden, verhält er sich wie ein 8Gbit Switch.
Selbst wenn alle Ports mit 16Gbt Moduken bestückt sind: Sind auf der Server oder Storage Seite nur 8Gbit Module vorhanden, werden die 16Gbit Module per Handshake in den 8Gbit Modus versetzt.
Einziger "Benefit" eines 16Gbit Switch in einer solchen Umgebung: Zumeist haben diese (Zumindes bei den Brocade) einen größeren Backbone und sind daher, wenn der unwahrscheinliche Fall eintritt und alle Ports gleichzeitig "Volldampf fahren" einen Geschwindigkeitsvorteil gegenüber einem 8Gbit Switch.
Ein weiterer Vorteil wäre, das die 8Gbit Technik mitlerweile "End of Live" ist und nur noch bei "Entry-Level-Storages" mit Festplatten verwendet wird.
Aktuelle Storages haben 16 oder 32Gbit/s. Die allerdings nur bei "All Flash" Storages ihre Vorteile voll ausspielen können.
Die meisten neuen Server unterstützen 8Gbit bereits nicht mehr.
Hier hätte der 16Gbit Switch den Vorteil die nächste Hardwaregeneration unterstützen zu können...