Frage zur iSCSI Anbindung einer NAS an VMware ESXi Server
Hallo zusammen,
die SuFu wirft jede Menge raus aber ich finde nicht was zu meiner Frage passt, es geht um die verschiedenen Möglichkeiten der iSCSI Anbindung.
Synology NAS mit 2 oder mehr NICs
ESXi Server mit 2 oder mehr NICs
Was ist nun sinnvoller?
- Alle NICs der NAS mit Link Aggregation zu einer bündeln und die mit dem Server verbinden
- Mit den einzelnen NICs mehrere iSCSI Targets erzeugen und alle mit dem Server verbinden
Ich muss dazu sagen das dieses ganze Multipathing Thema mit "Kupfer" recht neu für mich ist da ich bisher immer einfache Verbindungen z.B. mSAS hatte.
Dann würde mich noch interessieren ob Ihr in kleinen Umgebungen wirklich getrennte SAN Netze für iSCSI baut oder das im LAN belasst?
Wenn ich mal davon ausgehe alle NICs der NAS in ein getrenntes SAN Netz zu hängen, wie verwalte ich dann aus dem LAN die NAS? Hier fehlt halt der übliche Management Port den ein richtiges Storage mitbringt...
Viele Grüße
Tecron
die SuFu wirft jede Menge raus aber ich finde nicht was zu meiner Frage passt, es geht um die verschiedenen Möglichkeiten der iSCSI Anbindung.
Synology NAS mit 2 oder mehr NICs
ESXi Server mit 2 oder mehr NICs
Was ist nun sinnvoller?
- Alle NICs der NAS mit Link Aggregation zu einer bündeln und die mit dem Server verbinden
- Mit den einzelnen NICs mehrere iSCSI Targets erzeugen und alle mit dem Server verbinden
Ich muss dazu sagen das dieses ganze Multipathing Thema mit "Kupfer" recht neu für mich ist da ich bisher immer einfache Verbindungen z.B. mSAS hatte.
Dann würde mich noch interessieren ob Ihr in kleinen Umgebungen wirklich getrennte SAN Netze für iSCSI baut oder das im LAN belasst?
Wenn ich mal davon ausgehe alle NICs der NAS in ein getrenntes SAN Netz zu hängen, wie verwalte ich dann aus dem LAN die NAS? Hier fehlt halt der übliche Management Port den ein richtiges Storage mitbringt...
Viele Grüße
Tecron
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 283298
Url: https://administrator.de/forum/frage-zur-iscsi-anbindung-einer-nas-an-vmware-esxi-server-283298.html
Ausgedruckt am: 15.05.2025 um 10:05 Uhr
4 Kommentare
Neuester Kommentar
es kommt drauf an...
wie schnell (1GBit? 10GBit?), wie viele (Server, Targets), wie wichtig?
welche Switch(e) dazwischen?
wenn der Single-Point-Of-Failure weg soll, muß Multipathing und getrennte Switche sein, der Management-Datenstrom ist unerheblich und kann gerne über die gleiche Leitung gehen, die Trennung aus Sicherheitsgründen entfällt hier wohl (?)
SAN-/NAS- und LAN-Verkehr gehören getrennt, da die Latenz doch zu stark leidet, wenn beides überhaupt vernüftig ausgelastet wird (aber auch hier die Frage, wieviel Last/VMs/Server), wenn 10Gbit gemeint ist, wäre für mich auch schon 8Gbit FC-SAN im Spiel und finanziell im Rahmen.
Die NICs können Offload?
HG
Mark
wie schnell (1GBit? 10GBit?), wie viele (Server, Targets), wie wichtig?
welche Switch(e) dazwischen?
wenn der Single-Point-Of-Failure weg soll, muß Multipathing und getrennte Switche sein, der Management-Datenstrom ist unerheblich und kann gerne über die gleiche Leitung gehen, die Trennung aus Sicherheitsgründen entfällt hier wohl (?)
SAN-/NAS- und LAN-Verkehr gehören getrennt, da die Latenz doch zu stark leidet, wenn beides überhaupt vernüftig ausgelastet wird (aber auch hier die Frage, wieviel Last/VMs/Server), wenn 10Gbit gemeint ist, wäre für mich auch schon 8Gbit FC-SAN im Spiel und finanziell im Rahmen.
Die NICs können Offload?
HG
Mark
Hi
bei iSCSI idealerweise kein LACP / Trunk oder ähnliches damit Multipathing korrekt funktioniert. Und bei gescheiter Hardware kannst den gesamten Traffic auch über einen Switch laufen lassen (mit gescheiter Hardware ist die Latenz auch kein Problem mehr). Und er Management Datenstrom ist nicht unerheblich wenn du mit vMotion, Fault-Tolerance usw. arbeiten willst.
Bei 10Gb Technik kannst auch mit DCB arbeiten, damit kannst dann den gesamten Traffic über jeden Port leiten.
Gruß
@clSchak
bei iSCSI idealerweise kein LACP / Trunk oder ähnliches damit Multipathing korrekt funktioniert. Und bei gescheiter Hardware kannst den gesamten Traffic auch über einen Switch laufen lassen (mit gescheiter Hardware ist die Latenz auch kein Problem mehr). Und er Management Datenstrom ist nicht unerheblich wenn du mit vMotion, Fault-Tolerance usw. arbeiten willst.
Bei 10Gb Technik kannst auch mit DCB arbeiten, damit kannst dann den gesamten Traffic über jeden Port leiten.
Gruß
@clSchak
Hallo,
hier empfiehlt sich iSCSI mit Multipath I/O. (MPIO)
Für Synologie und ESXi ist das hier beschrieben:
http://forum.synology.com/MediaWiki/index.php?title=How_to_use_iSCSI_Ta ...
Sinnvollerweise werden am Host und dem NAS eine gleiche Anzahl von NICs verwendet und diese in je einem exklusiven (V)LANs miteinander verbunden. Dazu JumboFrames aktivieren auf ESXi, NAS und Switches.
http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&am ...
Wenn dein NAS keine freie NIC fürs Management hat, musst du zwangsweise eine Verbindung zu einem der verwendeten LANs fürs Management herstellen, auch wenn das natürlich nicht optimal ist. Am besten aber in ein eigenes VLAN und per Routing.
Gruß
hier empfiehlt sich iSCSI mit Multipath I/O. (MPIO)
Für Synologie und ESXi ist das hier beschrieben:
http://forum.synology.com/MediaWiki/index.php?title=How_to_use_iSCSI_Ta ...
Sinnvollerweise werden am Host und dem NAS eine gleiche Anzahl von NICs verwendet und diese in je einem exklusiven (V)LANs miteinander verbunden. Dazu JumboFrames aktivieren auf ESXi, NAS und Switches.
http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&am ...
Wenn dein NAS keine freie NIC fürs Management hat, musst du zwangsweise eine Verbindung zu einem der verwendeten LANs fürs Management herstellen, auch wenn das natürlich nicht optimal ist. Am besten aber in ein eigenes VLAN und per Routing.
Gruß