thecracked
Goto Top

ISCSI Konfiguration HP MSA

Hallo Zusammen,

ich habe heute eine neue HP MSA 1040 bekommen.
Diese hat zwei Controller mit je 2 ISCSI Ports.

Die 4 Ports werden über zwei switche mit jeweils zwei VMWARE hosts verbunden.


Ist es sinnvoll, dass das ISCSI Netzwerk in einem anderen Segment ist als das normale Hausnetzwerk?
Das Hausnetz ist ein 10.0.0.0 Netz.
In den ISCSI Anschlusseinstellungen muss für jeden Port (4x) eine eigene IP vergeben werden oder?

Beispiel:

ISCSI Port1 von Controller 1------------192.168.1.10
ISCSI Port2 von Controller 1------------192.168.1.11

ISCSI Port1 von Controller 2------------192.168.1.12
ISCSI Port2 von Controller 2------------192.168.1.13


Desweiteren gibt es hier noch die Möglichkeit, die Authentifizierung CHAP zu aktivieren.. Macht das sinn?

ISNS gibt es hier auch noch.. ?!?!

Jumbo Frames sind aktiv. Dies muss dann nur noch im Switch aktiviert werden oder?


Die alte SAN hatte FC. Habe deswegen noch nicht wirklich Erfahrung was ein ISCSI Netzwerk angeht.

Ich hoffe Ihr könnt mir ein wenig helfen.


Viele Grüße
Andy

Content-Key: 259205

Url: https://administrator.de/contentid/259205

Printed on: April 19, 2024 at 05:04 o'clock

Member: SlainteMhath
SlainteMhath Jan 08, 2015 at 14:45:09 (UTC)
Goto Top
Moin,

les dich doch erstmal selbst in die Materie ein. Empfehlen kann ich das hier: http://h50146.www5.hp.com/products/storage/whitepaper/pdfs/4AA4-6892ENW ...

lg,
Slainte
Member: Coreknabe
Solution Coreknabe Jan 08, 2015 updated at 15:23:37 (UTC)
Goto Top
Moin Andy,

habe das Thema gerade selbst durch, deshalb kann ich vielleicht ein wenig weiterhelfen face-smile

Ist es sinnvoll, dass das ISCSI Netzwerk in einem anderen Segment ist als das normale Hausnetzwerk?

Ja, absolut!

In den ISCSI Anschlusseinstellungen muss für jeden Port (4x) eine eigene IP vergeben werden oder?

Auffallend korrekt.
Dran denken, für die iSCSI-Netzwerkschnittstellen ALLE Bindungen außer TCP aufzuheben! Alles andere erzeugt unnütze Last.

Desweiteren gibt es hier noch die Möglichkeit, die Authentifizierung CHAP zu aktivieren.. Macht das sinn?
Ist sogar eigentlich Pflicht, besser noch beidseitig.

ISNS gibt es hier auch noch.. ?!?!
Na und?

Jumbo Frames sind aktiv. Dies muss dann nur noch im Switch aktiviert werden oder?
Korrekt. Muss an allen beteiligten Geräten aktiviert sein.

Gruß
Member: thecracked
thecracked Jan 08, 2015 at 15:27:14 (UTC)
Goto Top
Hallo,

danke schon mal für die Hilfe.
Ich habe mir mal das paper angesehen..

Hier steht eine Beispiel konfig:


MSA 1040 iSCSI:
Controller A port 1: 10.10.10.100
Controller A port 2: 10.11.10.110
Controller B port 1: 10.10.10.120
Controller B port 2: 10.11.10.130

Hier ist bei Controller A Port 2 und bei Controller B Port 2 ein anderer IP Bereich.
Warum? Wäre es denn falsch, wenn die auch in dem 10.10.10.x bleiben?

Grüße
Member: Coreknabe
Coreknabe Jan 08, 2015 at 15:31:50 (UTC)
Goto Top
Im Prinzip ist das nicht falsch, wenn alle in 10.10.10.x liegen. Habe aber beim Recherchieren gelesen, dass das Probleme machen KANN oder seltsame Effekte hervorruft. Definitiv hast Du jedenfalls die Netze getrennt, wenn Du nach dem Beispiel vorgehst.
Member: thecracked
thecracked Jan 08, 2015 at 15:36:01 (UTC)
Goto Top
ok dann werde ich es auch so trennen face-smile
Sicher ist sicher.

Merci
Member: aqui
aqui Jan 08, 2015 updated at 16:28:02 (UTC)
Goto Top
In den ISCSI Anschlusseinstellungen muss für jeden Port (4x) eine eigene IP vergeben werden oder?
Supportet diese Maschine kein 802.3ad Link Aggregation (Teaming, Bonding) mit LACP ??
Wenn nicht wäre das ja sehr ungewöhnlich und dann wäre die obige Vorgehensweise mit Einzel IPs schlicht falsch !
Normal fasst man ja entweder 2mal 2 oder alle 4 Links in einen virtuellen zusammen (Link Aggregation) um bei SCSI erheblich mehr Performance rauszuholen aus solch einem Anschluss. Das wäre der übliche Weg. Bei GiG Anschlüssen wären das dann 2 mal 2Gig oder ein 4 Gig LAG.
Klar ist dann auch das die Switch Infrastruktur das auch supporten muss, was aber alle heutigen aktuellen Billigswithces supporten sofern managebar. Markenswitches sowieso.

Wenn die ein Link Aggregation supporte ist das Konfigurieren von einzelnen IPs auf den Ports aber kontraproduktiv und auch falsch, denn eine Link Aggregation klappt immer nur im Layer 2 ! Die zentrale IP sitzt dann auf dem virtuellen Bonding Interface !
Das wäre dann eine State of the Art Installation für eine performante iSCSI Anbindung und solltest du zwingend überprüfen bevor du mit einer falschen Netzwerk Installation in Performanceengpässe kommst.
Denk immer dran das du erheblich verwöhnt bist von FC Performance und Zuverlässigkeit. Mit IP und einem Ethernet sieht die Welt da ganz anders aus wenn man es falsch macht !
Hiesige Forums Threads zum Thema Link Aggregation findest du hier:
Grunsatzfrage LAG
Link Aggregation zur Speederhöhung zwischen 2 Switches herstellen
Motherboard mit 2 Onboard LAN Anschlüssen
Traffic am Server auf 2 NICs verteilen
Kann man einen Server zur Performacesteigerung mit 2 Netzwerkkarten parallel an einem Switch betreiben? Wenn ja mit welcher Konfiguration ?
Bonding mit Broadcom - SLB
Link Aggregation - Frage zur Hash Configuration
Member: Dani
Dani Jan 09, 2015 at 00:07:15 (UTC)
Goto Top
Moin,
wenn Switches zum Einsatz kommen, welche Stackable sind kannst du ein Subnetz konfigurieren. Auf den Uplinks (Switch-Storages) LACP konfiguieren und jeweils ein Controllerport auf den anderen Switch. Falls das nicht machbar ist, solltest du zwei (physikalische) getrennte Netze aufbauen. Somit ha jeder Controllerport eine seperate IP-Adresse. In beiden Fällen sollst du Switches mit hoher Buffersize nutzen, nicht das es dort zum Engpass kommt.


Gruß,
Dani
Member: thecracked
thecracked Jan 09, 2015 at 07:19:06 (UTC)
Goto Top
Um die Ausfallsicherheit zu gewährleisten muss ich dann......
Controller A Port 1 und Controller B Port 1 zusammenfassen?
Das gleiche mit Controller A Port 2 und Controller B Port 2?

Diese Konfiguration sollte dann auf der HP MSA passieren oder?
Die Switche können es. Bei dem Storage habe ich noch nichts gefunden..
Member: SlainteMhath
SlainteMhath Jan 09, 2015 at 07:40:26 (UTC)
Goto Top
Das ganze ist Abhängig von den Hostsystemen die mit der Storage verbunden werden sollen.

Die getrennten Subnetze macht mann u.A. deswegen weil z.B. VMware nur 8 Pfade zur gleichen LUN "kann". Dabei muss kann man die Pfade aber auch trennen indem man 2 Switche ungestackt verwedentet und jeden mit jeweils nur einem Port pro Controller verbindet.

Controller A Port 1 und Controller B Port 1 zusammenfassen?
Das gleiche mit Controller A Port 2 und Controller B Port 2?
Richtig. Wobei dann natürlich (A-1/B-1) und (A-2/B-2) auch auf separaten Switches stecken müssen.

Diese Konfiguration sollte dann auf der HP MSA passieren oder?
Die Switche können es. Bei dem Storage habe ich noch nichts gefunden..
Was genau meinst du?

Vielleicht wär's auch sinnvoll wann du mal deine komplette SAN/Switch/Host Infrastruktur aufzeigtst, dann bekommst du auch bessere Tipps face-smile
Member: thecracked
thecracked Jan 09, 2015 at 07:53:25 (UTC)
Goto Top
Also so sieht die neue Umgebung mal aus:


2 identische HP Server. Auf den HP Servern wird VMWARE installiert. Das ganze wird ein Cluster.
Die beiden Hosts haben 2x2 1 G ISCSI Ports.
Es gibt zwei HP Switches nur für das ISCSI Netzwerk.
Dann gibt es noch eine HP SAN 1040 die auch 2x2 1G ISCSI Ports und zwei Controller hat.

Mir ist es wichtig, dass wen eine Komponente ausfällt, das System noch weiter läuft, deswegen auch die zwei switche.

Es macht auf jeden Fall sin, dass die 1 G Ports zu 2 G zusammengefasst werden.
Die Zusammenfassung der Ports auf den zwei Hosts wird meines Erachtens über VMWARE gemacht.

Jetzt stellt sich noch die Frage, ob ich die Port Zusammenfassung auf der HP SAN machen kann, da ich noch nichts gefunden habe.
Member: SlainteMhath
SlainteMhath Jan 09, 2015 at 08:04:39 (UTC)
Goto Top
Wenn du VMWare einsetzt solltest Du eher mit MPIO arbeiten als mit LACP.

BP von VMware gibts hier: http://www.vmware.com/files/pdf/iSCSI_design_deploy.pdf (ist dein Google eigentlich kapput? face-smile )

TL;DR:
Kein LACP sondern MPIO, Alle Pfade auf Round Robin umstellen, und Pfadswitch nach jedem IO
Member: thecracked
thecracked Jan 09, 2015 at 08:33:27 (UTC)
Goto Top
doch doch google geht face-smile
Also die MSA kann die Ports nicht zusammenfassen.
Das heißt, dass ich auf dem Switch dies machen muss oder?
Sollte doch funktionieren.

Danke für den vmware Link..
Member: SlainteMhath
SlainteMhath Jan 09, 2015 at 08:38:31 (UTC)
Goto Top
Das heißt, dass ich auf dem Switch dies machen muss oder?
Nein - LACP / 802.3ad muss auf BEIDEN SEITEN konfiguriert sein.
Member: thecracked
thecracked Jan 09, 2015 at 08:40:46 (UTC)
Goto Top
hm ok dann kann ich LACP nicht verwenden da die MSA dies nicht bietet..
Member: aqui
aqui Jan 09, 2015 updated at 10:37:56 (UTC)
Goto Top
Die getrennten Subnetze macht mann u.A. deswegen weil z.B. VMware nur 8 Pfade zur gleichen LUN "kann"
Was meinst du damit genau ??
Der "Pfad" in einem reinen L2 Netz ist immer fest vorgegeben durch Mac Adresse oder Uplink. Es kann in einem L2 Ethernet niemals mehrere Pfade geben !
Oder war das gemeint auf einen LACP Trunk bezogen ??
Auch da können so gut wie alle Switches nie mehr als 8 Links bündeln. Billighersteller supporten oft nur 4. Dort hast du also durch die Infrastruktur schon identische Vorgaben.
Oder meintest du jetzt was ganz anderes mit den "Pfaden" ??

Wobei dann natürlich (A-1/B-1) und (A-2/B-2) auch auf separaten Switches stecken müssen.
Warum ? Man definiert doch unterschiedliche Trunk Group IDs dafür auf dem Switch und trennt so sicher die LAGs !
Die beiden Hosts haben 2x2 1 G ISCSI Ports.
Die fast man zusammen mit einem LACP Trunk. Wie das geht unter VmWare ESXi kannst du hier nachlesen bzw. auch optisch sehen:
https://www.youtube.com/watch?v=VRZJL5QDBCU

Auf der Switch Seite musst du das natürlich auch einrichten. Wie das bei den HP Billiggurken geht sagt dir dieses Tutorial:
Netzwerk Management Server mit Raspberry Pi
Für dich sind da nur die gezeigten Switch Konfigs relevant !

Das ist doch ein simples, klassisches Trunking Design im iSCSI Umfeld ?!
Member: SlainteMhath
SlainteMhath Jan 09, 2015 updated at 10:47:41 (UTC)
Goto Top
@acqi
Beispiel:
Pfad = Initiator-NIC/Target-NIC Kombination.
Beispiel:
1 ESXi mit 2 ISCSI NICs (E1, E2) und 1 SAN mit 4 NICS (S1-S4) ergiebt 8 Pfade:
E1-S1, E1-S2, E1-S3, E1-S4
E2-S1, E2-S2, E2-S3, E2-S4
hat einer von beiden mehr NICs müssen die auf (L2 od. L3) getrennt werden, sonst erkennt VMware nicht mehr

> Wobei dann natürlich (A-1/B-1) und (A-2/B-2) auch auf separaten Switches stecken müssen.
Warum ?
Wg. Redundanz?

/EDIT:

Das ist doch ein simples, klassisches Trunking Design im iSCSI Umfeld ?!
Richtig. MPIO ist mE im SAN Umfeld (v.A. mit VMs) allerdings LACP überlegen.
Bei LACP fliest idR jeder einzelne Link (zur LUN) immer über den gleichen (Ethernet) Pfad.
Bei MPIO wird (falls korrekt konfiguriert) jeder einzelne IO über einen anderen Pfad ausgeführt. Die verfügbaren Pfade werden so also besser ausgelastet. Auch ist der Impact im falle eines Pfadausfalles um einiges kleiner.
Member: aqui
aqui Jan 09, 2015 updated at 10:47:06 (UTC)
Goto Top
1 ESXi mit 2 ISCSI NICs (E1, E2) und 1 SAN mit 4 NICS (S1-S4) ergiebt 8 Pfade:
OK, sorry, ich hatte die NUR Netzwerker Scheuklappen auf und die Endgeräte ignoriert. So macht es natürlich Sinn.
Wg. Redundanz?
Richtig, bei Billigswitches wie vermutlich die vom TO macht das Sinn. Verantwortugsvolle RZ Netzwerker setzen dafür Fabric fähige Switches ein oder solche die virtuelle LAGs supporten. (VCS oder VPC etc.) Mindestens aber welche die sich horizontal stacken lassen.
So kann man auch die Trunks in sich aufsplitten um noch mehr Sicherheit und auch Felxibilität zu bekommen um nur mal die wichtigstens Vorteile zu nennen.
Bei solchen Banal Installationen wie der obigen ist das aber ggf. zuviel des Guten. Zumal auch die dort verwendete billige Infrastruktur es gar nicht hergibt.
Member: SlainteMhath
SlainteMhath Jan 09, 2015 updated at 10:52:08 (UTC)
Goto Top
Verantwortugsvolle RZ Netzwerker setzen dafür Fabric fähige Switches ein oder solche die virtuelle LAGs supporten. (VCS oder VPC etc.) Mindestens aber welche die sich horizontal stacken lassen.
Da geb ich dir Recht. Nachdem allerdings eine MSA eingesetzt wird würde ich auch die Swtiche eher im ProCurve 2920er Bereich sehen face-smile - Was übrigens im SMB Bereich bis 3 Hosts / 10-15 VMs völlig ausreicht.
Member: aqui
aqui Jan 09, 2015 at 10:53:56 (UTC)
Goto Top
Na ja, wenn man mit dem mauen Paket Forwarding Durchsatz dieser Gurken leben kann stimmt das durchaus... face-wink