lochkartenstanzer
Goto Top

Kurze Umfrage: iSCSI über 1GBit-Ethernet

Moin Kollegen,

Bisher habe ich iSCSi nur selten benutzt udn dann auch nur temporär, bis lokaler Speicher verfügbar war. Ich denke momentan darüber nach, ob iSCSI über 1000BaseT produktiv sinnvoll ist, habe aber gerade kein (sinnvolles) Equiment zum selbst testen da.

Hat einer von Euch iSCSI über normales GBit-Ethernet im produktiven Einsatz und kann da mal aus dem Nähkästchen plaudern?

lks

Content-ID: 213134

Url: https://administrator.de/contentid/213134

Printed on: October 15, 2024 at 16:10 o'clock

Dani
Dani Aug 01, 2013 updated at 17:41:54 (UTC)
Goto Top
Moin lks,
wir haben noch eine kl. Plattform via iSCSi im Betrieb. Diese besteht aus sechs ESXi Servern. Wir haben zwei getrennte iSCSI-Netzwerke in dem jeder Server eine Netzwerkkarte hat. Als Storage wird eine alte Netapp FAS2040 eingesetzt, die jeweils mit 1Gbit/s in beiden Netzwerken hängt. Über Round-Robin wird die Last sehr gut verteilt.

Aktuell laufen darauf noch 56 Server. Die Datenpartition (z.B. Datenbanken) liegen auf LUNs und somit läuft der Traffic ebenfalls direkt über iSCSI. Es sind sowohl rechenintensive Anwendungen dabei (Finanzwesen) aber auch Anwendungen Zeiterfassung die immer wieder einen Datensatz verarbeiten. Die iSCSI Auslastung ist im Wochenschnitt bei ca. 60% angekommen. Klar, es gibt Tage wo die Netzwerkports an der Netapp auf 80% hochgehen aber es ist alles noch im Rahmen.


Grüße,
Dani
jsysde
jsysde Aug 01, 2013 at 17:19:41 (UTC)
Goto Top
N'Abend.

Wir betreiben unsere komplette Hyper-V-Umgebung inkl. CSV über iSCSI, wobei teilweise geteamte 1GB/s-Verbindungen zum Einsatz kommen. "Brot-und-Butter"-Server greifen aber via 1Gbit/s. iSCSI-Anbindung auf ihre (auf der NetApp bereitgestellten) Daten zu, das funktioniert in der Praxis tatsächlich erstaunlich gut.

Ich will das nicht als Pauschalaussage "Mach nur, geht schon" verstanden wissen, es spielen ja doch etliche Faktoren eine Rolle: Wieviel User, wieviele Spindeln, was für Platten und so weiter und so fort...

Natürlich wünsche ich mir an manchen Stellen im Netz mittlerweile mehr Power, aber das wird warten müssen, bis eine neue NetApp im Schrank hängt. Aber auch dann bleibt es bei iSCSI over Ethernet -eben 10GBE-, FC kommt mir nicht ins Haus (ich ducke mich schon, bevor die FC-Fraktion mir Ethernet-NICs nachwirft *g*). Ethernet ist da einfach flexibler und wenn 10GBE dann auch wieder zu schmal sind, kommt eben 40GBE. Und wenn alle Stricken reissen und FC irgendwie, irgendwo verlangt wird, kann man auch FC over Ethernet einsetzen. face-wink

Back2topic:
Diese iSCSI-Geschichte steht und fällt mit dem verwendeten Storage, ein NAS/SAN von Synology und Co. mag für ein paar Files duchaus ok sein, für mehrere Server und komplette Hyper-V-Umgebungen sind solche Kisten aber imho nicht zu gebrauchen, weil zu langsam und zu wenig "Hirn". Um temporär oder für drei User Speicherkapazität bereitzustellen tut es aber auch das Windows iSCSI Target, dass ja bei 2012 direkt als Feature eingerichtet werden kann - auch produktiv im Einsatz, für eben dieses Szenario: Wenige User, Bereitstellung der Daten via iSCSI-Lun, die im RAID eines Server 2012 liegt. Klappt tadellos.

Cheers,
jsysde
Lochkartenstanzer
Lochkartenstanzer Aug 01, 2013 at 17:35:50 (UTC)
Goto Top
Dake für die Rückmeldung:

Die Idee die mir vorschwebt, ist zwei "alte" Server (IBM x3650) , die irgendwann demnächst "frei" werden, mit einigen SSDs im RAID5 zu bestücken und diese per iscsi weiteren VMS zur Verfügung zu stellen., die dann per Softwareraid1 Ihre Daten auf diese beiden maschinen verteilen. Wegen SSDs sollte die IOPS unkritisch sein, Was mir eher Bedenken macht, ist die Obergrenze von knapp über 100MB/s für die Datenübertragung, die durch das medium vorgegeben ist wenn z.B. 4 VMs darauf zugreifen.

Da ich die Maschinen nicht zur verfügung habe, kann ich da leider noch keine Tests fahren und die "Spielmaschine", die mir momentan zur Verfügung stehen wären selbst begrenzende faktoren. face-smile

lks
clSchak
clSchak Aug 01, 2013 updated at 19:31:54 (UTC)
Goto Top
Hi

wir haben ausschließlich iSCSI im Einsatz, zum Teil 1Gb zum Teil 10Gb. Wie auch schon Dani schrieb werden die Links mit Round Robin gleichmäßig ausgelastet.

Wichtig sind allerdings auch die Switche die in Verwendung sind, von den gesamten Infrastruktur her ist iSCSI auf jeden Fall das günstigere gegenüber FC.

In einer Außenstelle nutzen wir Brocade FCX624S wo wir iSCSI und reguläres LAN über einen Switch laufen lassen, ohne jegliche Probleme.
Coreknabe
Coreknabe Aug 01, 2013 at 22:26:55 (UTC)
Goto Top
Back2topic:
Diese iSCSI-Geschichte steht und fällt mit dem verwendeten Storage, ein NAS/SAN von Synology und Co. mag für ein paar
Files duchaus ok sein, für mehrere Server und komplette Hyper-V-Umgebungen sind solche Kisten aber imho nicht zu gebrauchen,
weil zu langsam und zu wenig "Hirn".

Einspruch, Euer Ehren face-wink

Wir haben auf zwei HyperV Hosts 10 virtuelle Maschinen mit iSCSI auf einer ReadyNAS3100 laufen, darunter 1 Exchange 2007. Das läuft sehr gut und performant, solange man nicht auf die blöde Idee kommt, dynamisch wachsende Festplatten zu verwenden (eigene Erfahrung, war doof, nicht nachmachen!). Probleme gibt es allerdings dann, wenn mal eine Platte auf dem NAS ausfällt. Einstecken einer neuen Platte im laufenden Betrieb kann man trotz Hotswap getrost knicken, weil in 90% der Fälle Neustart des NAS fällig ist. Lässt man danach die VMs wieder laufen und der Neuaufbau des RAID startet, ist arbeiten nicht mehr möglich. Weiß nicht, wie das bei QNAP oder Synology ist, Netgear stelle ich da mal in ein Regal drunter. Würde mich aber mal interessieren, ob da jemand Erfahrung mit QNAP (oder auch Synology) hat.Insgesamt funktioniert die ReadyNAS-Kiste gut, aber mit Macken. Support ist auch nicht so dolle.

Gruß
clSchak
clSchak Aug 01, 2013 at 23:05:43 (UTC)
Goto Top
Deine von dir genannten Punkte "NAS Restart bei Plattenausfall" ist mal direkt ein 100% no Go in einer Produktiv Umgebung, da spart man echt am falschen Ende.

Naja ist jedem selbst überlassen, wenn der Ausfall von 10 Produktiv-Servern und vor allem Exchange keinerlei "Einfluss" auf dem Betrieb hat mag das gehen, würde bei uns aufgrund eines Festplattenausfalls ein Primärdienst wie Exchange für >1h ausfallen würden Köpfe rollen (wobei bei uns alle primären System voll redundant ausgelegt sind).
Coreknabe
Coreknabe Aug 02, 2013 at 06:09:17 (UTC)
Goto Top
Deine von dir genannten Punkte "NAS Restart bei Plattenausfall" ist mal direkt ein 100% no Go in einer Produktiv
Umgebung, da spart man echt am falschen Ende.

Richtig. So lernt man mit der Zeit face-wink
Aber nicht überall wird 100%ige Verfügbarkeit verlangt, bei uns z.B. ist das so, also solange grundsätzlich gearbeitet werden kann. Kommt natürlich auf die Branche an. Allerdings wird es durch immer einfacher werdende Möglichkeiten von HA weniger hingenommen, dass es überhaupt zu Ausfallzeiten kommt, ob das nun für das Unternehmen gebraucht wird oder nicht.

Den Plattentausch nehme ich aber logischerweise dann nicht während des Tagesbetriebes vor, sondern am späten Abend, morgens ist dann wieder alles gut. Ideal ist das natürlich nicht, da gebe ich Dir absolut Recht.
Lochkartenstanzer
Lochkartenstanzer Aug 02, 2013 at 06:47:40 (UTC)
Goto Top
Zitat von @Coreknabe:
Wir haben auf zwei HyperV Hosts 10 virtuelle Maschinen mit iSCSI auf einer ReadyNAS3100 laufen, darunter 1 Exchange 2007. Das
läuft sehr gut und performant, solange man nicht auf die blöde Idee kommt, dynamisch wachsende Festplatten zu verwenden ...

Das über eine oder mehrere 1000BaseT-Leitungen? Wäre vielversprechend.

lks
SlainteMhath
SlainteMhath Aug 02, 2013 at 06:52:12 (UTC)
Goto Top
Moin Lochi face-smile

wir setzten an ein paar kleineren Standorten (bis 10VMs auf 2-3 ESXIi) iSCSI ohne Probleme ein. (Hardware ist komplett von HP: DL380, Procurve 29xx, MSA2000) . Wenn man die Basics bei der Konfiguration (Jumboframes, Roundrobin) und entsprechende Redundanz beachtet, läuft das problemlos mit guter Performance.

lg,
Slainte
Dani
Dani Aug 02, 2013 at 07:27:58 (UTC)
Goto Top
Moin,
wir haben in einer Testumgebung einen Synology RSRP3412xs im HA-Setup am Laufen. Du merkst, dass die 10 SATA-Platten ein bisschen die Performance trüben. Wir haben in RAID6 + Hotpspare konfiguriert. Wir haben von den 4 LAN-SChnittstellen jeweils eine für LAN, eine für Heatbeat und zwei für iSCSI konfiguriert. Läuft alles prima vor sich hin.

Festplatte defekt, Defekte tauschen -> Rebuild läuft nebenher. Die CPU ist für sowas gut ausgelegt, wobei es eben ein Software-RAID ist. Das merkt man aber auch im Vergleich zu einer Netapp.

Am Ende wird das Setup aber nicht für iSCSI missbraucht, sondern unsere Überwachungsgeräte legen dort in Zukunft ihr Videomaterial ab. face-smile Aber wir spielen damit eben gerne...


Grüße,
Dani
psannz
psannz Aug 02, 2013 at 07:41:29 (UTC)
Goto Top
Sers,

Hab ebenfalls ein paar VMs auf nem iSCSI Target liegen. Host ist in dem Fall eine QNAP die ihren Dienst recht solide erledigt. Anbindung erfolgt geteamt über 2x Gbit. Funktioniert soweit auch ganz gut. Laufen tun drauf 5x VDI (1xMaster- & 5xUserDisk), Zeiterfassung, Lizenzmanagement und AV Management, ein Wiki und meine Inventarisierung.
Man muss sich halt bewusst sein dass es keine gute Idee ist parallel auf zig VMs im Target nen Vollbackup zu fahren und sich dann über die mieße Performance auf den anderen VMs zu wundern.

Du musst einfach bedenken dass du ja nicht auf allen VMs permanente IO Last hast, sondern die Last sich im Mittel recht gut verteilt. Da ist ein solides Storage fast wichtiger als die dicke der anbindenden Leitung. Bringt ja nix wenn du mit 10GE vom Storage runter gehst, aber das Ding intern nen Softwareraid auf Atombasis ist und bei 200 IOPS dicht macht. Drum prüfe wer sich bindet face-wink

Das schöne am Einstieg in iSCSI ist für mich dass du nicht extra eine neue Netzwerkinfrastruktur aufbauen musst. Mit vernünftiger vorhandener Hardware bist du schon recht gut aufgestellt.

Noch eine Randnotiz: Je nach Art der VMs kann hostbased caching verdammt viel bringen. Nehmen wir mal an du hast ne VDI mit 50 identischen Desktops. Wären also 50 User Disks und eine Master. Jetzt könntest du, um Bandbreite zu sparen, den Master auf dem VM Host cachen lassen und hast so im Normalbetrieb nur noch die Transfers der User Disks die über das iSCSI laufen.

Grüße,
Philip
Th0mKa
Th0mKa Aug 02, 2013 at 07:57:54 (UTC)
Goto Top
Moin,

wir betreiben u.a. 20 VMs auf einer Equalogic 4100X (24x 600GB 10k SAS) mit 2x 1GB iSCSI Anbindung. Auch Sachen wie Storage VMotion mehrerer VMs laufen damit gut. Just my 2 Cents...

VG,

Thomas
clSchak
clSchak Aug 02, 2013 at 08:11:36 (UTC)
Goto Top
... Apropo: wir haben als Storage mehrere Dell Equallogics PS4xxx und PS6xxxx Serien (inkl. Modellen mit SSD Acceleration), sowie zwei Knoten HP P4300 (Lefthand), diese sind unterschiedlich via 1Gb oder 10Gb angebunden. Die PS6xxxx laufen alle im DCB Modus an Brocade VDX Switchen, die restlichen an Brocade FCX Switchen.

Unsere SQL Server sind auch via 10Gb iSCSI an die EQL angebunden (sind keine VM`s) ohne jegliche Probleme.
Ragazzo
Ragazzo Aug 02, 2013 at 08:12:58 (UTC)
Goto Top
@Dani und Philip:
Läuft bei Euch das iSCSI über ein dedeziertes LAN, wie es bei SANs üblich?
Oder hängt das mit dem restlichen Datenverkehr im produktiven LAN zusammen?

Viele Grüße
Ragazzo

Zitat von @psannz:
Sers,

Hab ebenfalls ein paar VMs auf nem iSCSI Target liegen. Host ist in dem Fall eine QNAP die ihren Dienst recht solide erledigt.
Anbindung erfolgt geteamt über 2x Gbit. Funktioniert soweit auch ganz gut. Laufen tun drauf 5x VDI (1xMaster- &
5xUserDisk), Zeiterfassung, Lizenzmanagement und AV Management, ein Wiki und meine Inventarisierung.

Zitat von @Dani:
Moin,
wir haben in einer Testumgebung einen Synology RSRP3412xs im HA-Setup am Laufen. Du merkst, dass die 10 SATA-Platten ein bisschen
die Performance trüben. Wir haben in RAID6 + Hotpspare konfiguriert. Wir haben von den 4 LAN-SChnittstellen jeweils eine
für LAN, eine für Heatbeat und zwei für iSCSI konfiguriert. Läuft alles prima vor sich hin.
psannz
psannz Aug 02, 2013 at 08:53:07 (UTC)
Goto Top
@Ragazzo, läuft im eigenen VLAN, aber dennoch im regulären LAN. Mit "g'scheiten" Switches ist das eigentlich kein Problem solang du dir keine Flaschenhälse baust.
Ist immer eine Frage des Budgets und der Notwendigkeit. Klar, ich hätte gern eine vollständig redundante Architektur. Ein paar schöne MSA P3s mit 10GE. Die Wunschliste ist umfangreich. Und scheitert schlussendlich regelmäßig am Budget.

Wenn du gut planst ist auch ein iSCSI Netz im regulären Produktiv LAN möglich. Die Frage ob du auf die Storagerelevanten Funktionen eines schönen Juniper oder Brocade verzichten kannst musst du selbst beantworten.
Coreknabe
Coreknabe Aug 02, 2013 updated at 09:01:09 (UTC)
Goto Top
Moinsen,

danke für Eure Infos über Synology und QNAP, wäre also ne Überlegung wert... Netgear kommt mir jedenfalls nicht wieder ins Haus face-wink

@Dani: Rebuild der Synology startet dann ohne weiteres Dazutun? P.S.: Habe jetzt übrigens ne Barracuda NG 400 mit Spam Filter bestellt. Falls Du Dich noch dran erinnern solltest face-wink

@lks: Jeder HyperV-Server hat je zwei GB-Nics, eine zum Management, die andere für die VMs. An der ReadyNAS-Kiste klopfen dann beide Server über eine geteamte 1GB-Leitung, also effektiv 2GB. Ulkigerweise läuft das alles auf den Servern direkt langsamer, was mit den Platten zusammenhängt (oder Controller, habs mir nie genauer angesehen).Ist mir aufgefallen, als ich die VMs zwecks ReadyNAS-Wartung direkt auf die beiden Server umgezogen habe. Server sind beide HP ProLiant ML350 G6. Flaschenhals ist aber in jedem Fall bei uns die Schnelligkeit der Platten.

@psannz: Thema Backup im laufenden Betrieb. Auch hier wieder: Es kommt drauf an. Veeam Backup & Replication mal getestet? Ist sehr ressourcenfreundlich, Stichwort Backup-Proxy. Support ist auch super.

@Ragazzo: Läuft bei uns auch im selben Netz. Aber: Es kommt drauf an. Unser Netz ist jetzt nicht so groß, werde das aber eines Tages über VLAN trotzdem abtrennen.

Nächstes Jahr werden wir dann wahrscheinlich zum 5jährigen Jübiläum der Server was Neues anschaffen, dann mache ich mir auch Gedanken über ein neues SAN. Netapp finde ich für uns allerdings überdimensioniert, die alten Sachen dienen dann noch zum Testen, Spielen und Lösung für Notfälle.

Gruß
Dani
Dani Aug 02, 2013 updated at 09:05:39 (UTC)
Goto Top
@Ragazzo
Bei uns laufen iSCSI und LAN immer auf getrennten Switches und Kabel. Ohne VLANs, etc... Bei uns spielen die Kosten sekundäre Rolle... das System muss laufen. Falls es doch einer schafft die LAN-Switches zu beinträchtigen läuft iSCSI problemlos weiter. ist einfache eine Frage der Verfügbarkeit.

@psannz
Die Wunschliste ist umfangreich. Und scheitert schlussendlich regelmäßig am Budget.
Falsches Stratgie / Unternehmen. face-wink

@Coreknabe
Rebuild der Synology startet dann ohne weiteres Dazutun?
Normalerweiße schon... face-smile

Habe jetzt übrigens ne Barracuda NG 400 mit Spam Filter bestellt.
Bisschen groß für euch oder?


Grüße,
Dani
Deepsys
Deepsys Aug 02, 2013 at 09:16:36 (UTC)
Goto Top
Hi,

und mein Senf dazu aus einer anderen Ecke:
SAN läuft bei uns unter FC, aber ein älterer LTO3 Loader läuft über iSCSI, und das macht der zu 100% gut.
Dadurch das es eben iSCSI war, konnte der auch recht preisgünstig in einen anderen Brandabschnitt.

Der neue Loader war nur in FC zu bekommen, das war recht teuer, tut sich aber gegenüber dem iSCSI im Punkt Zuverlässigkeit nichts.
Ich hätte gerne wieder einen Loader mit iSCSI genommen, ist aber anscheinend out.

VG
Deepsys
Coreknabe
Coreknabe Aug 02, 2013 at 09:21:52 (UTC)
Goto Top
> Habe jetzt übrigens ne Barracuda NG 400 mit Spam Filter bestellt.
Bisschen groß für euch oder?


Ach wat, das Ding kann gar nicht groß genug sein, gerade bei den ganzen bösen Studenten (Hobby-Terroristen, wie ich neulich gehört habe).

Gruß
Ragazzo
Ragazzo Aug 05, 2013 at 04:52:55 (UTC)
Goto Top
@Dani:
Wie machst Du das mit der Synology, wenn dort noch andere Dienste laufen, die über das LAN erreichbar/konfigurierbar sein müssen.
Eine RS-xxx hat mehrere NICs. Aber Einstellung zum Zuweisen der Dienste zu NICs habe ich noch nicht gefunden.

Zitat von @Dani:
@Ragazzo
Bei uns laufen iSCSI und LAN immer auf getrennten Switches und Kabel. Ohne VLANs, etc... Bei uns spielen die Kosten sekundäre
Rolle... das System muss laufen. Falls es doch einer schafft die LAN-Switches zu beinträchtigen läuft iSCSI problemlos
weiter. ist einfache eine Frage der Verfügbarkeit.

Viele Grüße
Ragazzo
Dani
Dani Aug 05, 2013 at 07:13:18 (UTC)
Goto Top
Moin,
Wie machst Du das mit der Synology, wenn dort noch andere Dienste laufen, die über das LAN erreichbar/konfigurierbar sein müssen.
Wie es sich gehört, steht vor jedem RZ ein Firewall-Cluster wo per Regel definiert wird wer wo zugreifen darf. Daher ist es bei Synology nicht problematisch.


Grüße,
Dani
Ragazzo
Ragazzo Aug 05, 2013 at 07:39:03 (UTC)
Goto Top
Moin

meine Frage bezog sich auf die zuvor gestellte Frage mit einem dedizierten iSCSI-LAN.
Dies hat normalerweise keine Verbindung zum Produktiv-LAN

Daher das Thema mit der konfguration von NIC1 und NIC2 auf Seiten der Synology?

Viele Grüße
Ragazzo

Zitat von @Dani:
> Wie machst Du das mit der Synology, wenn dort noch andere Dienste laufen, die über das LAN erreichbar/konfigurierbar
sein müssen.
Wie es sich gehört, steht vor jedem RZ ein Firewall-Cluster wo per Regel definiert wird wer wo zugreifen darf. Daher ist es
bei Synology nicht problematisch.
Dani
Dani Aug 05, 2013 updated at 07:44:23 (UTC)
Goto Top
Moin,
Dies hat normalerweise keine Verbindung zum Produktiv-LAN
Richtig.

Daher das Thema mit der konfguration von NIC1 und NIC2 auf Seiten der Synology?
Die Synology hat vier NIC's drin. Nic 1 und 3 hängen in einem jeweils seperaten iSCSI-Netzwerk und 2-4 als Team im LAN.


Grüße,
Dani
jsysde
jsysde Aug 10, 2013 at 08:23:33 (UTC)
Goto Top
Moin moin,

Zitat von @Coreknabe:
solange man nicht auf die blöde Idee kommt, dynamisch wachsende Festplatten zu verwenden
Thin Provisioning ist auch nicht mein Lieblingsthema, macht aber bei entsprechendem Storage durchaus Sinn.

Probleme gibt es allerdings dann, wenn mal eine Platte auf dem NAS ausfällt.
Einstecken einer neuen Platte im laufenden Betrieb kann man trotz Hotswap getrost knicken, weil in 90% der Fälle Neustart des
NAS fällig ist.
Ein absolutes Ausschlusskriterium - solche Single-Points of failure will ich nicht im Produktiveinsatz haben.


Lässt man danach die VMs wieder laufen und der Neuaufbau des RAID startet, ist arbeiten nicht mehr möglich.
Ein weiteres Ausschlusskriterium - bei wenigen TB mag der Neuaufbau in einer Nacht durch und der Ausfall damit minimal sein. Bei uns läuft ne Synology als SAN für den DPM, die stellt 55TB bereit. Da dauert das knapp ne Woche, bis das SAN wieder voll einsatzbereit ist und während dieser Zeit sind Backups kaum möglich. Einer der Gründe, warum ich dieses Szenario nicht prickelnd finde; muss aber leider noch ne Weile damit leben...

Cheers,
jsysde
Ragazzo
Ragazzo Aug 11, 2013 at 20:32:26 (UTC)
Goto Top
@Dani

Vielen Dank für Deine Info.
Aber wie sagen ich den Diensten auf der Synology-Seite, dass iSCSI nur über NIC 1+3 und der Rest über 2+4 antworten bzw. senden soll?

Grüße,
Ragazzo

Zitat von @Dani:

Moin,
> Dies hat normalerweise keine Verbindung zum Produktiv-LAN
Richtig.

> Daher das Thema mit der konfguration von NIC1 und NIC2 auf Seiten der Synology?
Die Synology hat vier NIC's drin. Nic 1 und 3 hängen in einem jeweils seperaten iSCSI-Netzwerk und 2-4 als Team im LAN.
Dani
Dani Aug 11, 2013 at 22:55:36 (UTC)
Goto Top
@Ragazzo
Ganz einfach... verschiedene Subnetze. face-smile


Grüße,
Dani
Ragazzo
Ragazzo Aug 12, 2013 updated at 06:30:44 (UTC)
Goto Top
@Dani:

Du hast scheinbar meine Frage nicht verstanden. Oder ich verstehe Dich nicht.... face-sad

Subnetz, auch Teaming u.a. sind NIC-Einstellung.

Woher weiss ein Dienst (z.B. DS-Cloud, Dateizugriffe, etc.), dass diese nur NIC 2+4 verwendet werden sollen?
Und wie kann ich dem iSCSI-Dienst sagen, verwende ausschließlich NIC1+3?

Was hat das mit Subnetzen zu tun?
Wenn ich es falsch verstanden habe, bitte um ein Konfig-Beispiel. Danke.

Grüße,
Ragazzo


Zitat von @Dani:
@Ragazzo
Ganz einfach... verschiedene Subnetze. face-smile


Grüße,
Dani
Dani
Dani Aug 12, 2013 at 09:28:49 (UTC)
Goto Top
Moin,
also grundsätzlich lauschen die Dienste auf allen Ports/Teams. Durch getrennte Subnetze für iSCSI, LAN, etc... sind trotzdem alle Dienste über alles Ports ansprechbar. Das lässt so im Moment auch nicht ändern. Dafür gibt es aber die Firewall auf den Geräten. Einfach dort die entsprechenden Ports erlauben/verweigen und alles ist im Lot.


Grüße,
Dani
Lochkartenstanzer
Lochkartenstanzer Aug 18, 2013 at 11:10:40 (UTC)
Goto Top
Hallo,

Danke für alle die sich beteiligt haben Ich fühle mich inzwischen schlauer.

Die Quintessenz, die ich heir herausgelesen habe ist:

iSCSI über 1000BaseT ist für produktiveinsatz geeignet, wenn man folgendes beachtet:

  • dedizierte iSCSi-Targets
  • dediziertes LAN/VLAN
  • ordentliche switches
  • möglichst Teaming/Linkaggregation von mehreren Interfaces.

Sollte ich was vergessen haben, bitte ergänzen.

Ansonsten markiere ich die Frage mal als gelöst, wobei natürlich weitere Erfahrungsbereichte trotzdem noch gewünscht sind.

Grüße und nochmal Danke an die Kollegen,

lks