Kurze Umfrage: iSCSI über 1GBit-Ethernet
Moin Kollegen,
Bisher habe ich iSCSi nur selten benutzt udn dann auch nur temporär, bis lokaler Speicher verfügbar war. Ich denke momentan darüber nach, ob iSCSI über 1000BaseT produktiv sinnvoll ist, habe aber gerade kein (sinnvolles) Equiment zum selbst testen da.
Hat einer von Euch iSCSI über normales GBit-Ethernet im produktiven Einsatz und kann da mal aus dem Nähkästchen plaudern?
lks
Bisher habe ich iSCSi nur selten benutzt udn dann auch nur temporär, bis lokaler Speicher verfügbar war. Ich denke momentan darüber nach, ob iSCSI über 1000BaseT produktiv sinnvoll ist, habe aber gerade kein (sinnvolles) Equiment zum selbst testen da.
Hat einer von Euch iSCSI über normales GBit-Ethernet im produktiven Einsatz und kann da mal aus dem Nähkästchen plaudern?
lks
Please also mark the comments that contributed to the solution of the article
Content-ID: 213134
Url: https://administrator.de/contentid/213134
Printed on: October 15, 2024 at 16:10 o'clock
29 Comments
Latest comment
Moin lks,
wir haben noch eine kl. Plattform via iSCSi im Betrieb. Diese besteht aus sechs ESXi Servern. Wir haben zwei getrennte iSCSI-Netzwerke in dem jeder Server eine Netzwerkkarte hat. Als Storage wird eine alte Netapp FAS2040 eingesetzt, die jeweils mit 1Gbit/s in beiden Netzwerken hängt. Über Round-Robin wird die Last sehr gut verteilt.
Aktuell laufen darauf noch 56 Server. Die Datenpartition (z.B. Datenbanken) liegen auf LUNs und somit läuft der Traffic ebenfalls direkt über iSCSI. Es sind sowohl rechenintensive Anwendungen dabei (Finanzwesen) aber auch Anwendungen Zeiterfassung die immer wieder einen Datensatz verarbeiten. Die iSCSI Auslastung ist im Wochenschnitt bei ca. 60% angekommen. Klar, es gibt Tage wo die Netzwerkports an der Netapp auf 80% hochgehen aber es ist alles noch im Rahmen.
Grüße,
Dani
wir haben noch eine kl. Plattform via iSCSi im Betrieb. Diese besteht aus sechs ESXi Servern. Wir haben zwei getrennte iSCSI-Netzwerke in dem jeder Server eine Netzwerkkarte hat. Als Storage wird eine alte Netapp FAS2040 eingesetzt, die jeweils mit 1Gbit/s in beiden Netzwerken hängt. Über Round-Robin wird die Last sehr gut verteilt.
Aktuell laufen darauf noch 56 Server. Die Datenpartition (z.B. Datenbanken) liegen auf LUNs und somit läuft der Traffic ebenfalls direkt über iSCSI. Es sind sowohl rechenintensive Anwendungen dabei (Finanzwesen) aber auch Anwendungen Zeiterfassung die immer wieder einen Datensatz verarbeiten. Die iSCSI Auslastung ist im Wochenschnitt bei ca. 60% angekommen. Klar, es gibt Tage wo die Netzwerkports an der Netapp auf 80% hochgehen aber es ist alles noch im Rahmen.
Grüße,
Dani
N'Abend.
Wir betreiben unsere komplette Hyper-V-Umgebung inkl. CSV über iSCSI, wobei teilweise geteamte 1GB/s-Verbindungen zum Einsatz kommen. "Brot-und-Butter"-Server greifen aber via 1Gbit/s. iSCSI-Anbindung auf ihre (auf der NetApp bereitgestellten) Daten zu, das funktioniert in der Praxis tatsächlich erstaunlich gut.
Ich will das nicht als Pauschalaussage "Mach nur, geht schon" verstanden wissen, es spielen ja doch etliche Faktoren eine Rolle: Wieviel User, wieviele Spindeln, was für Platten und so weiter und so fort...
Natürlich wünsche ich mir an manchen Stellen im Netz mittlerweile mehr Power, aber das wird warten müssen, bis eine neue NetApp im Schrank hängt. Aber auch dann bleibt es bei iSCSI over Ethernet -eben 10GBE-, FC kommt mir nicht ins Haus (ich ducke mich schon, bevor die FC-Fraktion mir Ethernet-NICs nachwirft *g*). Ethernet ist da einfach flexibler und wenn 10GBE dann auch wieder zu schmal sind, kommt eben 40GBE. Und wenn alle Stricken reissen und FC irgendwie, irgendwo verlangt wird, kann man auch FC over Ethernet einsetzen.
Back2topic:
Diese iSCSI-Geschichte steht und fällt mit dem verwendeten Storage, ein NAS/SAN von Synology und Co. mag für ein paar Files duchaus ok sein, für mehrere Server und komplette Hyper-V-Umgebungen sind solche Kisten aber imho nicht zu gebrauchen, weil zu langsam und zu wenig "Hirn". Um temporär oder für drei User Speicherkapazität bereitzustellen tut es aber auch das Windows iSCSI Target, dass ja bei 2012 direkt als Feature eingerichtet werden kann - auch produktiv im Einsatz, für eben dieses Szenario: Wenige User, Bereitstellung der Daten via iSCSI-Lun, die im RAID eines Server 2012 liegt. Klappt tadellos.
Cheers,
jsysde
Wir betreiben unsere komplette Hyper-V-Umgebung inkl. CSV über iSCSI, wobei teilweise geteamte 1GB/s-Verbindungen zum Einsatz kommen. "Brot-und-Butter"-Server greifen aber via 1Gbit/s. iSCSI-Anbindung auf ihre (auf der NetApp bereitgestellten) Daten zu, das funktioniert in der Praxis tatsächlich erstaunlich gut.
Ich will das nicht als Pauschalaussage "Mach nur, geht schon" verstanden wissen, es spielen ja doch etliche Faktoren eine Rolle: Wieviel User, wieviele Spindeln, was für Platten und so weiter und so fort...
Natürlich wünsche ich mir an manchen Stellen im Netz mittlerweile mehr Power, aber das wird warten müssen, bis eine neue NetApp im Schrank hängt. Aber auch dann bleibt es bei iSCSI over Ethernet -eben 10GBE-, FC kommt mir nicht ins Haus (ich ducke mich schon, bevor die FC-Fraktion mir Ethernet-NICs nachwirft *g*). Ethernet ist da einfach flexibler und wenn 10GBE dann auch wieder zu schmal sind, kommt eben 40GBE. Und wenn alle Stricken reissen und FC irgendwie, irgendwo verlangt wird, kann man auch FC over Ethernet einsetzen.
Back2topic:
Diese iSCSI-Geschichte steht und fällt mit dem verwendeten Storage, ein NAS/SAN von Synology und Co. mag für ein paar Files duchaus ok sein, für mehrere Server und komplette Hyper-V-Umgebungen sind solche Kisten aber imho nicht zu gebrauchen, weil zu langsam und zu wenig "Hirn". Um temporär oder für drei User Speicherkapazität bereitzustellen tut es aber auch das Windows iSCSI Target, dass ja bei 2012 direkt als Feature eingerichtet werden kann - auch produktiv im Einsatz, für eben dieses Szenario: Wenige User, Bereitstellung der Daten via iSCSI-Lun, die im RAID eines Server 2012 liegt. Klappt tadellos.
Cheers,
jsysde
Hi
wir haben ausschließlich iSCSI im Einsatz, zum Teil 1Gb zum Teil 10Gb. Wie auch schon Dani schrieb werden die Links mit Round Robin gleichmäßig ausgelastet.
Wichtig sind allerdings auch die Switche die in Verwendung sind, von den gesamten Infrastruktur her ist iSCSI auf jeden Fall das günstigere gegenüber FC.
In einer Außenstelle nutzen wir Brocade FCX624S wo wir iSCSI und reguläres LAN über einen Switch laufen lassen, ohne jegliche Probleme.
wir haben ausschließlich iSCSI im Einsatz, zum Teil 1Gb zum Teil 10Gb. Wie auch schon Dani schrieb werden die Links mit Round Robin gleichmäßig ausgelastet.
Wichtig sind allerdings auch die Switche die in Verwendung sind, von den gesamten Infrastruktur her ist iSCSI auf jeden Fall das günstigere gegenüber FC.
In einer Außenstelle nutzen wir Brocade FCX624S wo wir iSCSI und reguläres LAN über einen Switch laufen lassen, ohne jegliche Probleme.
Back2topic:
Diese iSCSI-Geschichte steht und fällt mit dem verwendeten Storage, ein NAS/SAN von Synology und Co. mag für ein paar
Files duchaus ok sein, für mehrere Server und komplette Hyper-V-Umgebungen sind solche Kisten aber imho nicht zu gebrauchen,
weil zu langsam und zu wenig "Hirn".
Diese iSCSI-Geschichte steht und fällt mit dem verwendeten Storage, ein NAS/SAN von Synology und Co. mag für ein paar
Files duchaus ok sein, für mehrere Server und komplette Hyper-V-Umgebungen sind solche Kisten aber imho nicht zu gebrauchen,
weil zu langsam und zu wenig "Hirn".
Einspruch, Euer Ehren
Wir haben auf zwei HyperV Hosts 10 virtuelle Maschinen mit iSCSI auf einer ReadyNAS3100 laufen, darunter 1 Exchange 2007. Das läuft sehr gut und performant, solange man nicht auf die blöde Idee kommt, dynamisch wachsende Festplatten zu verwenden (eigene Erfahrung, war doof, nicht nachmachen!). Probleme gibt es allerdings dann, wenn mal eine Platte auf dem NAS ausfällt. Einstecken einer neuen Platte im laufenden Betrieb kann man trotz Hotswap getrost knicken, weil in 90% der Fälle Neustart des NAS fällig ist. Lässt man danach die VMs wieder laufen und der Neuaufbau des RAID startet, ist arbeiten nicht mehr möglich. Weiß nicht, wie das bei QNAP oder Synology ist, Netgear stelle ich da mal in ein Regal drunter. Würde mich aber mal interessieren, ob da jemand Erfahrung mit QNAP (oder auch Synology) hat.Insgesamt funktioniert die ReadyNAS-Kiste gut, aber mit Macken. Support ist auch nicht so dolle.
Gruß
Deine von dir genannten Punkte "NAS Restart bei Plattenausfall" ist mal direkt ein 100% no Go in einer Produktiv Umgebung, da spart man echt am falschen Ende.
Naja ist jedem selbst überlassen, wenn der Ausfall von 10 Produktiv-Servern und vor allem Exchange keinerlei "Einfluss" auf dem Betrieb hat mag das gehen, würde bei uns aufgrund eines Festplattenausfalls ein Primärdienst wie Exchange für >1h ausfallen würden Köpfe rollen (wobei bei uns alle primären System voll redundant ausgelegt sind).
Naja ist jedem selbst überlassen, wenn der Ausfall von 10 Produktiv-Servern und vor allem Exchange keinerlei "Einfluss" auf dem Betrieb hat mag das gehen, würde bei uns aufgrund eines Festplattenausfalls ein Primärdienst wie Exchange für >1h ausfallen würden Köpfe rollen (wobei bei uns alle primären System voll redundant ausgelegt sind).
Deine von dir genannten Punkte "NAS Restart bei Plattenausfall" ist mal direkt ein 100% no Go in einer Produktiv
Umgebung, da spart man echt am falschen Ende.
Umgebung, da spart man echt am falschen Ende.
Richtig. So lernt man mit der Zeit
Aber nicht überall wird 100%ige Verfügbarkeit verlangt, bei uns z.B. ist das so, also solange grundsätzlich gearbeitet werden kann. Kommt natürlich auf die Branche an. Allerdings wird es durch immer einfacher werdende Möglichkeiten von HA weniger hingenommen, dass es überhaupt zu Ausfallzeiten kommt, ob das nun für das Unternehmen gebraucht wird oder nicht.
Den Plattentausch nehme ich aber logischerweise dann nicht während des Tagesbetriebes vor, sondern am späten Abend, morgens ist dann wieder alles gut. Ideal ist das natürlich nicht, da gebe ich Dir absolut Recht.
Moin Lochi
wir setzten an ein paar kleineren Standorten (bis 10VMs auf 2-3 ESXIi) iSCSI ohne Probleme ein. (Hardware ist komplett von HP: DL380, Procurve 29xx, MSA2000) . Wenn man die Basics bei der Konfiguration (Jumboframes, Roundrobin) und entsprechende Redundanz beachtet, läuft das problemlos mit guter Performance.
lg,
Slainte
wir setzten an ein paar kleineren Standorten (bis 10VMs auf 2-3 ESXIi) iSCSI ohne Probleme ein. (Hardware ist komplett von HP: DL380, Procurve 29xx, MSA2000) . Wenn man die Basics bei der Konfiguration (Jumboframes, Roundrobin) und entsprechende Redundanz beachtet, läuft das problemlos mit guter Performance.
lg,
Slainte
Moin,
wir haben in einer Testumgebung einen Synology RSRP3412xs im HA-Setup am Laufen. Du merkst, dass die 10 SATA-Platten ein bisschen die Performance trüben. Wir haben in RAID6 + Hotpspare konfiguriert. Wir haben von den 4 LAN-SChnittstellen jeweils eine für LAN, eine für Heatbeat und zwei für iSCSI konfiguriert. Läuft alles prima vor sich hin.
Festplatte defekt, Defekte tauschen -> Rebuild läuft nebenher. Die CPU ist für sowas gut ausgelegt, wobei es eben ein Software-RAID ist. Das merkt man aber auch im Vergleich zu einer Netapp.
Am Ende wird das Setup aber nicht für iSCSI missbraucht, sondern unsere Überwachungsgeräte legen dort in Zukunft ihr Videomaterial ab. Aber wir spielen damit eben gerne...
Grüße,
Dani
wir haben in einer Testumgebung einen Synology RSRP3412xs im HA-Setup am Laufen. Du merkst, dass die 10 SATA-Platten ein bisschen die Performance trüben. Wir haben in RAID6 + Hotpspare konfiguriert. Wir haben von den 4 LAN-SChnittstellen jeweils eine für LAN, eine für Heatbeat und zwei für iSCSI konfiguriert. Läuft alles prima vor sich hin.
Festplatte defekt, Defekte tauschen -> Rebuild läuft nebenher. Die CPU ist für sowas gut ausgelegt, wobei es eben ein Software-RAID ist. Das merkt man aber auch im Vergleich zu einer Netapp.
Am Ende wird das Setup aber nicht für iSCSI missbraucht, sondern unsere Überwachungsgeräte legen dort in Zukunft ihr Videomaterial ab. Aber wir spielen damit eben gerne...
Grüße,
Dani
Sers,
Hab ebenfalls ein paar VMs auf nem iSCSI Target liegen. Host ist in dem Fall eine QNAP die ihren Dienst recht solide erledigt. Anbindung erfolgt geteamt über 2x Gbit. Funktioniert soweit auch ganz gut. Laufen tun drauf 5x VDI (1xMaster- & 5xUserDisk), Zeiterfassung, Lizenzmanagement und AV Management, ein Wiki und meine Inventarisierung.
Man muss sich halt bewusst sein dass es keine gute Idee ist parallel auf zig VMs im Target nen Vollbackup zu fahren und sich dann über die mieße Performance auf den anderen VMs zu wundern.
Du musst einfach bedenken dass du ja nicht auf allen VMs permanente IO Last hast, sondern die Last sich im Mittel recht gut verteilt. Da ist ein solides Storage fast wichtiger als die dicke der anbindenden Leitung. Bringt ja nix wenn du mit 10GE vom Storage runter gehst, aber das Ding intern nen Softwareraid auf Atombasis ist und bei 200 IOPS dicht macht. Drum prüfe wer sich bindet
Das schöne am Einstieg in iSCSI ist für mich dass du nicht extra eine neue Netzwerkinfrastruktur aufbauen musst. Mit vernünftiger vorhandener Hardware bist du schon recht gut aufgestellt.
Noch eine Randnotiz: Je nach Art der VMs kann hostbased caching verdammt viel bringen. Nehmen wir mal an du hast ne VDI mit 50 identischen Desktops. Wären also 50 User Disks und eine Master. Jetzt könntest du, um Bandbreite zu sparen, den Master auf dem VM Host cachen lassen und hast so im Normalbetrieb nur noch die Transfers der User Disks die über das iSCSI laufen.
Grüße,
Philip
Hab ebenfalls ein paar VMs auf nem iSCSI Target liegen. Host ist in dem Fall eine QNAP die ihren Dienst recht solide erledigt. Anbindung erfolgt geteamt über 2x Gbit. Funktioniert soweit auch ganz gut. Laufen tun drauf 5x VDI (1xMaster- & 5xUserDisk), Zeiterfassung, Lizenzmanagement und AV Management, ein Wiki und meine Inventarisierung.
Man muss sich halt bewusst sein dass es keine gute Idee ist parallel auf zig VMs im Target nen Vollbackup zu fahren und sich dann über die mieße Performance auf den anderen VMs zu wundern.
Du musst einfach bedenken dass du ja nicht auf allen VMs permanente IO Last hast, sondern die Last sich im Mittel recht gut verteilt. Da ist ein solides Storage fast wichtiger als die dicke der anbindenden Leitung. Bringt ja nix wenn du mit 10GE vom Storage runter gehst, aber das Ding intern nen Softwareraid auf Atombasis ist und bei 200 IOPS dicht macht. Drum prüfe wer sich bindet
Das schöne am Einstieg in iSCSI ist für mich dass du nicht extra eine neue Netzwerkinfrastruktur aufbauen musst. Mit vernünftiger vorhandener Hardware bist du schon recht gut aufgestellt.
Noch eine Randnotiz: Je nach Art der VMs kann hostbased caching verdammt viel bringen. Nehmen wir mal an du hast ne VDI mit 50 identischen Desktops. Wären also 50 User Disks und eine Master. Jetzt könntest du, um Bandbreite zu sparen, den Master auf dem VM Host cachen lassen und hast so im Normalbetrieb nur noch die Transfers der User Disks die über das iSCSI laufen.
Grüße,
Philip
... Apropo: wir haben als Storage mehrere Dell Equallogics PS4xxx und PS6xxxx Serien (inkl. Modellen mit SSD Acceleration), sowie zwei Knoten HP P4300 (Lefthand), diese sind unterschiedlich via 1Gb oder 10Gb angebunden. Die PS6xxxx laufen alle im DCB Modus an Brocade VDX Switchen, die restlichen an Brocade FCX Switchen.
Unsere SQL Server sind auch via 10Gb iSCSI an die EQL angebunden (sind keine VM`s) ohne jegliche Probleme.
Unsere SQL Server sind auch via 10Gb iSCSI an die EQL angebunden (sind keine VM`s) ohne jegliche Probleme.
@Dani und Philip:
Läuft bei Euch das iSCSI über ein dedeziertes LAN, wie es bei SANs üblich?
Oder hängt das mit dem restlichen Datenverkehr im produktiven LAN zusammen?
Viele Grüße
Ragazzo
Läuft bei Euch das iSCSI über ein dedeziertes LAN, wie es bei SANs üblich?
Oder hängt das mit dem restlichen Datenverkehr im produktiven LAN zusammen?
Viele Grüße
Ragazzo
Zitat von @psannz:
Sers,
Hab ebenfalls ein paar VMs auf nem iSCSI Target liegen. Host ist in dem Fall eine QNAP die ihren Dienst recht solide erledigt.
Anbindung erfolgt geteamt über 2x Gbit. Funktioniert soweit auch ganz gut. Laufen tun drauf 5x VDI (1xMaster- &
5xUserDisk), Zeiterfassung, Lizenzmanagement und AV Management, ein Wiki und meine Inventarisierung.
Sers,
Hab ebenfalls ein paar VMs auf nem iSCSI Target liegen. Host ist in dem Fall eine QNAP die ihren Dienst recht solide erledigt.
Anbindung erfolgt geteamt über 2x Gbit. Funktioniert soweit auch ganz gut. Laufen tun drauf 5x VDI (1xMaster- &
5xUserDisk), Zeiterfassung, Lizenzmanagement und AV Management, ein Wiki und meine Inventarisierung.
Zitat von @Dani:
Moin,
wir haben in einer Testumgebung einen Synology RSRP3412xs im HA-Setup am Laufen. Du merkst, dass die 10 SATA-Platten ein bisschen
die Performance trüben. Wir haben in RAID6 + Hotpspare konfiguriert. Wir haben von den 4 LAN-SChnittstellen jeweils eine
für LAN, eine für Heatbeat und zwei für iSCSI konfiguriert. Läuft alles prima vor sich hin.
Moin,
wir haben in einer Testumgebung einen Synology RSRP3412xs im HA-Setup am Laufen. Du merkst, dass die 10 SATA-Platten ein bisschen
die Performance trüben. Wir haben in RAID6 + Hotpspare konfiguriert. Wir haben von den 4 LAN-SChnittstellen jeweils eine
für LAN, eine für Heatbeat und zwei für iSCSI konfiguriert. Läuft alles prima vor sich hin.
@Ragazzo, läuft im eigenen VLAN, aber dennoch im regulären LAN. Mit "g'scheiten" Switches ist das eigentlich kein Problem solang du dir keine Flaschenhälse baust.
Ist immer eine Frage des Budgets und der Notwendigkeit. Klar, ich hätte gern eine vollständig redundante Architektur. Ein paar schöne MSA P3s mit 10GE. Die Wunschliste ist umfangreich. Und scheitert schlussendlich regelmäßig am Budget.
Wenn du gut planst ist auch ein iSCSI Netz im regulären Produktiv LAN möglich. Die Frage ob du auf die Storagerelevanten Funktionen eines schönen Juniper oder Brocade verzichten kannst musst du selbst beantworten.
Ist immer eine Frage des Budgets und der Notwendigkeit. Klar, ich hätte gern eine vollständig redundante Architektur. Ein paar schöne MSA P3s mit 10GE. Die Wunschliste ist umfangreich. Und scheitert schlussendlich regelmäßig am Budget.
Wenn du gut planst ist auch ein iSCSI Netz im regulären Produktiv LAN möglich. Die Frage ob du auf die Storagerelevanten Funktionen eines schönen Juniper oder Brocade verzichten kannst musst du selbst beantworten.
Moinsen,
danke für Eure Infos über Synology und QNAP, wäre also ne Überlegung wert... Netgear kommt mir jedenfalls nicht wieder ins Haus
@Dani: Rebuild der Synology startet dann ohne weiteres Dazutun? P.S.: Habe jetzt übrigens ne Barracuda NG 400 mit Spam Filter bestellt. Falls Du Dich noch dran erinnern solltest
@lks: Jeder HyperV-Server hat je zwei GB-Nics, eine zum Management, die andere für die VMs. An der ReadyNAS-Kiste klopfen dann beide Server über eine geteamte 1GB-Leitung, also effektiv 2GB. Ulkigerweise läuft das alles auf den Servern direkt langsamer, was mit den Platten zusammenhängt (oder Controller, habs mir nie genauer angesehen).Ist mir aufgefallen, als ich die VMs zwecks ReadyNAS-Wartung direkt auf die beiden Server umgezogen habe. Server sind beide HP ProLiant ML350 G6. Flaschenhals ist aber in jedem Fall bei uns die Schnelligkeit der Platten.
@psannz: Thema Backup im laufenden Betrieb. Auch hier wieder: Es kommt drauf an. Veeam Backup & Replication mal getestet? Ist sehr ressourcenfreundlich, Stichwort Backup-Proxy. Support ist auch super.
@Ragazzo: Läuft bei uns auch im selben Netz. Aber: Es kommt drauf an. Unser Netz ist jetzt nicht so groß, werde das aber eines Tages über VLAN trotzdem abtrennen.
Nächstes Jahr werden wir dann wahrscheinlich zum 5jährigen Jübiläum der Server was Neues anschaffen, dann mache ich mir auch Gedanken über ein neues SAN. Netapp finde ich für uns allerdings überdimensioniert, die alten Sachen dienen dann noch zum Testen, Spielen und Lösung für Notfälle.
Gruß
danke für Eure Infos über Synology und QNAP, wäre also ne Überlegung wert... Netgear kommt mir jedenfalls nicht wieder ins Haus
@Dani: Rebuild der Synology startet dann ohne weiteres Dazutun? P.S.: Habe jetzt übrigens ne Barracuda NG 400 mit Spam Filter bestellt. Falls Du Dich noch dran erinnern solltest
@lks: Jeder HyperV-Server hat je zwei GB-Nics, eine zum Management, die andere für die VMs. An der ReadyNAS-Kiste klopfen dann beide Server über eine geteamte 1GB-Leitung, also effektiv 2GB. Ulkigerweise läuft das alles auf den Servern direkt langsamer, was mit den Platten zusammenhängt (oder Controller, habs mir nie genauer angesehen).Ist mir aufgefallen, als ich die VMs zwecks ReadyNAS-Wartung direkt auf die beiden Server umgezogen habe. Server sind beide HP ProLiant ML350 G6. Flaschenhals ist aber in jedem Fall bei uns die Schnelligkeit der Platten.
@psannz: Thema Backup im laufenden Betrieb. Auch hier wieder: Es kommt drauf an. Veeam Backup & Replication mal getestet? Ist sehr ressourcenfreundlich, Stichwort Backup-Proxy. Support ist auch super.
@Ragazzo: Läuft bei uns auch im selben Netz. Aber: Es kommt drauf an. Unser Netz ist jetzt nicht so groß, werde das aber eines Tages über VLAN trotzdem abtrennen.
Nächstes Jahr werden wir dann wahrscheinlich zum 5jährigen Jübiläum der Server was Neues anschaffen, dann mache ich mir auch Gedanken über ein neues SAN. Netapp finde ich für uns allerdings überdimensioniert, die alten Sachen dienen dann noch zum Testen, Spielen und Lösung für Notfälle.
Gruß
@Ragazzo
Bei uns laufen iSCSI und LAN immer auf getrennten Switches und Kabel. Ohne VLANs, etc... Bei uns spielen die Kosten sekundäre Rolle... das System muss laufen. Falls es doch einer schafft die LAN-Switches zu beinträchtigen läuft iSCSI problemlos weiter. ist einfache eine Frage der Verfügbarkeit.
@psannz
@Coreknabe
Grüße,
Dani
Bei uns laufen iSCSI und LAN immer auf getrennten Switches und Kabel. Ohne VLANs, etc... Bei uns spielen die Kosten sekundäre Rolle... das System muss laufen. Falls es doch einer schafft die LAN-Switches zu beinträchtigen läuft iSCSI problemlos weiter. ist einfache eine Frage der Verfügbarkeit.
@psannz
Die Wunschliste ist umfangreich. Und scheitert schlussendlich regelmäßig am Budget.
Falsches Stratgie / Unternehmen. @Coreknabe
Rebuild der Synology startet dann ohne weiteres Dazutun?
Normalerweiße schon... Habe jetzt übrigens ne Barracuda NG 400 mit Spam Filter bestellt.
Bisschen groß für euch oder?Grüße,
Dani
Hi,
und mein Senf dazu aus einer anderen Ecke:
SAN läuft bei uns unter FC, aber ein älterer LTO3 Loader läuft über iSCSI, und das macht der zu 100% gut.
Dadurch das es eben iSCSI war, konnte der auch recht preisgünstig in einen anderen Brandabschnitt.
Der neue Loader war nur in FC zu bekommen, das war recht teuer, tut sich aber gegenüber dem iSCSI im Punkt Zuverlässigkeit nichts.
Ich hätte gerne wieder einen Loader mit iSCSI genommen, ist aber anscheinend out.
VG
Deepsys
und mein Senf dazu aus einer anderen Ecke:
SAN läuft bei uns unter FC, aber ein älterer LTO3 Loader läuft über iSCSI, und das macht der zu 100% gut.
Dadurch das es eben iSCSI war, konnte der auch recht preisgünstig in einen anderen Brandabschnitt.
Der neue Loader war nur in FC zu bekommen, das war recht teuer, tut sich aber gegenüber dem iSCSI im Punkt Zuverlässigkeit nichts.
Ich hätte gerne wieder einen Loader mit iSCSI genommen, ist aber anscheinend out.
VG
Deepsys
@Dani:
Wie machst Du das mit der Synology, wenn dort noch andere Dienste laufen, die über das LAN erreichbar/konfigurierbar sein müssen.
Eine RS-xxx hat mehrere NICs. Aber Einstellung zum Zuweisen der Dienste zu NICs habe ich noch nicht gefunden.
Viele Grüße
Ragazzo
Wie machst Du das mit der Synology, wenn dort noch andere Dienste laufen, die über das LAN erreichbar/konfigurierbar sein müssen.
Eine RS-xxx hat mehrere NICs. Aber Einstellung zum Zuweisen der Dienste zu NICs habe ich noch nicht gefunden.
Zitat von @Dani:
@Ragazzo
Bei uns laufen iSCSI und LAN immer auf getrennten Switches und Kabel. Ohne VLANs, etc... Bei uns spielen die Kosten sekundäre
Rolle... das System muss laufen. Falls es doch einer schafft die LAN-Switches zu beinträchtigen läuft iSCSI problemlos
weiter. ist einfache eine Frage der Verfügbarkeit.
@Ragazzo
Bei uns laufen iSCSI und LAN immer auf getrennten Switches und Kabel. Ohne VLANs, etc... Bei uns spielen die Kosten sekundäre
Rolle... das System muss laufen. Falls es doch einer schafft die LAN-Switches zu beinträchtigen läuft iSCSI problemlos
weiter. ist einfache eine Frage der Verfügbarkeit.
Viele Grüße
Ragazzo
Moin,
Grüße,
Dani
Wie machst Du das mit der Synology, wenn dort noch andere Dienste laufen, die über das LAN erreichbar/konfigurierbar sein müssen.
Wie es sich gehört, steht vor jedem RZ ein Firewall-Cluster wo per Regel definiert wird wer wo zugreifen darf. Daher ist es bei Synology nicht problematisch.Grüße,
Dani
Moin
meine Frage bezog sich auf die zuvor gestellte Frage mit einem dedizierten iSCSI-LAN.
Dies hat normalerweise keine Verbindung zum Produktiv-LAN
Daher das Thema mit der konfguration von NIC1 und NIC2 auf Seiten der Synology?
Viele Grüße
Ragazzo
meine Frage bezog sich auf die zuvor gestellte Frage mit einem dedizierten iSCSI-LAN.
Dies hat normalerweise keine Verbindung zum Produktiv-LAN
Daher das Thema mit der konfguration von NIC1 und NIC2 auf Seiten der Synology?
Viele Grüße
Ragazzo
Zitat von @Dani:
> Wie machst Du das mit der Synology, wenn dort noch andere Dienste laufen, die über das LAN erreichbar/konfigurierbar
sein müssen.
Wie es sich gehört, steht vor jedem RZ ein Firewall-Cluster wo per Regel definiert wird wer wo zugreifen darf. Daher ist es
bei Synology nicht problematisch.
> Wie machst Du das mit der Synology, wenn dort noch andere Dienste laufen, die über das LAN erreichbar/konfigurierbar
sein müssen.
Wie es sich gehört, steht vor jedem RZ ein Firewall-Cluster wo per Regel definiert wird wer wo zugreifen darf. Daher ist es
bei Synology nicht problematisch.
Moin moin,
Cheers,
jsysde
Zitat von @Coreknabe:
solange man nicht auf die blöde Idee kommt, dynamisch wachsende Festplatten zu verwenden
Thin Provisioning ist auch nicht mein Lieblingsthema, macht aber bei entsprechendem Storage durchaus Sinn.solange man nicht auf die blöde Idee kommt, dynamisch wachsende Festplatten zu verwenden
Probleme gibt es allerdings dann, wenn mal eine Platte auf dem NAS ausfällt.
Einstecken einer neuen Platte im laufenden Betrieb kann man trotz Hotswap getrost knicken, weil in 90% der Fälle Neustart des
NAS fällig ist.
Ein absolutes Ausschlusskriterium - solche Single-Points of failure will ich nicht im Produktiveinsatz haben.Einstecken einer neuen Platte im laufenden Betrieb kann man trotz Hotswap getrost knicken, weil in 90% der Fälle Neustart des
NAS fällig ist.
Lässt man danach die VMs wieder laufen und der Neuaufbau des RAID startet, ist arbeiten nicht mehr möglich.
Ein weiteres Ausschlusskriterium - bei wenigen TB mag der Neuaufbau in einer Nacht durch und der Ausfall damit minimal sein. Bei uns läuft ne Synology als SAN für den DPM, die stellt 55TB bereit. Da dauert das knapp ne Woche, bis das SAN wieder voll einsatzbereit ist und während dieser Zeit sind Backups kaum möglich. Einer der Gründe, warum ich dieses Szenario nicht prickelnd finde; muss aber leider noch ne Weile damit leben...Cheers,
jsysde
@Dani
Vielen Dank für Deine Info.
Aber wie sagen ich den Diensten auf der Synology-Seite, dass iSCSI nur über NIC 1+3 und der Rest über 2+4 antworten bzw. senden soll?
Grüße,
Ragazzo
Vielen Dank für Deine Info.
Aber wie sagen ich den Diensten auf der Synology-Seite, dass iSCSI nur über NIC 1+3 und der Rest über 2+4 antworten bzw. senden soll?
Grüße,
Ragazzo
Zitat von @Dani:
Moin,
> Dies hat normalerweise keine Verbindung zum Produktiv-LAN
Richtig.
> Daher das Thema mit der konfguration von NIC1 und NIC2 auf Seiten der Synology?
Die Synology hat vier NIC's drin. Nic 1 und 3 hängen in einem jeweils seperaten iSCSI-Netzwerk und 2-4 als Team im LAN.
Moin,
> Dies hat normalerweise keine Verbindung zum Produktiv-LAN
Richtig.
> Daher das Thema mit der konfguration von NIC1 und NIC2 auf Seiten der Synology?
Die Synology hat vier NIC's drin. Nic 1 und 3 hängen in einem jeweils seperaten iSCSI-Netzwerk und 2-4 als Team im LAN.
@Dani:
Du hast scheinbar meine Frage nicht verstanden. Oder ich verstehe Dich nicht....
Subnetz, auch Teaming u.a. sind NIC-Einstellung.
Woher weiss ein Dienst (z.B. DS-Cloud, Dateizugriffe, etc.), dass diese nur NIC 2+4 verwendet werden sollen?
Und wie kann ich dem iSCSI-Dienst sagen, verwende ausschließlich NIC1+3?
Was hat das mit Subnetzen zu tun?
Wenn ich es falsch verstanden habe, bitte um ein Konfig-Beispiel. Danke.
Grüße,
Ragazzo
Du hast scheinbar meine Frage nicht verstanden. Oder ich verstehe Dich nicht....
Subnetz, auch Teaming u.a. sind NIC-Einstellung.
Woher weiss ein Dienst (z.B. DS-Cloud, Dateizugriffe, etc.), dass diese nur NIC 2+4 verwendet werden sollen?
Und wie kann ich dem iSCSI-Dienst sagen, verwende ausschließlich NIC1+3?
Was hat das mit Subnetzen zu tun?
Wenn ich es falsch verstanden habe, bitte um ein Konfig-Beispiel. Danke.
Grüße,
Ragazzo
Moin,
also grundsätzlich lauschen die Dienste auf allen Ports/Teams. Durch getrennte Subnetze für iSCSI, LAN, etc... sind trotzdem alle Dienste über alles Ports ansprechbar. Das lässt so im Moment auch nicht ändern. Dafür gibt es aber die Firewall auf den Geräten. Einfach dort die entsprechenden Ports erlauben/verweigen und alles ist im Lot.
Grüße,
Dani
also grundsätzlich lauschen die Dienste auf allen Ports/Teams. Durch getrennte Subnetze für iSCSI, LAN, etc... sind trotzdem alle Dienste über alles Ports ansprechbar. Das lässt so im Moment auch nicht ändern. Dafür gibt es aber die Firewall auf den Geräten. Einfach dort die entsprechenden Ports erlauben/verweigen und alles ist im Lot.
Grüße,
Dani