Storage mit ISCSI Anbindung für Vsphere5.5
Hallo zusammen,
ich plane gerade für ein kleineres Projekt eine Vsphere 5.5 Umgebung und bin ein wenig unschlüssig was das Storage angeht. Bisher habe ich immer Storage Lösungen über redundates external SAS angebunden.(z.B DELL) Allerdings ist das für mein jetziges Projekt etwas zu heavy vom Preis her.
Daher nun meine Frage: Hat jemand von euch Erfahrungen mit Storage Lösungen von Synology oder QNAP ? z.B mit diesen hier: Qnap TS-469U-RP
SynologyRS814RP+ ?
Auf jeden Fall würde ich Wert auf ein redundantes Netzteil legen. Wenn wenn jemand einen besseren Vorschlag hat, immer her damit ;)
Nun zu der Umgebung die geplant ist: Es soll ein einfacher 2012 Server als DC und Fileserver aufgesetzt werden. Ein weiterer 2012 Server soll für die Bereitstellung von Exchange 2013 aufgesetzt werden und ein drittes 2012er System als Terminalserver für eine ERP Software.
Nun haben diese Storage Systeme ja in der Regel 2 Gigabit Netzwerkkarten, diese würde ich als einen Etherchanel auf einen Switch legen und die beiden Hosts ebenfalls mit 2xGbit (Als Etherchanel) anbinden
Meint ihr von der Anbindung und vom Datendurchsatz her reicht das? Es handelt sich um ein KMU Unternehmen mit ca. 35 Mitarbeitern. Große Datenvolumen werden nicht geschaufelt. Zu 80% Office Anwendungen (Word, Excel, Outlook) und eben die ERP Software.
Bei den genannten Storages steht zwar vmWare ready allerdings bin ich noch unsicher ob ein Storage dieser Art dafür geeignet ist. Diese Geräte haben ja mittlerweile nicht einmal mehr ein richtiges Hardware Raid ;(
bedanke mich jetzt schon für eure Antworten
ich plane gerade für ein kleineres Projekt eine Vsphere 5.5 Umgebung und bin ein wenig unschlüssig was das Storage angeht. Bisher habe ich immer Storage Lösungen über redundates external SAS angebunden.(z.B DELL) Allerdings ist das für mein jetziges Projekt etwas zu heavy vom Preis her.
Daher nun meine Frage: Hat jemand von euch Erfahrungen mit Storage Lösungen von Synology oder QNAP ? z.B mit diesen hier: Qnap TS-469U-RP
SynologyRS814RP+ ?
Auf jeden Fall würde ich Wert auf ein redundantes Netzteil legen. Wenn wenn jemand einen besseren Vorschlag hat, immer her damit ;)
Nun zu der Umgebung die geplant ist: Es soll ein einfacher 2012 Server als DC und Fileserver aufgesetzt werden. Ein weiterer 2012 Server soll für die Bereitstellung von Exchange 2013 aufgesetzt werden und ein drittes 2012er System als Terminalserver für eine ERP Software.
Nun haben diese Storage Systeme ja in der Regel 2 Gigabit Netzwerkkarten, diese würde ich als einen Etherchanel auf einen Switch legen und die beiden Hosts ebenfalls mit 2xGbit (Als Etherchanel) anbinden
Meint ihr von der Anbindung und vom Datendurchsatz her reicht das? Es handelt sich um ein KMU Unternehmen mit ca. 35 Mitarbeitern. Große Datenvolumen werden nicht geschaufelt. Zu 80% Office Anwendungen (Word, Excel, Outlook) und eben die ERP Software.
Bei den genannten Storages steht zwar vmWare ready allerdings bin ich noch unsicher ob ein Storage dieser Art dafür geeignet ist. Diese Geräte haben ja mittlerweile nicht einmal mehr ein richtiges Hardware Raid ;(
bedanke mich jetzt schon für eure Antworten
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 243274
Url: https://administrator.de/contentid/243274
Ausgedruckt am: 08.11.2024 um 07:11 Uhr
12 Kommentare
Neuester Kommentar
Guten Abend,
Wie wäre es mit einer Hosting-Lösung (dediziert versteht sich)?
Grüße,
Dani
P.S. 35 Leute und ein RDS-Server ist weit über den Sizing von Microsoft.
Nun zu der Umgebung die geplant ist: Es soll ein einfacher 2012 Server als DC und Fileserver aufgesetzt werden. Ein weiterer 2012 Server soll für die Bereitstellung von Exchange 2013 aufgesetzt werden und ein drittes 2012er System als Terminalserver für eine ERP Software.
Da ist QNAP oder Synology nicht dafür geeigent. Ich habe zu Hause ein NAS mit 12x2TB im RAID5. Per iSCSI am Server angeschlossen. Es laufen nicht mal zwei Server 2012R2 rund damit. Dazu kommt, wenn das NAS defekt ist, musst du dieses an den Hersteller schicken. Was dann? die 35 Leute machen entsprechend Umsatz und somit sollte auch eine qualitative Infrastruktur her.Wie wäre es mit einer Hosting-Lösung (dediziert versteht sich)?
Grüße,
Dani
P.S. 35 Leute und ein RDS-Server ist weit über den Sizing von Microsoft.
Hallo,
werden und sicherlich kann man auch nach und nach eine redundante Auslegung anschaffen.
lange nicht das man VMs auf ein NAS anstatt auf ein SAN packen sollte!
Würde ich einfach lassen denn das wird im Leben nichts.
Hyper-V als Host und;
- 1 VM als DC
- 1 VM FileServer
- 1 VM Exchange
- 1 Terminalserver mit ERP
Man kann auch zwei Server redundant auf setzen die dann gemeinsam auf ein SAN zugreifen.
Nur zwei Server die auf ein NAS zugreifen sollten es eben nicht sein.
was die benötigen ist wichtig und zwar an Durchsatz und an Sicherheit.
Denn dann sind die auf einmal gar nicht mehr soooo klein!
so eine Sache, ich sage mir immer ein NAS ist und bleibt ein NAS und ein SAN ist eben
ein SAN!
Wenn ich einen Schaufelbagger kaufen muss, weil dieser gebraucht wird, und ich habe das
Geld nicht, bringt es auch nichts wenn ich mit 20 Schaufeln daher kommen!
separaten RAID Controller aufstellen und dann die VMs darauf verteilen oder sogar einen
großen "dicken" und kräftigen Server aufbauen den man dann mit allen VMs versieht.
Gruß
Dobby
Ich plane gerade für ein kleineres Projekt eine Vsphere 5.5 Umgebung und bin ein wenig
unschlüssig was das Storage angeht.
Und warum nicht Hyper-V wenn man einmal fragen darf!?unschlüssig was das Storage angeht.
Bisher habe ich immer Storage Lösungen über redundates external SAS angebunden.
(z.B DELL) Allerdings ist das für mein jetziges Projekt etwas zu heavy vom Preis her.
Warum? Auch große NAS Systeme können mit einem SAS Expander an Server angebunden(z.B DELL) Allerdings ist das für mein jetziges Projekt etwas zu heavy vom Preis her.
werden und sicherlich kann man auch nach und nach eine redundante Auslegung anschaffen.
Daher nun meine Frage: Hat jemand von euch Erfahrungen mit Storage Lösungen von
Synology oder QNAP ? z.B mit diesen hier: Qnap TS-469U-RP & SynologyRS814RP+ ?
Also nun mal im Ernst, wenn von der unterstützung von iSCSI die Rede ist heißt das nochSynology oder QNAP ? z.B mit diesen hier: Qnap TS-469U-RP & SynologyRS814RP+ ?
lange nicht das man VMs auf ein NAS anstatt auf ein SAN packen sollte!
Würde ich einfach lassen denn das wird im Leben nichts.
Auf jeden Fall würde ich Wert auf ein redundantes Netzteil legen.
Wenn wenn jemand einen besseren Vorschlag hat, immer her damit ;)
Das tue ich auch und zwar bei den Servern und den SANs!Wenn wenn jemand einen besseren Vorschlag hat, immer her damit ;)
Nun zu der Umgebung die geplant ist: Es soll ein einfacher 2012 Server als DC und Fileserver
aufgesetzt werden. Ein weiterer 2012 Server soll für die Bereitstellung von Exchange 2013
aufgesetzt werden und ein drittes 2012er System als Terminalserver für eine ERP Software.
Also ich würde das wie Folgt machen wollen.aufgesetzt werden. Ein weiterer 2012 Server soll für die Bereitstellung von Exchange 2013
aufgesetzt werden und ein drittes 2012er System als Terminalserver für eine ERP Software.
Hyper-V als Host und;
- 1 VM als DC
- 1 VM FileServer
- 1 VM Exchange
- 1 Terminalserver mit ERP
Man kann auch zwei Server redundant auf setzen die dann gemeinsam auf ein SAN zugreifen.
Nur zwei Server die auf ein NAS zugreifen sollten es eben nicht sein.
Nun haben diese Storage Systeme ja in der Regel 2 Gigabit Netzwerkkarten, diese würde ich als
einen Etherchanel auf einen Switch legen und die beiden Hosts ebenfalls mit 2xGbit (Als
Etherchanel) anbinden
Es gibt auch schon kleine Switche zur Anbindung mit 10 GBit/s warum nicht so etwas nehmen.einen Etherchanel auf einen Switch legen und die beiden Hosts ebenfalls mit 2xGbit (Als
Etherchanel) anbinden
Meint ihr von der Anbindung und vom Datendurchsatz her reicht das? Es handelt sich um ein
KMU Unternehmen mit ca. 35 Mitarbeitern.
Das ist nicht wichtig! Wie viele Leute da arbeiten und wie groß die Firma wirklich ist,KMU Unternehmen mit ca. 35 Mitarbeitern.
was die benötigen ist wichtig und zwar an Durchsatz und an Sicherheit.
Große Datenvolumen werden nicht geschaufelt. Zu 80% Office Anwendungen
(Word, Excel, Outlook) und eben die ERP Software.
Das mag sein und was bitte kostet dann ein Tag Stillstand?(Word, Excel, Outlook) und eben die ERP Software.
Denn dann sind die auf einmal gar nicht mehr soooo klein!
Bei den genannten Storages steht zwar vmWare ready allerdings bin ich noch unsicher
ob ein Storage dieser Art dafür geeignet ist.
Es mag zwar sein das man so etwas als "Storage" bezeichnet aber das ist auch wiederob ein Storage dieser Art dafür geeignet ist.
so eine Sache, ich sage mir immer ein NAS ist und bleibt ein NAS und ein SAN ist eben
ein SAN!
Wenn ich einen Schaufelbagger kaufen muss, weil dieser gebraucht wird, und ich habe das
Geld nicht, bringt es auch nichts wenn ich mit 20 Schaufeln daher kommen!
Diese Geräte haben ja mittlerweile nicht einmal mehr ein richtiges Hardware Raid ;(
Das mag wohl sein und noch etwas man kann natürlich auch zwei Server mit je einemseparaten RAID Controller aufstellen und dann die VMs darauf verteilen oder sogar einen
großen "dicken" und kräftigen Server aufbauen den man dann mit allen VMs versieht.
bedanke mich jetzt schon für eure Antworten
Kein Thema.Gruß
Dobby
Hallo,
also ich würde Dir auch davon abraten das NAS als Storage zu nutzen.
Was für ein Budget gibt es denn? Ich persönlich frage mich dann immer wie lange die Systeme ausfallen dürfen. Davon und vom Budget abhängig überlege ich mir dann ein Konzept.
Drei fallen mir direkt mal ein:
1.) 2 Server mit HyperV (oder aber auch für teuer Geld VMware) und HyperV hat eine Möglichkeit die VMs auf ein weiteres Ziel zu replizieren. Da müsstest Du aber selbst mal bzgl. des Exchange Server eine Recherche anstellen ob das supported wird.
2.) 4 Server, 2 mit HyperV oder VMware und 2 als Storage Systeme.
3.) 2 Server mit HyperV oder VMware und die Maschinen redundant aufbauen. Den DC redundant auszulegen sollte bekannt sein. Beim Exchange nennt sich das DAG und für den Fileserver gibt es DFS.
So oder so, Raid 10 sollte es schon sein und jedes Konzept hat Vor- und Nachteile - wie immer halt.
Dann noch was. Warum spart eigentlich jeder am DC? Wenn das Teil tot ist, hast Du ein Problem. Folglich, zweiten einplanen. Wenn Du virtualisiert arbeitest = 0 € Mehrkosten (bzw. bei 2012 R2 Standard ca. 300€) aber dann bitte auf einem zweiten Hypervisor ;)
Gruß
also ich würde Dir auch davon abraten das NAS als Storage zu nutzen.
Was für ein Budget gibt es denn? Ich persönlich frage mich dann immer wie lange die Systeme ausfallen dürfen. Davon und vom Budget abhängig überlege ich mir dann ein Konzept.
Drei fallen mir direkt mal ein:
1.) 2 Server mit HyperV (oder aber auch für teuer Geld VMware) und HyperV hat eine Möglichkeit die VMs auf ein weiteres Ziel zu replizieren. Da müsstest Du aber selbst mal bzgl. des Exchange Server eine Recherche anstellen ob das supported wird.
2.) 4 Server, 2 mit HyperV oder VMware und 2 als Storage Systeme.
3.) 2 Server mit HyperV oder VMware und die Maschinen redundant aufbauen. Den DC redundant auszulegen sollte bekannt sein. Beim Exchange nennt sich das DAG und für den Fileserver gibt es DFS.
So oder so, Raid 10 sollte es schon sein und jedes Konzept hat Vor- und Nachteile - wie immer halt.
Dann noch was. Warum spart eigentlich jeder am DC? Wenn das Teil tot ist, hast Du ein Problem. Folglich, zweiten einplanen. Wenn Du virtualisiert arbeitest = 0 € Mehrkosten (bzw. bei 2012 R2 Standard ca. 300€) aber dann bitte auf einem zweiten Hypervisor ;)
Gruß
Ich hab mich gerade mit der DS414 herumgeschlagen - für den Heimgebrauch ok, 12 TB im Raid 5 Modus/ 8 TB als Raid 10, relativ leise und trotzdem schnell... das Ding ist aber nichts für Unternehmensanforderungen.
Auch hat z.B. Windows 2012 R2 kleine Problemchen, ein iSCSI Target nach dem Booten wieder zu verbinden. Nun, das mag vielleicht an der Windows-Beta liegen die ich da installiert hab, mit VMWare ESXi 5.1 funktioniert das einwandfrei und sollte mit 5.5 daher auch funktionieren.
Die Tatsache daß die "kleineren" Synology Produkte (und wohl auch die von QNAP) kein eingebauten Flash/SSD zum Booten haben sondern von irgendeiner eingeschobenen Festplatte booten, disqualifizieren diese Geräte meiner Ansicht nach für den professionellen Einsatz. Geht die Box in 3 Jahren kaputt, dann ist es eher fraglich ob man die Festplatten einfach so in eine hypothetische DS418 Baujahr 2017 hineinstecken kann und die dann davon bootet.
Noch was zu den Windows Serverlizenzen in Bezug auf Virtualisierung:
EINE Windows 2008R2 Standard edition erlaubt es einem 2 Gäste damit zu lizensieren, die Enterprise Edition 4 Gäste (VMs) und die Datacenter edition beliebig viele Gäste pro VM. Microsoft geht bei diesem Modell natürlich aus, daß man ein HyperV als Hypervisor verwendet und der Host nichts anders tut als HyperV - verweigert einem das aber nicht wenn man später doch nach VMware ESX oder Xenserver geht.
http://www.witstor.de/81_news/details.html?NewsSelectId=150
Bei Windows 2012 hat MS scheinbar die Enterprise Edition eingestampft... das Prinzip gilt jedoch weiter für Standard und Datacenter Edition.
http://www.microsoft.com/de-de/licensing/produktlizenzierung/virtualisi ...
Ab einer bestimmten Menge an Servern hat man vermutlich die kostengünstigste Variante wenn man 2 großzügig dimensionierte Hosts für virtuelle Maschinen hat (wg. Ausfallsicherheit) die dann von einem echten SAN starten wie z.B. der NETapp FAS2050 oder einem Fujitsu DX60.... nun kostet aber eine vollbestückte FAS2050 deutlich oberhalb von 10.000 Euro, die DS414 mit 16 TB liegt bei 850-1000 Euro je nach Festplatten die man da einbaut. Netapp schickt Festplatten per Post an seine Kunden BEVOR sie ausfallen, die Synology piept erst dann rum NACHDEM eine Platte ausgefallen ist.
Bei uns auf der Arbeit nutzten wir solche Boxen ausschließllich als Windows Fileshare - zunächst hatten wir eine von Netgear (5 MB/Sekunde lesen), dann die Buffalo Terastation (30 MB/Sec) und dann ein QNAP 469 (60 MB/Sec) jeweils als Raid 5.
Später wurde unsere Firma von einer anderen gekauft, die wiederum ein gigantisches IT Budget hatte, von denen wir früher nur geträumt hatten - denn auch wir hatten nur 30-35 Leute und ein sehr knappes Budget als wir noch eigenständig waren....
Auch hat z.B. Windows 2012 R2 kleine Problemchen, ein iSCSI Target nach dem Booten wieder zu verbinden. Nun, das mag vielleicht an der Windows-Beta liegen die ich da installiert hab, mit VMWare ESXi 5.1 funktioniert das einwandfrei und sollte mit 5.5 daher auch funktionieren.
Die Tatsache daß die "kleineren" Synology Produkte (und wohl auch die von QNAP) kein eingebauten Flash/SSD zum Booten haben sondern von irgendeiner eingeschobenen Festplatte booten, disqualifizieren diese Geräte meiner Ansicht nach für den professionellen Einsatz. Geht die Box in 3 Jahren kaputt, dann ist es eher fraglich ob man die Festplatten einfach so in eine hypothetische DS418 Baujahr 2017 hineinstecken kann und die dann davon bootet.
Noch was zu den Windows Serverlizenzen in Bezug auf Virtualisierung:
EINE Windows 2008R2 Standard edition erlaubt es einem 2 Gäste damit zu lizensieren, die Enterprise Edition 4 Gäste (VMs) und die Datacenter edition beliebig viele Gäste pro VM. Microsoft geht bei diesem Modell natürlich aus, daß man ein HyperV als Hypervisor verwendet und der Host nichts anders tut als HyperV - verweigert einem das aber nicht wenn man später doch nach VMware ESX oder Xenserver geht.
http://www.witstor.de/81_news/details.html?NewsSelectId=150
Bei Windows 2012 hat MS scheinbar die Enterprise Edition eingestampft... das Prinzip gilt jedoch weiter für Standard und Datacenter Edition.
http://www.microsoft.com/de-de/licensing/produktlizenzierung/virtualisi ...
Ab einer bestimmten Menge an Servern hat man vermutlich die kostengünstigste Variante wenn man 2 großzügig dimensionierte Hosts für virtuelle Maschinen hat (wg. Ausfallsicherheit) die dann von einem echten SAN starten wie z.B. der NETapp FAS2050 oder einem Fujitsu DX60.... nun kostet aber eine vollbestückte FAS2050 deutlich oberhalb von 10.000 Euro, die DS414 mit 16 TB liegt bei 850-1000 Euro je nach Festplatten die man da einbaut. Netapp schickt Festplatten per Post an seine Kunden BEVOR sie ausfallen, die Synology piept erst dann rum NACHDEM eine Platte ausgefallen ist.
Bei uns auf der Arbeit nutzten wir solche Boxen ausschließllich als Windows Fileshare - zunächst hatten wir eine von Netgear (5 MB/Sekunde lesen), dann die Buffalo Terastation (30 MB/Sec) und dann ein QNAP 469 (60 MB/Sec) jeweils als Raid 5.
Später wurde unsere Firma von einer anderen gekauft, die wiederum ein gigantisches IT Budget hatte, von denen wir früher nur geträumt hatten - denn auch wir hatten nur 30-35 Leute und ein sehr knappes Budget als wir noch eigenständig waren....
Hallo zusammen. Habe gerade die Kommentare hier gelesen und möchte mal gerne wissen weswegen ein NAS dafür nicht geeignet sein sollte?? Ein NAS mit dem NFS Protokoll oder iSCSI kann ebenso verwendet werden. Ich behaupte mal iSCSI SAN ist nicht viel schneller unterwegs als mit iSCSI NAS und es wird sich daher um eine Kostenfrage handeln.
Habe gerade noch eine interessanten Link gefunden:
http://www.speicherguide.de/wissen/doc-storage/san-oder-nas-fuer-vmware ...
Habe gerade noch eine interessanten Link gefunden:
http://www.speicherguide.de/wissen/doc-storage/san-oder-nas-fuer-vmware ...
@Maverick2286
NFS hat aber noch Schwächen bei Multipathing und Failover. Diesen beide Problemstellungen wurden mit (p)NFS 4.1 beseitigt. Allerdings gibt es noch nicht viele Hersteller (z.B. Netapp, Redhat) die dieses Protokoll unterstützen. Ein anderer Weg den beiden Problemen aus dem Weg zu gehen ist, virtualisierbare Switches.
Mit NFS lassen sich unter anderem Clones einzelner VMs in Sekunden anlegen ohne große Last auf dem Storage zu erzeugen.
Grüße,
Dani
Habe gerade die Kommentare hier gelesen und möchte mal gerne wissen weswegen ein NAS dafür nicht geeignet sein sollte??
Bitte auf den entsprechenden Kommentar verweisen. Ich habe in keinsterweise darauf hingwiesen. Ich meinte eher, dass die beiden genannten Hersteller für das Projekt nicht geeignet sindNFS hat aber noch Schwächen bei Multipathing und Failover. Diesen beide Problemstellungen wurden mit (p)NFS 4.1 beseitigt. Allerdings gibt es noch nicht viele Hersteller (z.B. Netapp, Redhat) die dieses Protokoll unterstützen. Ein anderer Weg den beiden Problemen aus dem Weg zu gehen ist, virtualisierbare Switches.
Mit NFS lassen sich unter anderem Clones einzelner VMs in Sekunden anlegen ohne große Last auf dem Storage zu erzeugen.
Grüße,
Dani
Zitat von @Maverick2286:
Hallo zusammen. Habe gerade die Kommentare hier gelesen und möchte mal gerne wissen weswegen ein NAS dafür nicht
geeignet sein sollte?? Ein NAS mit dem NFS Protokoll oder iSCSI kann ebenso verwendet werden. Ich behaupte mal iSCSI SAN ist nicht
viel schneller unterwegs als mit iSCSI NAS und es wird sich daher um eine Kostenfrage handeln.
Hallo zusammen. Habe gerade die Kommentare hier gelesen und möchte mal gerne wissen weswegen ein NAS dafür nicht
geeignet sein sollte?? Ein NAS mit dem NFS Protokoll oder iSCSI kann ebenso verwendet werden. Ich behaupte mal iSCSI SAN ist nicht
viel schneller unterwegs als mit iSCSI NAS und es wird sich daher um eine Kostenfrage handeln.
Es gibt sicherlich NAS Systeme die potent genug sind die VMs zu halten, nur ist es
eben auch immer ein Frage der Ausstattung solcher Geräte und wenn ich schon für
ein QNAP TS-1079 ca. 2000 € - 2500 € bezahlen muss ist der Schritt zu einem richtigen
SAN nicht mehr groß, aber die gebotene Leistung mitunter um einiges besser bzw. größer.
Habe gerade noch eine interessanten Link gefunden:
http://www.speicherguide.de/wissen/doc-storage/san-oder-nas-fuer-vmware ...
Wie gesagt ein NAS für den Heimgebrauch oder wirklich kleine KMUs ist meist nicht potent genughttp://www.speicherguide.de/wissen/doc-storage/san-oder-nas-fuer-vmware ...
und es kommt auch immer schnell zu Schwierigkeiten und Engpässen im Netzwerk.
Das SAN gibt es für solche Zielgruppen auch so gar nicht richtig. Früher waren das eben zwei
völlig getrennte Welten und heute bieten auch Hersteller von NAS Systemen einige Protokolle
an die sonst nur im SAN gebräuchlich waren, aber damit hat sich weder die Leistung noch der
Durchsatz gesteigert und ich würde bei mehreren VMs immer zu einem SAN greifen wollen als
zu einem NAS.
Gruß
Dobby
Man kann alles machen...
aber iSCSI über 1 GBit entstehen Latenzen, die das Ganze z.B. für einen MS SQL Server oder eine große Exchange Installation sehr ausbremsen würden. Damit ein NAS performant funktioniert muß man z.B. über iSCSI thick provisioning betreiben, damit aber dann das Guest OS performant auf den Storage zugreifen kann müßte man aber wissen, mit welcher Blockgröße das Ganze z.B. arbeitet (um Misalignment zu vermeiden) und dann kommen wir schnell an Punkte wo man ein halbwegs transparentes und performantes Mapping von logischen zu physischen Blöchen nur mit ungeraden Festplattenzahlen erzielt.
Auch sollte man wissen daß die "kleinen" Synologies die für 4 Platten gebaut sind, ca. 40 Stunden brauchen um eine in einem 16 TB Raid 5 Array ausgefallene 4 TB Platte auf einer neuen Platte zu replizieren und der "Consistency check" bei einem neu erstellen Array dauert 50 Stunden - professionelle SAN Lösungen sind da 10-20x schneller.
Und am Ende nerven die User:
a) mein Login dauert soooo lange (Domain controller antwortet nicht schnell genug)
b) mein Outlook ist soooo langsam
c) der Terminalserver braucht 2 Minuten für ne Anmeldung und die ERP da ist soooo langsam.
d) der Druckjob kommt erst nach 10 Minuten "raus".
Wenn das aber alles koi Thema is, dann zuschlagen:
DS414 mit 16 TB=ca. 1000 Euro
ESXi Server mit 2x Xeon 8-Core und 64 GB Ram= ca. 3000 Euro oder man baut ne 1-CPU-Whitebox, das ist noch deutlich billiger (ca. 750 Euro ) und meine mit nem AMD970 Board und einem Phenom X6 hat mich in den letzten 18 Monaten noch NIE, NIE mit einem Bluescreen bzw. Coredump (ist ja Redhat untendrunter) beglückt.
aber iSCSI über 1 GBit entstehen Latenzen, die das Ganze z.B. für einen MS SQL Server oder eine große Exchange Installation sehr ausbremsen würden. Damit ein NAS performant funktioniert muß man z.B. über iSCSI thick provisioning betreiben, damit aber dann das Guest OS performant auf den Storage zugreifen kann müßte man aber wissen, mit welcher Blockgröße das Ganze z.B. arbeitet (um Misalignment zu vermeiden) und dann kommen wir schnell an Punkte wo man ein halbwegs transparentes und performantes Mapping von logischen zu physischen Blöchen nur mit ungeraden Festplattenzahlen erzielt.
Auch sollte man wissen daß die "kleinen" Synologies die für 4 Platten gebaut sind, ca. 40 Stunden brauchen um eine in einem 16 TB Raid 5 Array ausgefallene 4 TB Platte auf einer neuen Platte zu replizieren und der "Consistency check" bei einem neu erstellen Array dauert 50 Stunden - professionelle SAN Lösungen sind da 10-20x schneller.
Und am Ende nerven die User:
a) mein Login dauert soooo lange (Domain controller antwortet nicht schnell genug)
b) mein Outlook ist soooo langsam
c) der Terminalserver braucht 2 Minuten für ne Anmeldung und die ERP da ist soooo langsam.
d) der Druckjob kommt erst nach 10 Minuten "raus".
Wenn das aber alles koi Thema is, dann zuschlagen:
DS414 mit 16 TB=ca. 1000 Euro
ESXi Server mit 2x Xeon 8-Core und 64 GB Ram= ca. 3000 Euro oder man baut ne 1-CPU-Whitebox, das ist noch deutlich billiger (ca. 750 Euro ) und meine mit nem AMD970 Board und einem Phenom X6 hat mich in den letzten 18 Monaten noch NIE, NIE mit einem Bluescreen bzw. Coredump (ist ja Redhat untendrunter) beglückt.
aber iSCSI über 1 GBit entstehen Latenzen, die das Ganze z.B. für einen MS SQL Server
oder eine große Exchange Installation sehr ausbremsen würden.
Kann ich so nicht bestätigen, es sei denn wir reden hier von iSCSIoder eine große Exchange Installation sehr ausbremsen würden.
über normale Ethernet Switche, diese sollten daher auch mit einem
sehr großen "Puffer" daher kommen.
- Bei dem Einsatz von FC Switchen und Karten kommt man auf 4 GBit/s
bzw. 8 GBit/s und die sind super schnell mit iSCSI unterwegs.
- Wir haben sogar bei uns jetzt Mellanox Infiniband Karten und Switche
im Einsatz und die bringen 40/56 GBit/s Durchsatz und von Latenzen ist
da nichts zu spüren.
oder man baut ne 1-CPU-Whitebox, das ist noch deutlich billiger (ca. 750 Euro ) und
meine mit nem AMD970 Board und einem Phenom X6
Also da würde ich eher auf einen Intel Xeon E3-1246v3 setzen wollen.meine mit nem AMD970 Board und einem Phenom X6
hat mich in den letzten 18 Monaten noch NIE, NIE mit einem Bluescreen bzw. Coredump
Das mag auch stimmen und sicherlich noch lange weiter so laufen, nur wäre mir das in einemprofessionellen Umfeld eher nicht das richtige zu sein.
(ist ja Redhat untendrunter) beglückt.
RedHat mag zwar schick sein nur das wertet o.g. Hardware nicht für den professionellenEinsatz auf, es kommt auch immer darauf an was macht wer für wen und was braucht dieser
dazu. Aber das ist auch schon wieder viel zu weit von NAS vs. SAN entfernt.
Ein SAN ist eben für so etwas von vorne herein eher geeignet als ein NAS, denn das NAS
ist eigentlich vom gesamten Netzwerk her erreichbar und ein SAN mehr nur von den daran
angeschlossenen Servern.
Gruß
Dobby
Der ursprüngliche Starter des Beitrages redet von Hardware die mit 1 GBit in Richtung NAS unterwegs ist. Er ist also ein Admin, der hat drei lila Scheine von seinem Chef in die Hand gedrückt gekriegt (3x 500 Euro) und soll da irgendwas mit machen.
Für "labs" wie ich sie auf diversen Schulungen erlebt hab, mag das ok sein, und wenn er ein Glückspilz ist dann ist seine Umgebung mit ner 1 GBit NAS in Ordnung. Ich hab genau sowas mal administrieren dürfen, das ist 15 Jahre her und VMware gabs damals noch GSX 3.0 - wenn er auch so bei einer ne 30-Mann Firma ist, wie die wo ich der IT-Gott war, dann mag das hinhauen.
Ich hab genau sowas auch auf meiner DS414 laufen - SAGE Officeline 2.1 12 User, ein SQL SErver mit klitzekleiner 2 GB Datenbank, 1x DC, 1x Fileserver und 3 Terminalserver. Das kann der Host, das kann die NAS weil SAGE ein Access Runtime Frontend hat und mit extrem wenig Performance auskommt. Das waren von den Lizenzen witzigerweise 127,11 Euro bei einer Insolvenzversteigerung... nur um der guten Zeiten halber... meim Auto kost auch 127 Euro pro Volltanken.
Du und ich wir arbeiten vermutlich aber in Firmen wo 12 Gbit native FC Standard ist und Infiniband der Interconnect ist in den FC Switches... jemand der nen Golf BJ 80 ersetzten soll wird mit der Leistung wird mit einem Dacia BJ2014 auch noch gut bedient sein. Nun ist der Dacia aber für unsereines (ich bin IT Architekt bei Siemnes) eher ein stehendes Hindernis für den A8 Firmenwagen mit dem man von Termin 1 zu Termin 2 düst, aber unser Klient hier möchte nur vonner Malloche uffe Frittenbude.
Für "labs" wie ich sie auf diversen Schulungen erlebt hab, mag das ok sein, und wenn er ein Glückspilz ist dann ist seine Umgebung mit ner 1 GBit NAS in Ordnung. Ich hab genau sowas mal administrieren dürfen, das ist 15 Jahre her und VMware gabs damals noch GSX 3.0 - wenn er auch so bei einer ne 30-Mann Firma ist, wie die wo ich der IT-Gott war, dann mag das hinhauen.
Ich hab genau sowas auch auf meiner DS414 laufen - SAGE Officeline 2.1 12 User, ein SQL SErver mit klitzekleiner 2 GB Datenbank, 1x DC, 1x Fileserver und 3 Terminalserver. Das kann der Host, das kann die NAS weil SAGE ein Access Runtime Frontend hat und mit extrem wenig Performance auskommt. Das waren von den Lizenzen witzigerweise 127,11 Euro bei einer Insolvenzversteigerung... nur um der guten Zeiten halber... meim Auto kost auch 127 Euro pro Volltanken.
Du und ich wir arbeiten vermutlich aber in Firmen wo 12 Gbit native FC Standard ist und Infiniband der Interconnect ist in den FC Switches... jemand der nen Golf BJ 80 ersetzten soll wird mit der Leistung wird mit einem Dacia BJ2014 auch noch gut bedient sein. Nun ist der Dacia aber für unsereines (ich bin IT Architekt bei Siemnes) eher ein stehendes Hindernis für den A8 Firmenwagen mit dem man von Termin 1 zu Termin 2 düst, aber unser Klient hier möchte nur vonner Malloche uffe Frittenbude.
Um noch etwas ergänzen zu wollen, ob gleich sich dieser Thread erledigt zu haben scheint.
Eine NAS ist für ESXi5.5 ungeeignet und man sollte sowas erst gar nicht in Erwägung ziehen. Es funktioniert bestimmt auch, aber man macht eben auch nicht alles, was funktioniert und ist gut begründet.
Die Funktionalität ist jedoch immer nur ein Aspekt der Berücksichtigung bei der Wahl des Storage finden muss. Support bei akutem oder drohendem Ausfall der Hardware. Wartungsverträge und deren Kosten und Leistung und ob diese Konfiguration überhaupt von VMware unterstützt bzw. Supported wird.
Mit dem Einsatz von NFS hab ich so meine Probleme. iSCSI würde mein Wahl darstellen - bei einer 10GBIT Anbindung in Kombination mit JUMBO-Frames
kommt das Gebilde schon recht gut aus den Socken. Erste Wahl stellt aber noch immer ein FC-SAN dar, ist aber auch nicht die preiswerteste Lösung.
Thema Latenzzeiten - das wird mir öfter mal entgegen geworfen. Also das iSCSI Protokoll auf einen Jumbo-Frame hat keine höheren Latzenzzeiten verglichen mit einem Fiber-Channel basiertem Konstrukt. Es kommt auf alle Komponenten die eingesetzt werden an. ein schneller Übertragungskanal ist
nicht wirklich Gewinnbringend einzusetzen, wenn die Raid-Controller lahm sind oder das Raid von der Storage-Software erledigt wird. Sowas kann nicht schnell sein.
Ich würde auf jeden Fall ein kommerzielles Storage-Produkt a la HP MSA2000i oder eine EVA einsetzten und nicht ein preiswertes Lenovo-NAS (€4000.-) um eine virtuelle Umgebung zu betreiben - egal ob Hyper-V oder ESXi. Was man zuhause einsetzt steht auf ganz anderem Papier, davon reden Wir aber hier nicht. Es geht um professionelle Umgebungen die unter ganz anderen Umständen laufen muss. Die Grenze ist immer dann erreich, wenn man nicht mehr alles "alleine" machen kann und fremder Hilfe bedarf - in der professionellen IT ein Normalzustand, zuhause er selten der Fall. Die ist nur unter begrenzten Umständen wirklich effektiv möglich und dass lässt sich mit Hilfe von Wartungsverträgen (Carepacks usw) definiert absichern. Zeit ist oft ein entscheidender Faktor und der lässt sich "alleine" nicht gewährleisten. Der Punkt in einem Unternehmen der dabei immer wieder repetiert wird nennt sich "Unternehmensrisiko" und hat mit Funktionalität bzw. mit dem, was man alles machen könnte, nun gar nicht mehr am Hut. Das Risiko ist bei Selbstbauten, so gut sie auch funktionieren mögen, unkalkulierbar. Im Fehlerfall muss die Zeit bis zur Wiederinbetriebnahme klar definiert sein. Bei den Selbstbauten dürfte das schwierig werden. Es lässt sich unschwer erkennen, dass sich der Fokus einer Netzwerkspeicherlösung in einem Unternehmen sehr unterschiedlich darstellt - es als nicht nur um Performance und benutzte Anbindungsart geht sondern das Gesamtpaket entscheidet, was geeignet ist.
Zum Detail des Threads zurück - ich rate grundsätzlich davon ab einen Mehrknotencluster auf ESXi-Basis auf eine NAS zu setzten. Im Supportfall wird man Probleme bekommen. Ich würde immer nur zertifizierte Komponenten einsetzten und möglichst sogar bei einem Hersteller bleiben wollen. In großen Umgebungen ist dass nicht immer in allen Punkten durchhaltbar aber dort gibt es auch entsprechendes Personal die sich das Detailwissen teilen und auch komplexe Umgebungen durchaus selbständig warten können.
Eine NAS ist für ESXi5.5 ungeeignet und man sollte sowas erst gar nicht in Erwägung ziehen. Es funktioniert bestimmt auch, aber man macht eben auch nicht alles, was funktioniert und ist gut begründet.
Die Funktionalität ist jedoch immer nur ein Aspekt der Berücksichtigung bei der Wahl des Storage finden muss. Support bei akutem oder drohendem Ausfall der Hardware. Wartungsverträge und deren Kosten und Leistung und ob diese Konfiguration überhaupt von VMware unterstützt bzw. Supported wird.
Mit dem Einsatz von NFS hab ich so meine Probleme. iSCSI würde mein Wahl darstellen - bei einer 10GBIT Anbindung in Kombination mit JUMBO-Frames
kommt das Gebilde schon recht gut aus den Socken. Erste Wahl stellt aber noch immer ein FC-SAN dar, ist aber auch nicht die preiswerteste Lösung.
Thema Latenzzeiten - das wird mir öfter mal entgegen geworfen. Also das iSCSI Protokoll auf einen Jumbo-Frame hat keine höheren Latzenzzeiten verglichen mit einem Fiber-Channel basiertem Konstrukt. Es kommt auf alle Komponenten die eingesetzt werden an. ein schneller Übertragungskanal ist
nicht wirklich Gewinnbringend einzusetzen, wenn die Raid-Controller lahm sind oder das Raid von der Storage-Software erledigt wird. Sowas kann nicht schnell sein.
Ich würde auf jeden Fall ein kommerzielles Storage-Produkt a la HP MSA2000i oder eine EVA einsetzten und nicht ein preiswertes Lenovo-NAS (€4000.-) um eine virtuelle Umgebung zu betreiben - egal ob Hyper-V oder ESXi. Was man zuhause einsetzt steht auf ganz anderem Papier, davon reden Wir aber hier nicht. Es geht um professionelle Umgebungen die unter ganz anderen Umständen laufen muss. Die Grenze ist immer dann erreich, wenn man nicht mehr alles "alleine" machen kann und fremder Hilfe bedarf - in der professionellen IT ein Normalzustand, zuhause er selten der Fall. Die ist nur unter begrenzten Umständen wirklich effektiv möglich und dass lässt sich mit Hilfe von Wartungsverträgen (Carepacks usw) definiert absichern. Zeit ist oft ein entscheidender Faktor und der lässt sich "alleine" nicht gewährleisten. Der Punkt in einem Unternehmen der dabei immer wieder repetiert wird nennt sich "Unternehmensrisiko" und hat mit Funktionalität bzw. mit dem, was man alles machen könnte, nun gar nicht mehr am Hut. Das Risiko ist bei Selbstbauten, so gut sie auch funktionieren mögen, unkalkulierbar. Im Fehlerfall muss die Zeit bis zur Wiederinbetriebnahme klar definiert sein. Bei den Selbstbauten dürfte das schwierig werden. Es lässt sich unschwer erkennen, dass sich der Fokus einer Netzwerkspeicherlösung in einem Unternehmen sehr unterschiedlich darstellt - es als nicht nur um Performance und benutzte Anbindungsart geht sondern das Gesamtpaket entscheidet, was geeignet ist.
Zum Detail des Threads zurück - ich rate grundsätzlich davon ab einen Mehrknotencluster auf ESXi-Basis auf eine NAS zu setzten. Im Supportfall wird man Probleme bekommen. Ich würde immer nur zertifizierte Komponenten einsetzten und möglichst sogar bei einem Hersteller bleiben wollen. In großen Umgebungen ist dass nicht immer in allen Punkten durchhaltbar aber dort gibt es auch entsprechendes Personal die sich das Detailwissen teilen und auch komplexe Umgebungen durchaus selbständig warten können.