plexxus
Goto Top

Storage Auswahl für vmware, Datenbank Fileserver

Hallo liebe Community,

wir stehen vor einer etwas verzwickten Entscheidung bzgl. Storage für 3 vmware Host - Server.

Zur Auswahl stehen eine
HP MSA2420 Dual Controller mit 10Gbit ISCSI 6x DACs direkt zu den Servern, 8x 900GB 12Gbit SAS HDDs 3y Garantie um €10k
gegen
Fujitsu Eternus DX200 DualController mit 16Gbit FC 6x direkt zu den Server, 10x 900GB 12Gbit SAS HDDs, 5y Garantie um €18k

Ich finde bzgl. IOPS usw. eher wenig Daten dzbgl.

Unsere GF sieht natürlich den Preisunterscheid und meint, warum 8.000€ mehr ausgeben.

Ich hab ehrlich gesagt etwas Angst dass die Performance der 10Gbit ISCSI gegenüber der 16Gbit FC einiges geringer ist.

Wir wollen darüber ca 50 SQL User, 100 Exchange User, 100 User die Dateiserver - Mäßig drauf zugreifen, .. laufen lassen + einige andere Dienste die aber nicht permanent IOPS ziehen.

back-to-topin Zukunft auch SharePoint usw.


Hat jemand Erfahrung mit der MSA2420 und ISCSI? Was da so drüber geht?

Danke für euren Rat!

Content-Key: 308953

Url: https://administrator.de/contentid/308953

Printed on: April 13, 2024 at 13:04 o'clock

Member: affabanana
affabanana Jul 05, 2016 at 10:05:37 (UTC)
Goto Top
Salü plexxus

Bei der HP hast du aber nur 3 Jahre Garantie und Service.
Und bei 6 Platten kommt halt nicht viel bei rum.

Ich hatte den Vorgänger der MSA2420 mit 2x4x 1GB iSCSI mit 2 ESX Hosts und circa 20 VM's am laufen.
Iops haben gereicht.

Bootstroms mal aussen vor.

FC würde ich nicht kaufen, wenn keine FC Fabric und Switche vorhanden sind.
Ist aber sicher performanter als 10G iSCSI.

Gruass affabanan
Member: plexxus
plexxus Jul 05, 2016 at 10:45:36 (UTC)
Goto Top
Hallo Affabanana,

Danke für die Info,

bei der HP sinds eh 8x 900GB.
10Gbit ISCSI sollte denke ich allemal reichen von der Übertragung her für die 20-30 Gäste (auf 3 Hosts).
Wenn würden wir 3 Hosts "Direct - Attachen", entweder über FC oder SFP+ DACs.
Member: gansa28
gansa28 Jul 05, 2016 updated at 10:50:12 (UTC)
Goto Top
Hi plexxus,


Zitat von @plexxus:

Zur Auswahl stehen eine
HP MSA2420 Dual Controller mit 10Gbit ISCSI 6x DACs direkt zu den Servern, 8x 900GB 12Gbit SAS HDDs 3y Garantie um €10k
gegen
Fujitsu Eternus DX200 DualController mit 16Gbit FC 6x direkt zu den Server, 10x 900GB 12Gbit SAS HDDs, 5y Garantie um €18k

Stehen denn 16Gbit FC Switche zur Verfügung? Denn wenn nicht schlagen diese auch noch mal Gewaltig ins Budget. Ich kenne die Eternus nicht aber ich glaube nicht das Du so viele Server direkt an den Storage anbinden kannst.

Ich würde auf 10Gbit ISCSI setzen, ordentliche 10G Switche, die Server mehrpfadig anbinden. Aber bei 8X900GB wird nicht sehr viel Performance rumkommen. je mehr spindeln desto mehr IO, bei ordentlicher Anbindung.

Alleine ein 16Gbit HBA kostet um die 1500€ das mal.

Müssen das unbedingt die beiden Hersteller sein?

Grüße

Gansa28
Member: plexxus
plexxus Jul 05, 2016 at 11:53:02 (UTC)
Goto Top
Hi gansa,
nö keine Switches.
lt. hersteller können beide SANs bis zu 4 Server direkt anbinden (beide im Dual Betrieb, fällt ein SAN Controller aus, übernimmt der andere usw.)

Ab wieviel Spindeln hat man merklich performance?

Welche Hersteller würdest du empfehlen? Welchen Preis haben die?

Danke für die Tipps!

Grüße
Plex
Member: Dr.EVIL
Dr.EVIL Jul 05, 2016 at 15:29:06 (UTC)
Goto Top
Es gibt, neben der MAS2040SAN mit kombiniertem 1/10Gbit iSCSI und 8/16Gbit FC Controller, auch eine MSA2040 SAS, die dur recht preisgünstig direkt mit 12Gbit anschließen kannst!
D.h. Die angebotene MSA kannst Du auch per 16GB FC direkt Anschließen. Allerdings sind die 16Gbit Hostbus Adapter noch recht teuer...
Die Garantie der MSA kann mit ServicePacks bis auf 5 Jahre verlängert und die Reaktionszeit und Leistungsumfang an Eure bedürfnisse angepasst werden.
Über die Performance brauchst Du Dir weder bei 12Gbit SAS, noch 16Gbit FC Gedanken zu machen. Bei 10Gbit iSCSI musst Du allerdings zwei (SEHR schnelle und dementsprechend teure)10Gbit iSCSI Switche zwischenschalten, was diese Lösung bei nur 4 Hosts unwirtschaftlich erscheinen lässt.
Die FC Lösung hat den Vorteil durch Switche erweiterbar zu sein, wenn plötzlich mehr als 4 Server angeschlossen werden müssen.

Die Latenzzeiten sind vorallem von die Anzahl und dem RAID Level der Platten abhängig.
Daher würde ich eher z.B. zu 20 600GB 15k SAS Platten im RAID10, als zu der beschriebenen 8 Platten Lösung greifen.
Beschleunigen kannst Du aber bei beiden Lösungen durch SSD Platten als zusätzlichem Cache. Die MSA kann man zumindest durch eine Zusatzlizenz (Performance Tiering) auch auf "Autotiering" umstellen, welches die Performance signifikant steigern dürfte. (Habe selbst so eine MSA2040 im Einsatz)
Mit der richtigen Konfiguration habe ich meine MSA laut IOMeter bereits auf über 35.000 IOPS (8k random 50% Write) gebracht.
(Mitlerweile hängen 3 ESX, 2 Hyper-V, ca 100VM und ein Backup Server daran.)
Member: Dani
Solution Dani Jul 05, 2016 at 18:34:46 (UTC)
Goto Top
Moin,
ich finde es erschaunlich wie mit solchen knappen Informationen eine Entscheidung getroffen werden soll.

Die Anzahl der VMs als auch Benutzer je Bereich sagt meiner Ansicht nach überhaupt nichts über
a) den benötigen Speicherplatz kurz/mittel/langfristig aus
b) Sicherungsstrategie und Disaster Recovery
c) die notwendigen IOPS (Performance), damit alles rund. Da gibt es von allen Herstellern nette Datenblätter, wo diese Infos zu finden sind. Notfalls den Vertrieb/Support kontaktieren.
d) Laufende Kosten und Zeit für die Wartung bzw. Unterhaltung der Geräte
e) Wie viele Jahre soll das System ohne Erweiterung von Speicherplatz oder sogar Austausch der Controller halten?
f) Welche Mehrwerte bietet Produkt A im Vergleich zu B und wodurch wird dein Aufwand geringer oder Arbeiten leichter?
g) Wie lange dauert ein Rebuild des RAIDs bei einem Ausfall einer Festplatte und ist währendessen ein Arbeiten notwendig? Was passiert bei einem zweiten Plattenausfall währendessen?

Wir können doch von der Ferne aus, überhaupt nicht beurteilen was am Power sowohl für Server, Anwendungen als auch durch Benutzer notwendig ist. Eine Abteilung von uns (nicht mehr als 20 Leuten) würde die Eternus in der ersten Woche an ihr Leistungslimit bringen. Eine andere Abteilung mit 50 Leuten dagegen, würde damit 2-3 Jahre auskommen. Was ich sagen möchte ist, umso genauer du deine Umgebung beschreibst um so präziser sind die Antworten.
Ich hab ehrlich gesagt etwas Angst dass die Performance der 10Gbit ISCSI gegenüber der 16Gbit FC einiges geringer ist.
Was wird an Datenmengen zwischen Hypervisor (vMotion, DRS, etc...), VMs, Clients und Storage verschoben? 10GBit entspricht ca. 850MB/Sekunde. Nimm von mir aus 700MB als Mittelwert, dann kannst du hochrechnen was dafür an Datenmengen täglich bewegen musst. Wenn du natürlich auch Spitzen abfangen möchtest, würde ich mir auf jeden Fall offnen halten, einen Trunk mit 20Gbit/s konfigurieren zu können.

Hier noch an Gedankenanstoß bezüglich iSCSI oder doch NFS?!
https://www.crnet.de/crnet-work/technik/iscsi-oder-nfs-in-vmware-esx/
http://vmware-forum.de/viewtopic.php?t=30009
http://lpsintegration.com/featured/nfs-or-iscsi-the-debate-is-maybe-ove ...


Gruß,
Dani