MSA 2050 RAID Konfig
Hallo Forum,
ich befasse mich gerade mit der MSA und möchte mit 40 x 1,2 TB SAS Platten die bestmögliche Plattenkonfig raus bekommen, wer kann mir ein paar Tipps geben? Das RAID selber soll aus Platzgründen ein RAID 5 werden. Insgesamt kann das Ganze dann aus einem Volume bestehen.
Besten Dank im Voraus!
ich befasse mich gerade mit der MSA und möchte mit 40 x 1,2 TB SAS Platten die bestmögliche Plattenkonfig raus bekommen, wer kann mir ein paar Tipps geben? Das RAID selber soll aus Platzgründen ein RAID 5 werden. Insgesamt kann das Ganze dann aus einem Volume bestehen.
Besten Dank im Voraus!
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 346797
Url: https://administrator.de/forum/msa-2050-raid-konfig-346797.html
Ausgedruckt am: 31.03.2025 um 17:03 Uhr
41 Kommentare
Neuester Kommentar
Hallo,
Da du dich für
Gruß,
Peter
Da du dich für
ein RAID 5
schon entschieden hast ist dein Ansinnen eine bestmögliche Plattenkonfig haben zu wollen schon erledigt / hinfällig.Gruß,
Peter
Wenn es dir um Platz geht dann muss es 1 Raid sein. Wobei bei so vielen Platten würd ich schon mal Raid 6 sagen. Dann noch 1x Hotspare abziehen.
Wenn du noch andere Parameter hast dann kann auch was anderes raus kommen. Warum kauft man sowas eigentlich ohne sich zuvor Gedanken zu machen welche Platten ich brauche und wie ich sie aufteile
Wenn du noch andere Parameter hast dann kann auch was anderes raus kommen. Warum kauft man sowas eigentlich ohne sich zuvor Gedanken zu machen welche Platten ich brauche und wie ich sie aufteile
Brauche ich wirklich ein Raid 6 , die msa ist mit einem 4 Stunden Support supportet und durch den dynamic disk pool könnte doch dann eine pro raid ausfallen?
Das ist das Problem bei raid5. Nur eine.
Wenn eine ausfällt, beginnt das raus den rebuild auf eine spare/die austauschplatte. Das erzeugt sehr viel Last auf allen Platten. Und wenn du Pech hast, fällt dadurch eine weitere aus. Je größer dein RAID ist, also je mehr Platten es hat, desto größer ist die Chance, dass das passiert.
Deshalb nimmt man heutzutage quasi nur noch raid6. Und auch da sind es immer maximal 2 Platten, die draufgehen dürfen
Außerdem ist raid5/6 nicht gerade optimal für einen Exchange. Und noch viel weniger für SQL DBs
Bis zu einem gewissen Punkt ja. Kommt hier stark auf den Controller an. Generell ist raid5 erst Mal kein Leistungsgarant. Jeder Block der geschrieben wird hat eine Parity-Berechnung zur Folge. Bei vielen Schreibzugriffen über viele raidsysteme, kommt der Controller da schon mal ans Limit.
Wenn du Performance willst, machst du besser ein Raid10. Mit jeder Platte zusätzlich im Stripes verdoppelt sich deine schreibperformance(nicht ganz, aber so grob).
SQL und Exchange sind generell auf einem raid5 nicht gut aufgehoben, weil die VIEL schreiben.
Und du kannst ja verschiedene raidsysteme in der MSA haben. Entsprechend kannst du dir ein raid10 machen in der Größe wie du es brauchst, und ansonsten raid5/6 mit je ein paar Platten. Gehe hier sicher, das die Platten aus verschiedenen produktions-chargen sind. Ein guter Lieferant macht das von sich aus.
Wenn du Performance willst, machst du besser ein Raid10. Mit jeder Platte zusätzlich im Stripes verdoppelt sich deine schreibperformance(nicht ganz, aber so grob).
SQL und Exchange sind generell auf einem raid5 nicht gut aufgehoben, weil die VIEL schreiben.
Und du kannst ja verschiedene raidsysteme in der MSA haben. Entsprechend kannst du dir ein raid10 machen in der Größe wie du es brauchst, und ansonsten raid5/6 mit je ein paar Platten. Gehe hier sicher, das die Platten aus verschiedenen produktions-chargen sind. Ein guter Lieferant macht das von sich aus.
Ich hätte jetzt eher gesagt.
Ein Raid 10 für die DB's
Ein Raid 5 oder 6 (je nach anzahl Festplatten) für den Exchange da der aus meiner Sicht nicht so kritisch ist was Geschwindigkeit betrifft. Ne Mail kann ruhig ein bisschen länger brauchen.
Und ein Raid 5 oder 6 für den Rest.
Du hast nicht zu viel Overhead durch die vielen kleinen Raid5 aber Trotzdem noch ne Aufteilung wodurch meiner Meinung nach die Last auf die Controller verteilt werden kann.
Bei ner DB im Produktiv Betrieb müsste man da vermutlich auch noch etwas verteilen.
Und Hotspare nicht vergessen. Auch mit dem Service Level von 4 Stunden
Ein Raid 10 für die DB's
Ein Raid 5 oder 6 (je nach anzahl Festplatten) für den Exchange da der aus meiner Sicht nicht so kritisch ist was Geschwindigkeit betrifft. Ne Mail kann ruhig ein bisschen länger brauchen.
Und ein Raid 5 oder 6 für den Rest.
Du hast nicht zu viel Overhead durch die vielen kleinen Raid5 aber Trotzdem noch ne Aufteilung wodurch meiner Meinung nach die Last auf die Controller verteilt werden kann.
Bei ner DB im Produktiv Betrieb müsste man da vermutlich auch noch etwas verteilen.
Und Hotspare nicht vergessen. Auch mit dem Service Level von 4 Stunden
Moin,
was auffällt ist, keine Frage nach der Anbindung der MSA2050 und keine Frage nach dem RAID Controller, keine Frage nach den IOPS!!!
Keine Frage RAID5 ist nicht so performant wie RAID1, aber diese Unterschiede sind nicht mehr so gravierend wie früher.
Also wie ist die MSA 2050 angebunden?
Zudem in Verbindung mit Virtualisierung wie VMware vSphere oder Microsofts Hyper-V macht es durchaus Sinn mehrere Datastores anzulegen.
Allerdings auf einem Storageblech ist das wenig sinnvoll. Dann wenn das Blech kaputt ist, ist der ganze Storage weg.
OK, 4 Stunden Support scheint mit eingekauft zu sein. Doch bis zu 4 Stunden OHNE Storage können für ein Unternehmen schmerzhaft teuer werden.
Denn beim 4 Stunden Support heißte es, Reaktionszeit innerhalb 4 Stunden und nicht Reparatur bzw. Austausch.
Erkundige Dich beim Dienstleister was GENAU im Supportvertrag steht.
P.S. Ich habe schon große Storagesysteme (IBM, NetApp, HP) gesehen und supportet, wo man diese als RAID5 / RAID6 eingerichtet hat und darauf umfangreiche SQL Datenbanken produktiv nutzt, OHNE Performaceproblemen.
Zumindest würde ich mit dem Dienstleister die Anforderung nochmal durchgehen und auch eine Performancemessungen machen (lassen).
Gruss Penny
was auffällt ist, keine Frage nach der Anbindung der MSA2050 und keine Frage nach dem RAID Controller, keine Frage nach den IOPS!!!
Keine Frage RAID5 ist nicht so performant wie RAID1, aber diese Unterschiede sind nicht mehr so gravierend wie früher.
Also wie ist die MSA 2050 angebunden?
- iSCSI (wie viele NICs und mit welcher Geschwindigkeit?)
- sind die NICs im Teaming (LACP)?
- FC (wie viele FC Adapter und mit welcher Geschwindigkeit {4, 8 oder 16 Gbit}}?
- wie viele IOPS werden benötigt (grade im Hinblick auf Oracle DBs und evtl. auch Exchange)
- welcher und wie viele RAID Controller sind im Einsatz (incl. BBU??)
- wie viele IOPS werden benötigt? - Folgend ein paar Links
Zudem in Verbindung mit Virtualisierung wie VMware vSphere oder Microsofts Hyper-V macht es durchaus Sinn mehrere Datastores anzulegen.
Allerdings auf einem Storageblech ist das wenig sinnvoll. Dann wenn das Blech kaputt ist, ist der ganze Storage weg.
OK, 4 Stunden Support scheint mit eingekauft zu sein. Doch bis zu 4 Stunden OHNE Storage können für ein Unternehmen schmerzhaft teuer werden.
Denn beim 4 Stunden Support heißte es, Reaktionszeit innerhalb 4 Stunden und nicht Reparatur bzw. Austausch.
Erkundige Dich beim Dienstleister was GENAU im Supportvertrag steht.
P.S. Ich habe schon große Storagesysteme (IBM, NetApp, HP) gesehen und supportet, wo man diese als RAID5 / RAID6 eingerichtet hat und darauf umfangreiche SQL Datenbanken produktiv nutzt, OHNE Performaceproblemen.
Zumindest würde ich mit dem Dienstleister die Anforderung nochmal durchgehen und auch eine Performancemessungen machen (lassen).
Gruss Penny
Moin,
mir stellte sich gleiche Frage wie bei @Penny.Cilin:
Die IOPS steigen mit Anzahl der Spindeln:
Ein RAID5 mit 10 Disks ist performanter als ein RAID 5 mit 3 Disks, da die Daten von 10 Disks kommen und nicht bloß von dreien.
Zudem, sind es 1,2TB Disks mit 7.2k rpm oder Disks mit 15k rpm?
Wobei die IOPS auf Disk-Ebene auch hinfällig sind, wenn die Storage per iSCSI an einem 100Mbit-Switch angebunden ist (mal etwas übertrieben dargestellt).
Ansonsten würde ich es ähnlich wie wiesi200 machen:
1x RAID 10 fürdie Oracle DB
1x RAID 6 für Server wie Exchange, DCs File-Server
1x RAID 5 für Systeme von untergeordneter Wichtigkeit: ein fehlender WSUS stört nicht das Tagesgeschäft des Business.
Dazu dann 2-3 HotSpares
Die verteilung der Disks nach nach benötigtem Volumen.
Warum so viele HotSpares: du wirst vermutlich eine Reaktionszeit von 4h haben. Eigene Erfahrungen (mit IBM) zeigen aber, dass neue Disks z.B. aus Irland oder Holland kommen und da Teleportation noch nicht erfunden ist, sind die Disks (erst zwei mal benötigt) dann erst am nächsten Morgen greifbar gewesen... Es macht also schon Sinn, sich gedanken über 2 HotSpares zu machen (wenigstens eine je Enclosure).
Wir hatten es einst so, dass wir eine DS3524 von IBM hatten, 24*600GB Disks, wovon 22 DISKs in einem RAID 5 liefen und dann zwei Hot-Spares vorgehalten wurden. Die Performance war dank FC anbindung (8GBit) ganz ordentlich, wobei das ERP, laufend auf einer AS400, primär im RAM lag und die anderen Systeme noch keine hohe Schreiblast erforderten (50 User, bissl FileServer, bissl Terminalserver, zwei Prozessvisualisierungen, ein Exchange, ....)
Mal am Rande:
Ihr habt ne MSA2050. Jede EInheit frisst ja "nur" 24 Disks, dem zur Folge habt ihr vermutlich ein Enclosure dranhängen, was ein maximum von 48 Disks bedeutet: mal daran gedacht, für die DB ein Array aus SSDs dazu zu packen? Ist natürlich nur Sinnvoll, wenn die Daten auch schnell genug zwischen Host und Controller befördert werden können.
€dit:
Gruß
em-pie
mir stellte sich gleiche Frage wie bei @Penny.Cilin:
Die IOPS steigen mit Anzahl der Spindeln:
Ein RAID5 mit 10 Disks ist performanter als ein RAID 5 mit 3 Disks, da die Daten von 10 Disks kommen und nicht bloß von dreien.
Zudem, sind es 1,2TB Disks mit 7.2k rpm oder Disks mit 15k rpm?
Wobei die IOPS auf Disk-Ebene auch hinfällig sind, wenn die Storage per iSCSI an einem 100Mbit-Switch angebunden ist (mal etwas übertrieben dargestellt).
Ansonsten würde ich es ähnlich wie wiesi200 machen:
1x RAID 10 fürdie Oracle DB
1x RAID 6 für Server wie Exchange, DCs File-Server
1x RAID 5 für Systeme von untergeordneter Wichtigkeit: ein fehlender WSUS stört nicht das Tagesgeschäft des Business.
Dazu dann 2-3 HotSpares
Die verteilung der Disks nach nach benötigtem Volumen.
Warum so viele HotSpares: du wirst vermutlich eine Reaktionszeit von 4h haben. Eigene Erfahrungen (mit IBM) zeigen aber, dass neue Disks z.B. aus Irland oder Holland kommen und da Teleportation noch nicht erfunden ist, sind die Disks (erst zwei mal benötigt) dann erst am nächsten Morgen greifbar gewesen... Es macht also schon Sinn, sich gedanken über 2 HotSpares zu machen (wenigstens eine je Enclosure).
Wir hatten es einst so, dass wir eine DS3524 von IBM hatten, 24*600GB Disks, wovon 22 DISKs in einem RAID 5 liefen und dann zwei Hot-Spares vorgehalten wurden. Die Performance war dank FC anbindung (8GBit) ganz ordentlich, wobei das ERP, laufend auf einer AS400, primär im RAM lag und die anderen Systeme noch keine hohe Schreiblast erforderten (50 User, bissl FileServer, bissl Terminalserver, zwei Prozessvisualisierungen, ein Exchange, ....)
Mal am Rande:
Ihr habt ne MSA2050. Jede EInheit frisst ja "nur" 24 Disks, dem zur Folge habt ihr vermutlich ein Enclosure dranhängen, was ein maximum von 48 Disks bedeutet: mal daran gedacht, für die DB ein Array aus SSDs dazu zu packen? Ist natürlich nur Sinnvoll, wenn die Daten auch schnell genug zwischen Host und Controller befördert werden können.
€dit:
Momentan betreibe ich die Gesamte ESX umgebung auf den DL 380 Blech mit jeweils 8 Platten im RAID0 und das läuft gut zufriedenstellend.
Seeehr mutig, ein RAID 0: eine Platte defekt, das ganze Array defekt und du darfst dein Backup bemühenGruß
em-pie
Moin,
das mit der 4h Reparatur möchte ich anzweifeln, das beste was du bei HP bekommst ist 6 hour call-to-repair, normalerweise werden aber nur 4h Hardware Support verkauft denn die 6h Call to repair sind seeehr teuer (wenn man nicht einen guten Grund dafür hat).
VG,
Thomas
das mit der 4h Reparatur möchte ich anzweifeln, das beste was du bei HP bekommst ist 6 hour call-to-repair, normalerweise werden aber nur 4h Hardware Support verkauft denn die 6h Call to repair sind seeehr teuer (wenn man nicht einen guten Grund dafür hat).
VG,
Thomas
Hallo Zusammen
Ich habe ebenfalls kürlich ein MSA2050 bestellt, warte jedoch noch darauf.
Bei der Konfiguration würde ich empfehlen mit zwei RAID5 und einer Global Spare Platte zu arbeiten. Laut HPE Best Practise ist es von Vorteil, mit zwei oder mehr RAID Volumes zu arbeiten, da dies dem Load Balancing zu gute kommt. DAS MSA verteilt die RAID Volumes immer abwechselnd auf die Controller, also RAID Nr.1 auf Controller A, RAID Nr.2 auf Controller B usw. In der Regel habe ich ein MSA zwecks Failover immer mit mindestens je einem FC an jedem Controller angebunden.
Nun hätte ich aber zu dem MSA2050 selbst noch eine Frage: Laut Informationen von HPE sind intern bereits zwei SSDs vorinstalliert.
- Ist dies korrekt?
Damit müsste sich dann ja quasi ein Hybrid RAID erstellen lassen mit Caching auf den SSDs, hat damit bereits jemand Erfahrungen gemacht?
Gruss, Cedy
Ich habe ebenfalls kürlich ein MSA2050 bestellt, warte jedoch noch darauf.
Bei der Konfiguration würde ich empfehlen mit zwei RAID5 und einer Global Spare Platte zu arbeiten. Laut HPE Best Practise ist es von Vorteil, mit zwei oder mehr RAID Volumes zu arbeiten, da dies dem Load Balancing zu gute kommt. DAS MSA verteilt die RAID Volumes immer abwechselnd auf die Controller, also RAID Nr.1 auf Controller A, RAID Nr.2 auf Controller B usw. In der Regel habe ich ein MSA zwecks Failover immer mit mindestens je einem FC an jedem Controller angebunden.
Nun hätte ich aber zu dem MSA2050 selbst noch eine Frage: Laut Informationen von HPE sind intern bereits zwei SSDs vorinstalliert.
- Ist dies korrekt?
Damit müsste sich dann ja quasi ein Hybrid RAID erstellen lassen mit Caching auf den SSDs, hat damit bereits jemand Erfahrungen gemacht?
Gruss, Cedy
Hallo wiesi
Wir betreiben VMWare ESXi auf den Hosts und nutzen die MSAs als Datastore. Denkst du ein RAID mit SSD caching wäre dafür sinnvoll? Sind die von HPE erwähnten SSDs intern eingebaut? Wir haben das MSA mit 2.5" VOllausbau bestellt und laut HPE sollen da trotzdem noch irgendwo SSDs vorhanden sein...
Wir betreiben VMWare ESXi auf den Hosts und nutzen die MSAs als Datastore. Denkst du ein RAID mit SSD caching wäre dafür sinnvoll? Sind die von HPE erwähnten SSDs intern eingebaut? Wir haben das MSA mit 2.5" VOllausbau bestellt und laut HPE sollen da trotzdem noch irgendwo SSDs vorhanden sein...
Zitat von @D-Line:
Hallo wiesi
Wir betreiben VMWare ESXi auf den Hosts und nutzen die MSAs als Datastore.
Hallo wiesi
Wir betreiben VMWare ESXi auf den Hosts und nutzen die MSAs als Datastore.
Ich würd mal bei VMWare Nachfragen. Ob du damit einen richtig Spürbaren Effekt erzielst kann ich dir nicht sagen. Aber ich glaub nicht das er zu groß ausfällt
RTFM! 
Mache bitte nicht den selben Fehler wie der TO und lese erst nach der Inbetriebnahme die BEDIENUNGSANLEITUNG!
Eine MSA2050 ist kein X-Beliebiges RAID Storage...
Um hier eine optimale Konfiguration zu erreichen sollte man sich mit den grundlegenden Bedienungskonzepten dieses Gerätes auseinandersetzen.
Bevor man z.B. den Begriff "Pool" nicht begriffen hat, sollte man sich über die nachgeordneten RAID Level keine Gedanken machen.
Bei einer MSA2050 sind KEINE SSDs im Grundgerät enthalten. Auch die Lizenz für das Autotiering muss separat erworben werden.
Das Gerät mit den vorinstallierten 800GB SSD und der "Volllizensierung" wäre die MSA 2052!
Diese können als Cache verwendet werden.
Allerdings halte ich Cache nur füpr eine "Krücke".
Die SSD sind in den meisten Fällen besser als "Tier0" in einem Autotiering Pool eingesetzt.
Mache bitte nicht den selben Fehler wie der TO und lese erst nach der Inbetriebnahme die BEDIENUNGSANLEITUNG!
Eine MSA2050 ist kein X-Beliebiges RAID Storage...
Um hier eine optimale Konfiguration zu erreichen sollte man sich mit den grundlegenden Bedienungskonzepten dieses Gerätes auseinandersetzen.
Bevor man z.B. den Begriff "Pool" nicht begriffen hat, sollte man sich über die nachgeordneten RAID Level keine Gedanken machen.
Bei einer MSA2050 sind KEINE SSDs im Grundgerät enthalten. Auch die Lizenz für das Autotiering muss separat erworben werden.
Das Gerät mit den vorinstallierten 800GB SSD und der "Volllizensierung" wäre die MSA 2052!
Diese können als Cache verwendet werden.
Allerdings halte ich Cache nur füpr eine "Krücke".
Die SSD sind in den meisten Fällen besser als "Tier0" in einem Autotiering Pool eingesetzt.
So richtig ist mir das noch nicht klar...
Ich habe die beiden POOLs, POOL A wird von Controller 1 bedient und POOL B von Controller 2.
Nun möchte ich ja DBs usw. auf RAID10 packen. Als packe ich doch dann in POOL A z.b ein RAID 10 über die 18 Platten und z.B. 3 x RAID 5 über den POOL B (restlichen 18 Platten, da eine Platte pro Enclosure Global Spare. Wenn ich die Pools mit unterschiedlichen RAIDS mixe, dann kann ich das doch gar nicht vernünftig aufteilen der sehe ich das falsch?
Es gibt zwei Grundsätze bei der MSA Storage Konfiguration:
Eine der fundamentalen "Best Practices" lautet: "The Power of 2"!
Dies bedeutet: Ungerade Anzahlen vermeiden, Storage möglichst symetrisch aufbauen.
Weitere lauten: "Safety First!" und:
"Keep it Simple"
Gemeinsam mit anderen Best Practices (Z.B. bei Platten >1TB nur RAID6 verwenden) schlage ich vor:
-Zwei Pools
-Bestehend jeweils aus einem RAID60 Verbund aus 2x 10Platten
Jedes "zerstückeln" oder "mischen" eines solch ausbalancierten Systems bedeutet einen höheren Performanceverlust, als mit noch so aufgefeilten RAID10, Caching und Autotiering Techniken auszugleichen ist.
Über die Performance und Kapazität, sowie den Sinn oder Unsinn von zusätzlichen HotSpares in einer RAID60 Umgebung kann man im Anschluss diskutieren...
Sorry.
Mein Kommentar bezog auf die Zwischenfrage von D-Line
Meinen Vorschlag findest Du in der oben stehenden Antwort.
Zu den Pools:
Bei einem "klassischen" Storage, wie bspw. einer älterern MSA P2000, gibt es nur "lineare" LUN (Logical UNits=Laufwerke)
Hier werden alle Platten im System zu einem oder mehreren RAID zusammengefasst und dann als Volumes aufgeteilt und zu den Hostst "gemapt"
Bei einem Storage der "dritten Generation" (Alles ab MSA 1040, 3PAR, EVA usw.) werden die Datenblöcke per "Wide Striping" über alle physischen Medien eines Storage verteilt. Man kan also einen "Pool" einrichten, der Beispielsweise sowohl SAS 10K Platten, als auch SSDs oder auch 3,5" Nearline (7.200U/min) Platten enthält, oder (wie bei Dir) mehrere RAID 5 oder 6 Verbünde miteinander "stacken".
Anders wie bei einem linearen LUN arbeiten in einem POOL beide Controller "active/active" gemeinsam und ergeben so einen redundanten "Allradantrieb" mit zwei "Motoren", wobei einer der Controller im laufenden Betrieb ausfallen kann, ohne das die Hosts dies, wenn sie richtig angeschlossen wurden (MPIO), mitbekommen...
Lediglich die maximale zu erreichende Leistung halbiert sich. (Luxusproblem, da 220.000 IOPS nur mit einer "All Flash" Konfiguration erreichbar ist)
Sollte die Leistung deiner Anlage, wieder erwarten nicht ausreichen, würde ich mir die "Advanced Data Services Suite" zulegen und für jeden Pool zwei 800GB SSD im RAID1 hinzufügen. "
"HotBlocks" also Datenblöcke die von den Hosts im Verhältnis häufiger als andere angefordert werden, werden dann auf die SSD geschoben, was in vielen mir bekannten Fällen erheblich schneller ist als jede auf der MSA mögliche RAID10 Konfiguration mit 10K SAS Platten.
(Ausnahme: SAP auf Oracle mit hohere Schreiblast)
"Cache" hat die 2050 mit 16GB bereits mehr als genug, wenn sie nicht gerade von einem Rudel "Streaming Hosts missbraucht" wird...
Daher bringt die serienmäßige "Flash Read Cache" Funktion in einer VM Umgebung, verglichen mit "Autotiering" relativ wenig...
Mein Kommentar bezog auf die Zwischenfrage von D-Line
ja, ich habe das Poolverhalten noch nicht begriffen, selbst HP konnte mir dazu nichts sinnvolles sagen. Anscheinend hat darüber noch niemand so richtig nachgedacht, vielleicht kannst du mir die 2 Pools näher bringen? Bei uns handelt es sich um die MSA 2050, da keine SSDs enthalten.
Meinen Vorschlag findest Du in der oben stehenden Antwort.
Zu den Pools:
Bei einem "klassischen" Storage, wie bspw. einer älterern MSA P2000, gibt es nur "lineare" LUN (Logical UNits=Laufwerke)
Hier werden alle Platten im System zu einem oder mehreren RAID zusammengefasst und dann als Volumes aufgeteilt und zu den Hostst "gemapt"
Bei einem Storage der "dritten Generation" (Alles ab MSA 1040, 3PAR, EVA usw.) werden die Datenblöcke per "Wide Striping" über alle physischen Medien eines Storage verteilt. Man kan also einen "Pool" einrichten, der Beispielsweise sowohl SAS 10K Platten, als auch SSDs oder auch 3,5" Nearline (7.200U/min) Platten enthält, oder (wie bei Dir) mehrere RAID 5 oder 6 Verbünde miteinander "stacken".
Anders wie bei einem linearen LUN arbeiten in einem POOL beide Controller "active/active" gemeinsam und ergeben so einen redundanten "Allradantrieb" mit zwei "Motoren", wobei einer der Controller im laufenden Betrieb ausfallen kann, ohne das die Hosts dies, wenn sie richtig angeschlossen wurden (MPIO), mitbekommen...
Lediglich die maximale zu erreichende Leistung halbiert sich. (Luxusproblem, da 220.000 IOPS nur mit einer "All Flash" Konfiguration erreichbar ist)
Sollte die Leistung deiner Anlage, wieder erwarten nicht ausreichen, würde ich mir die "Advanced Data Services Suite" zulegen und für jeden Pool zwei 800GB SSD im RAID1 hinzufügen. "
"HotBlocks" also Datenblöcke die von den Hosts im Verhältnis häufiger als andere angefordert werden, werden dann auf die SSD geschoben, was in vielen mir bekannten Fällen erheblich schneller ist als jede auf der MSA mögliche RAID10 Konfiguration mit 10K SAS Platten.
(Ausnahme: SAP auf Oracle mit hohere Schreiblast)
"Cache" hat die 2050 mit 16GB bereits mehr als genug, wenn sie nicht gerade von einem Rudel "Streaming Hosts missbraucht" wird...
Daher bringt die serienmäßige "Flash Read Cache" Funktion in einer VM Umgebung, verglichen mit "Autotiering" relativ wenig...
insgesamt sind 40 Platten vorhanden
Also für Pool A = 2 x RAID 6 mit jeweils 10 Platten und für Pool
B das gleiche ??
Das ganze dann ohne Global Spare
Also für Pool A = 2 x RAID 6 mit jeweils 10 Platten und für Pool
B das gleiche ??
Das ganze dann ohne Global Spare
Korrekt!
So erhältst Du ein Storage mit bis zu 8 Platten die ausfallen können...
Ob du angesichts dessen noch zumeist "faul herumlungernde HotSpares" benötigst, sei dahingestellt.
Ich kam auf das RAID10, da mir am Anfang des Forenverlaufs die Einteilung empfohlen wurde. Deswegen dachte ich an ein RAID10 für POOL A und z.B. RAID6 im Pool b
Die Aussage ist auch richtig, bei einem "klassischen" Storage mit "linearen" RAID Leveln.
Du hast allerdings ein System welches bereits darüber hinaus geht.
Es wäre Schade, diese Eigenschaften nicht zu nutzen.
Allerdings wird auch deine MSA2050 schneller, wenn Du ein RAID10 verwendest...
Es kommt darauf an, was Du mit dem Storage machen möchtest... (Wieviele Hosts, mit wievielen und welchen VM darauf zugreifen)
Im Zweifelsfall teilst Du das System in zwei Hälften:
Pool A: RAID60 (2x10)
Pool B: RAID10 (10x2)
In beiden Fällen erhältst DU ein sehr redundantes und schnelles System, Beim etwas schnelleren RAID10 ist der Nettoverlust allerdings bei 50%, bei RAID60 bei nur 20%...
Du musst selbst abwägen welches (Kapazität oder Geschwindigkeit) Dir wichtiger ist.
Momentan habe ich die Konfig um komme habe ca. 10 sek einen 1,6 Gb/s durchsatz und dann geht er runter auf ca 300 -500MB pro sek
Normal!
Der "Zusammenbruch" beim Kopieren von Daten erklärt sich aus dem Cache. In den ersten 10 Sekunden werden die Daten noch nicht auf das Storge geschrieben sondern in den Cache. Erst dann beginnen die Platten zu "wirken"...
In der Praxis (VM,s Datenbanken usw.) spielt dies aber kaum eine Rolle. Wichtig ist lediglich die Latenzzeit des Storage in Millisekunden. Diese Zeit bemerkt man im Betrieb als "Geschwindoigkeit".
(Siehe meine Bemerkung zur "Stream Vergewaltigung")
Zitat von @Leo-le:
Vielen Dank für die aussagekräftigen Antworten!
Das bedeutet also, dass sogar innerhalb des RAID6 (10Platten) 4 Platten im Pool ausfallen können? Da der Pool sich ja dann über die gesamten 20 Platten hinweg aufteilt.
Nein, es koennen 2x2 Platten ausfallen. Bzgl. der Global Hotspare waere ich nicht so optimistisch auf sie verzichten zu wollen. Im Falle eines Falles wird das Rebuild wenn vorhanden sofort gestartet, bei 1.2TB dauert das ja auch etwas.Vielen Dank für die aussagekräftigen Antworten!
Das bedeutet also, dass sogar innerhalb des RAID6 (10Platten) 4 Platten im Pool ausfallen können? Da der Pool sich ja dann über die gesamten 20 Platten hinweg aufteilt.
VG,
Thomas
Die Aussagen unseres HPE Betreuers und denen von Dr. Evil stimmen soweit überein. Ich habe unser neues MSA2052 jetzt folgendermassen konfiguriert:
Controller A: 1x RAID5 mit 10 Festplatten + eine SSD als Read Cache, das Ganze in einem Pool zusammen gefasst.
Controller B: 1x RAID5 mit 11 Festplatten + eine SSD als Read Cache, das Ganze ebenfalls in einem Pool zusammen gefasst.
Die übrig gebliebene Disk wurde als Global Spare definiert.
Wir machen noch Performance Tests aber alle in allem sind wir mit der Leistung bis jetzt sehr zufrieden (SQL2016 VM auf VMWare 5.5)
Gruss, C3dy
Controller A: 1x RAID5 mit 10 Festplatten + eine SSD als Read Cache, das Ganze in einem Pool zusammen gefasst.
Controller B: 1x RAID5 mit 11 Festplatten + eine SSD als Read Cache, das Ganze ebenfalls in einem Pool zusammen gefasst.
Die übrig gebliebene Disk wurde als Global Spare definiert.
Wir machen noch Performance Tests aber alle in allem sind wir mit der Leistung bis jetzt sehr zufrieden (SQL2016 VM auf VMWare 5.5)
Gruss, C3dy