techgene
Goto Top

Datacore Sansymphony vs IBM San Volume Controller

Hallo Leute!

in unserem Unternehmen verfügen wir momentan über 2 IBM V7000 Storage mit jeweils 40 TB Speicher.
Zusätzlich verfügen wir über eine QNAP (20 TB).

Das Problem ist, dass unsere Storage momentan nicht redundant sind, dies soll sich ändern.

Nun haben wir uns verschiedene Lösungen angeschaut und sind nun am überlegen welches am geeignetsten für uns wäre:

  • Datacore Sansymphony
  • IBM San Volume Controller

Kenne mittlerweile Vor und Nachteile beider Anbieter, möchte jedoch gerne mit jemanden sprechen welcher diese Produkte bereits im Einsatz hat?
Datacore hat uns mit seiner Flexibilität und Performance beeindruckt, IBM jedoch bietet hard- und software an, somit würde sich der Support nur auf einen Vendor beziehen.
Zudem scheint IBM geeigneter für größere Unternehmen.

Möchte jedoch gerne eigene Erfahrungen von euch in die Entscheidung mit einbeziehen.

Wäre Dankbar.

Gruß
Eli

Content-ID: 341656

Url: https://administrator.de/forum/datacore-sansymphony-vs-ibm-san-volume-controller-341656.html

Ausgedruckt am: 23.12.2024 um 06:12 Uhr

em-pie
em-pie 26.06.2017 um 16:55:05 Uhr
Goto Top
Moin,
also wir haben den SVC im Einsatz und sind, mehr als nur zufrieden damit.

Vorweg, was beide m.E. im Wesentlichen unterscheidet:
Der SVC kennt ein SplitBrain Szenario, sprich, was passiert, wenn zwischen beiden SVC-Nodes nur die Datenletung weg ist. Beide für sich glauben, die andere Seite ist tot und wollen die Macht übernehmen. Folge: Welche Seite hat dann die richtigen Daten?
DataCore hatte mir vor 3-4 Jahren mal gesagt: "EIn SplitBrain kennen wir nicht, alle Leitungen werden ja redundant zum Spiegelsystem geführt" Ich habe das dann mal so stehen lassen. Unrecht haben die nicht, aber nicht immer kann ich die LWL-Strippen an zwei Gebäudeseiten entlanglaufen lassen... Geschweige denn an zwei Stellen eine Bundesstraße aufkloppen lassen, um die Leitungen an zwei Stellen auf die andere STraßenseite zu befördern...

Um das SplitBrain zu vermeiden, benötigst du, zusätzlich zu den bereits vorhandenen 7000ern, eine Quorum-Disk
Bisweilen musste dafür immer eine vollwertige Storage "geopfert" werden, wobei ich im grauen Hinterstübchen habe, dass mit der aktuellen SVC-FW auch ein NFS-Share eines NAS ausreicht. Die Quorum wird dann, gemäß Best-Practice an einem dritten Standort platziert und direkt an den SVC angebunden, also ohne über irgendwelche FC-Switche zu gehen.
Dadurch hast du schon mal gewährleistet, dass die Quorum-Storage nicht mit Hopps geht, wenn einer deiner STorages im Serverraum schwimmt.
Idealerweise werden auch die Storages über Kreuz direkt angebunden.

Was haben wir an den SVC angebunden:
2x 2072-24C mit je 1x V2072-24E. Alle vier vollbestückt mit jeweils 600GB HDD 10kupm. in Summe also 2x ~28TB (nto ~26 TB, da noch 1x HotSpare und alles im RAID5)
Die Qourum ist eine 2072-12C mit 12x 3TB Disks. 100MB als Quorum-LUN Rest als Speicher für das Backup2Disk2Tape Konzept.
Alles via 8GBit FC und über FC-Switche angebunden.

Die 4 vmWare Hosts lasten das System hinsichtlich IO nicht sonderlich aus, haben aber auch keine extrem schreiblastigen Applikationen angebunden. selbst die angebundene AS400, welche das ERP für knapp 100 Mitarbeiter (ca. 60 User) beherbergt, lastest das System nicht aus.

Die Stabilität ist IBM-like (also bestens) und das CallHome bei Problemem klappt ebenfalls hervorragend. Bedienung ist Easy und es lassen sich auch hier Dritthersteller von Storages anbinden. Easy-Tiering haben wir aktuell nicht, wird aber mit dem nächsten Tausch der Hardware (Ende 2017/ Anfang 2018) relevant werden, weil dann mit hoher Wahrscheinlichkeit SSDs (aufgrund eines neuen ERPs) implementiert werden.

Welche Frage sich mir gerade stellt:
Warum wollt ihr genau einen SVC/ DC einsetzen, nur des Spiegels wegen?
Das kann die V7000 auch von alleine. Da braucht es keinen (teuren) Kopf drüber.
Wollt ihr Dedup, FlashCopy, EasyTiering, oder verschiedene STorages-Hersteller anbinden, dann seit ihr auf dem richtigen Weg.

Wir haben uns damals für den SVC entschieden, weil DataCore die AS400 nicht suppoirtet. technisch können die das, aber wenn was passiert.....

Was natürlich bei DC spannend ist, ist die Thematik Multi IO. Die IOs sind schon nicht ohne, die die damit erzielen. Ob man die IOs am Ende benötigt, ist eine andere Frage face-wink

Hoffe, habe dir ein wenig helfen können.

Gruß
em-pie
TECHGENE
TECHGENE 26.06.2017 um 17:33:42 Uhr
Goto Top
Hallo!

Danke schon mal für die genauen Infos!

Zu deinen Fragen:
Warum wollt ihr genau einen SVC/ DC einsetzen, nur des Spiegels wegen?
Grund ist auch easy tiering, zudem wollen wir verschiedene Storage Systeme von einen Punkt aus managen.
Das kann die V7000 auch von alleine. Da braucht es keinen (teuren) Kopf drüber.
Wollt ihr Dedup, FlashCopy, EasyTiering, oder verschiedene STorages-Hersteller anbinden, dann seit ihr auf dem richtigen Weg


Haben auch noch AS400 im Einsatz, dort jedoch haben wir einen eigenen Storage.
Was mir an IBM nicht so gefällt ist, dass sie schauen dich immer abhängig von ihnen zu machen, z.b. AS400 usv. ohne IBM Storage sind probleme vorprogrammiert, zudem unterztützt IBM nur Enterprise Storage in FC und kein support für ISCSI, die QNAP wäre dann also nicht mehr geeignet.

Bei DATACORE ist der Vorteil, dass sie dir nur die Software verkauft wird, Hardware ist alles kompatibilel, könnte sogar 2 USB Sticks in Raid schalten und diese verwalten.
Auch der Cache ist beeindruckend, während bei SVC nur 64 GB unterstützt werden (nach neuem Release in diesem Jahr sollen bis zu 128 GB unterstützt werden), kann man bei Datacore auch mal 500 GB+ cache verwenden welcher dann für ziehmlich guter Performance sorgen sollte.

Hier jedoch wieder ein Risiko, sollte mal der Strom fallen sind die Daten im Cache weg falls man keine UPS im Einsatz hat. Hier könnte man sich entscheiden nur Read Cache zu verwenden...

Sind uns bei Datacore eben bei einigen Punkten unsicher ob sie für ein größeres unternehmen geeignet sind.
Support habe ich gehört soll nicht schlecht sein.

Bei IBM mit den V7000 Storage haben wir sehr schlechte Erfahrnungen gemacht, Techniker wussten teilweisse nicht wo anfangen...

Danke!
Eli
em-pie
em-pie 26.06.2017 aktualisiert um 21:48:16 Uhr
Goto Top
Haben auch noch AS400 im Einsatz, dort jedoch haben wir einen eigenen Storage.
Was mir an IBM nicht so gefällt ist, dass sie schauen dich immer abhängig von ihnen zu machen, z.b. AS400 usv. ohne IBM Storage sind probleme vorprogrammiert, zudem unterztützt IBM nur Enterprise Storage in FC und kein support für ISCSI, die QNAP wäre dann also nicht mehr geeignet.
Im Falle der AS400 liegt das aber nur indirekt an IBM. Die System i ist, genauso wie der große Rechenknecht System z, ein ausschließlich von IBM entwickeltes Produkt, welches leider auch am Markt nicht mehr so sehr verbreitet ist. Aufgrund von letzterem nimmt sich keiner den Systemen an um Kompatibilitäten zu schaffen. Warum auch? Die, die eine PowerPC-Maschine betreiben, sind zweifelsfrei Kunden bei IBM und erzielen bei Neuanschaffungen immer gute(!) Projektpreise. Warum dann die Storage vom Marktbegleiter verwenden, bei dem die Storage dann am Ende teurer ist. Im Bereich der Intel-Plattform (wurde ja weitesgehend an Lenovo abgetreten) ist IBM ja ohnehin nicht mehr am Markt aktiv und auch die Storages hat IBM ihr Portfolio ebenfalls verschlankt. Gibt ja neben den Tape-Libraries und dem SVC nur noch wenige Produkte am Storage-Markt, die von IBM stammen.

Was läuft denn auf eurer AS400?
Ein noch produktiv genutztes ERP?
Wenn ja, wie lange wird es womöglich noch dort bleiben?
Wie ist die Storage angebunden?
Auch redundant?

Wenn dort noch ein ERP läuft und die Storage nicht über ein HA verfügt, würde ich das in jedem Fall mit in die Enstcheidungsfindung mit einbeziehen. Denn was macht ihr, wenn die Storage (nicht die 400, denn die ist unkapputtbar face-smile) mal die Füße streckt?
Bedenkt aber, dass ihr dann auch zwei VIOS in der System i benötigt, wenn ihr euch doch dazu entscheidet, die AS400 mit ins Storage-HA aufzunehmen.


Bei DATACORE ist der Vorteil, dass sie dir nur die Software verkauft wird, Hardware ist alles kompatibilel, könnte sogar 2 USB Sticks in Raid schalten und diese verwalten.
Das stimmt. Am Ende aber dennoch die Frage: Wenn irgendwas ist, muss DC noch aufwendig mit MS und dem Serverhersteller kommunizieren? oder zieht sich DC grundsätzlich den Schuh an? (Habe keine Erfahrung damit, einfach mal nur offen in den Raum gestellt)

Auch der Cache ist beeindruckend, während bei SVC nur 64 GB unterstützt werden (nach neuem Release in diesem Jahr sollen bis zu 128 GB unterstützt werden), kann man bei Datacore auch mal 500 GB+ cache verwenden welcher dann für ziehmlich guter Performance sorgen sollte.
0,5TB im Cache haben was.... braucht ihr das denn? Ich vermute, dass der FC-Anschluss (sofern nicht gerade 16G) hier ein Bootleneck sein wird, beneso wie zu kleine Caches in den Storages. Wir haben derweil 32GB in den SVCs verbaut und das langt allemal

Hier jedoch wieder ein Risiko, sollte mal der Strom fallen sind die Daten im Cache weg falls man keine UPS im Einsatz hat. Hier könnte man sich entscheiden nur Read Cache zu verwenden...
Und hier hat IBM bereits je Cluster-Node 2 Batteriepacks verbaut.
Da fällt mir gerade ein, dass ich mal testen müsste, was passiert, wenn sich deren Kapazität dem Ende neigt... mal im nächsten Wartungsfenster kontrolliert testen face-smile

Sind uns bei Datacore eben bei einigen Punkten unsicher ob sie für ein größeres unternehmen geeignet sind.
Support habe ich gehört soll nicht schlecht sein.
Beides stelle ich nicht in Frage. Schaue dir mal die Referenzen von DC an face-wink
Unser Systemhaus des Vertrauens, welche uns im Intel-Umfeld, Citrix, vmWare, etc. betreut, betreibt ebenfalls viele DC Installationen bei den Kunden. D.h. das Systemhaus selbst hat entsprechendes Know-How und wenn das Systemhaus selbst nicht mehr weiter weiss, tritt als Third-Level-Support der Hersteller ein....

Bei IBM mit den V7000 Storage haben wir sehr schlechte Erfahrnungen gemacht, Techniker wussten teilweisse nicht wo anfangen...
Das liegt dann aber nicht zwingend an IBM selbst.
Sowohl unser anderes Systemhaus des Vertrauens (IBM Premium-Partner) als auch die bisher angetrabten IBM-Techniker (Raum Dortmund) sind mehr als nur fähig die Systeme zu supporten. Und wenn die mal nicht weiter wissen, gehen die Dump-Files (DataCollects) direkt an IBM.


Was mir gerade auffällt:
Klingt, als wolle ich dich zu IBM bewegen. Das ist allerdings nicht meine Intention. Ich schildere dir nur meine Erfahrungen, die ich bisher mit IBM sammeln konnte. Das einzige, was ich mal als abenteuerlich empfand, war deren Sinn von Lizenzierung bzw. dessen Änderung. Wenn ich mich da an die TSM-Themen erinnere... oh mann... Die haben mal ihr Modell umgestellt, kamen aber nicht hinterher, dass auch in deren Systemen anzupassen. Folglich wollte man die neuen bestellen, ging aber irgendwie nicht... Naja, egal, anderes Thema face-big-smile
TECHGENE
TECHGENE 27.06.2017 um 10:46:42 Uhr
Goto Top
Hallo nochmal,

danke nochmals für die Antwort!

Das stimmt. Am Ende aber dennoch die Frage: Wenn irgendwas ist, muss DC noch aufwendig mit MS und dem Serverhersteller kommunizieren? oder zieht sich DC grundsätzlich den Schuh an? (Habe keine Erfahrung damit, einfach mal nur offen in den Raum gestellt)

Dies haben wir durchaus berücksichtigt und ja, ist sicherlich ein Nachteil wenn es zu Problemen kommt, ist ja immer so, einer schiebt die Schuld auf den anderen und man kommt zu keinem Punkt. Bei IBM sicher ein Vorteil wenns mit dem support klappt.

Was noch dazu kommt ist, dass die beiden Angebote beider Anbieter fast auf Augenhöhe sind.
Haette mir gedacht Datacore ist wesentlich günstiger, jedoch ist zu sagen, dass die zwei DELL Maschienen mit jeweils 2 6,4 TB ssd platten viel ausmachen...

Was die Split-brain sache betrifft habe ich folgendes entdeckt:

DataCore is one such example of a data aware system that provides cluster like availability but without the high costs and complexity of a witness architecture. DataCore is a true "active-active" grid architecture and not a cluster architecture. Each of the nodes within the grid presents mirrored disks as "active-active" storage devices. This means that the backend storage is not only presented through one DataCore node, but it can be addressed via both DataCore nodes simultaneously (read and write, R/W).

Tendieren auch eher zu IBM, denken es ist mehr geeignet für unsere Infrastruktur.
Mal schauen was sich ergiebt...
em-pie
em-pie 27.06.2017 um 12:58:03 Uhr
Goto Top
Moin,

bzgl. der Dell-Kiste:
Ihr wollt ja SSDs in Betracht ziehen. Wo wollt ihr die bei IBM unterbringen?
eine Extension an die V7000er anhängen oder haben die noch Luft?

Wenn ihr in Summe alles bei IBM bezieht, und ihr mal die 100 T€-Marke durchbrecht, werdet ihr schon mal schneller zu vernünftigen Projektpreisen kommen.
Das wiederum wäre das Problem, wenn man bei zwei Lieferanten ordert.
Beide Server vllt. 45 T€ (geschätzt/ gemutmaßt), die DC-Lizenzen womöglich auch in Summe 50 T€ (geschätzt/ gemutmaßt)... bei IBM alles zusammen 120 T€ (wegen der Quorum) und schon werden auch hier aus 120T€ ggf. 80 T€...

aber DC umgeht mit der obigen Beschreibung das Thema SplitBrain auch nicht wirklich... denn das ist ja das Problem beim Active-Active
Wenn der Heartbeat nicht mehr geht (weil Bodo der Baggerfahrer aktiv gewesen ist), wer hat dann die Hoheit über die echten Daten?
der Knoten A oder der Knoten B. Welche Daten sind die echteren, wenn beide wieder eine Verbindung zum Abgleich haben?
TECHGENE
TECHGENE 27.06.2017 um 14:19:10 Uhr
Goto Top
Zitat von @em-pie:

Moin,

bzgl. der Dell-Kiste:
Ihr wollt ja SSDs in Betracht ziehen. Wo wollt ihr die bei IBM unterbringen?
eine Extension an die V7000er anhängen oder haben die noch Luft?
Bei DC würden die ssd platten direkt in die Dell server gehen, bei IBM bekommen wir pro Storage ein expansion enclosure.

Wenn ihr in Summe alles bei IBM bezieht, und ihr mal die 100 T€-Marke durchbrecht, werdet ihr schon mal schneller zu vernünftigen Projektpreisen kommen.
Das wiederum wäre das Problem, wenn man bei zwei Lieferanten ordert.
Beide Server vllt. 45 T€ (geschätzt/ gemutmaßt), die DC-Lizenzen womöglich auch in Summe 50 T€ (geschätzt/ gemutmaßt)... bei IBM alles zusammen 120 T€ (wegen der Quorum) und schon werden auch hier aus 120T€ ggf. 80 T€...
Ja Ibm war zu Beginn richtig teuer, momentan schon von 400k auf 200k runtergehandelt, berechnet auf 5 Jahre mit Wartung!
Sehr wichtig hier da IBM bei älteren Geräten gerne mal die Jährlichen Wartungskosten ordentlich hochschraubt.

aber DC umgeht mit der obigen Beschreibung das Thema SplitBrain auch nicht wirklich... denn das ist ja das Problem beim Active-Active
Wenn der Heartbeat nicht mehr geht (weil Bodo der Baggerfahrer aktiv gewesen ist), wer hat dann die Hoheit über die echten Daten?
der Knoten A oder der Knoten B. Welche Daten sind die echteren, wenn beide wieder eine Verbindung zum Abgleich haben?

https://www.datacore.com/labs/labs-blog/labs/2016/11/08/can-i-have-a-wit ...
Net-Runner
Net-Runner 05.07.2017 um 12:08:30 Uhr
Goto Top
IBM ist ein tolles Produkt, war aber für uns viel zu teuer. QNAP und Synology sind gut für Sicherung und kalte Daten aber nicht passend für primär Leistung bzw. Virtualisierung. Auch die Fehlertoleranz Möglichkeiten sind ziemlich gering. Wir verwenden diese trotzdem als ein backend-speicher und die Spiegelung wird mit StarWind gemacht. Hier ist ein guter Beispiel https://www.starwindsoftware.com/blog/synology-diskstation-ds916-turboch ... mit ähnlichen Szenario. So viel ich verstehe das wird auch mit beliebigen SAN oder NAS funktionieren.
Roland567
Roland567 13.11.2017 um 10:50:41 Uhr
Goto Top
Hallo zusammen,

nur mal so als Hinweis.
DataCore kann mit dem neusten Release eine Spiegel über 3 Knoten aufbauen; was meines Wissens bisher keine andere Storage kann.

Somit ist neu auch eine Umgebung mit "DAS only" durchaus eine Option, und vor allem deutlich günstiger.
Vor allem wenn das Thema NVMe noch rein sollte.
Als Beispiel wäre hier der Dell R740XD zu nennen, mit dem du hier locker über 100 TB NVMe Kapazität (ohne Disk-Shelf) bereitstellen kannst.

Wir betreiben schon länger eine 3 Knoten Konstellation, mit welcher wir auch im Wartungsfall einzelner Knoten nach wie vor Redundant sind.
Sprich ich verschiebe die Storage-Share's auf einen anderen Knoten.
Somit erspare ich mir bei längerer Downtime ein langwierigen Spiegelabgleich.

Gruss Roland