Probleme mit aktuellen Raid - Alternativen gesucht
Hallo zusammen,
ich bräuchte mal eure Hilfe bzw. Erfahrung.
Wir haben folgende Situation:
Server sind selber zusammengebaut (lässt sich drüber streiten, aber es ist die aktuelle Situation)
2 Hyper-V Hosts
NVMe Raid Controller mit 2x RAID 1 (2TB) also insgesamt 4 TB pro Server
Ein RAID für die Hyper-V VM´s und ein RAID ist für die Replikation falls einer der beiden Server aussteigt.
Jetzt haben wir das Problem das sich Feuchtigkeit im RAID Controller bildet, hab ich so noch nicht erlebt. Die Feuchtigkeit hat es auch tatsächlich geschafft einen Server komplett lahm zu legen. Da möchte ich aber erstmal nicht weiter drauf eingehen.
Jetzt die Frage:
Natürlich ist die oben genannte Situation nicht tragbar und ich habe Bauchschmerzen wenn ich dran denke das sich weiterhin Feuchtigkeit bildet und der Server jederzeit ausfallen kann.
Die Frage ist was es für Alternativen gibt. Ich denke evtl. an ein Netzwerk Storage aber leider waren alle Server welche mir bisher untergekommen sind klassisch mit internen RAID Controller und SSD´s / HDD´s im Verbund. Deswegen habe ich hier keine Erfahrungswerte. Vielleicht kennt sich hier jemand besser aus und kann mir den ein oder anderen Hersteller empfehlen. Wir sind nicht sooo groß deshalb sollte das Preis / Leistungsverhältnis im Verhältnis stehen.
Sonst können wir auch klassisch einen SATA RAID Controller anschaffen intern im Server neue RAID´s aufbauen.
Es muss nicht zwingend NVMe sein.
Ich erhoffe mir ein bisschen Input mit welchen Lösungen ihr so arbeitet bzw. Erfahrungen habt.
Vielen Dank schonmal.
Grüße
Somebody
ich bräuchte mal eure Hilfe bzw. Erfahrung.
Wir haben folgende Situation:
Server sind selber zusammengebaut (lässt sich drüber streiten, aber es ist die aktuelle Situation)
2 Hyper-V Hosts
NVMe Raid Controller mit 2x RAID 1 (2TB) also insgesamt 4 TB pro Server
Ein RAID für die Hyper-V VM´s und ein RAID ist für die Replikation falls einer der beiden Server aussteigt.
Jetzt haben wir das Problem das sich Feuchtigkeit im RAID Controller bildet, hab ich so noch nicht erlebt. Die Feuchtigkeit hat es auch tatsächlich geschafft einen Server komplett lahm zu legen. Da möchte ich aber erstmal nicht weiter drauf eingehen.
Jetzt die Frage:
Natürlich ist die oben genannte Situation nicht tragbar und ich habe Bauchschmerzen wenn ich dran denke das sich weiterhin Feuchtigkeit bildet und der Server jederzeit ausfallen kann.
Die Frage ist was es für Alternativen gibt. Ich denke evtl. an ein Netzwerk Storage aber leider waren alle Server welche mir bisher untergekommen sind klassisch mit internen RAID Controller und SSD´s / HDD´s im Verbund. Deswegen habe ich hier keine Erfahrungswerte. Vielleicht kennt sich hier jemand besser aus und kann mir den ein oder anderen Hersteller empfehlen. Wir sind nicht sooo groß deshalb sollte das Preis / Leistungsverhältnis im Verhältnis stehen.
Sonst können wir auch klassisch einen SATA RAID Controller anschaffen intern im Server neue RAID´s aufbauen.
Es muss nicht zwingend NVMe sein.
Ich erhoffe mir ein bisschen Input mit welchen Lösungen ihr so arbeitet bzw. Erfahrungen habt.
Vielen Dank schonmal.
Grüße
Somebody
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 2627859830
Url: https://administrator.de/contentid/2627859830
Ausgedruckt am: 04.11.2024 um 22:11 Uhr
11 Kommentare
Neuester Kommentar
Mh, Feuchtigkeit ist ja kein einfaches "puff und da", vermutlich werdet Ihr auch keinen oxidierten Wasserstoff reinblasen also wäre die Antwort-Frage auf deine Frage erstmal woher kommt die Feuchtigkeit. Wo stehen die Server? Denn wenn Wasser auf den RaidController kommt (wenn nicht von deiner Stirn getropft) wird es potenziell auch die SAN killen...
Daher, erstmal beheben...
Daher, erstmal beheben...
Hi.
Siehe Post von @Mystery-at-min .
EDIT:
Gibt es noch ein separates Backup oder ist die Replikation der Ersatz dafür?
Wenn ihr eh nicht so groß seid, würde ich mir die Host Redundanz gänzlich sparen und eine ordentliche, vorzugsweise mit Veeam, gesicherte Umgebung aufstellen. Zur Not noch ein NAS mit einem Backup Copy Job alle 30 / 60 Minuten laufen lassen und entsprechend die Versionierung reduzieren. So hättet ihr immer relativ aktuelle Stände und die Wiederherstellung wäre auch recht schnell erledigt.
Den Host würde ich mit einem RAID Controller ausstatten und diesen, je nach Bedarf mit einem RAID 5 oder RAID 6 oder RAID 10 laufen lassen. Eventuell "normale" Enterprise SSD (z.B. Intel S4610 / S4620).
Ein SAN würde ich weglassen. Wenn ihr mehrere Hosts betreiben wollt, könnte man da wieder drüber nachdenken, aber das ist dann auch wieder eine Kostenfrage an der Stelle.
Gruß
Marc
Siehe Post von @Mystery-at-min .
EDIT:
Wenn ihr eh nicht so groß seid, würde ich mir die Host Redundanz gänzlich sparen und eine ordentliche, vorzugsweise mit Veeam, gesicherte Umgebung aufstellen. Zur Not noch ein NAS mit einem Backup Copy Job alle 30 / 60 Minuten laufen lassen und entsprechend die Versionierung reduzieren. So hättet ihr immer relativ aktuelle Stände und die Wiederherstellung wäre auch recht schnell erledigt.
Den Host würde ich mit einem RAID Controller ausstatten und diesen, je nach Bedarf mit einem RAID 5 oder RAID 6 oder RAID 10 laufen lassen. Eventuell "normale" Enterprise SSD (z.B. Intel S4610 / S4620).
Ein SAN würde ich weglassen. Wenn ihr mehrere Hosts betreiben wollt, könnte man da wieder drüber nachdenken, aber das ist dann auch wieder eine Kostenfrage an der Stelle.
Gruß
Marc
Moin,
Wenn Feuchtigkeit sich an den "Kühlpads" bildet fragt man sich doch, wie stark diese kühlen und wie hoch die Luftfeuchtigkeit in dem Raum ist. Da stimmen mit Eurer Klimatisierung und Be- und Entlüftung des Servers und des Serverraumes irgendetwas ganz und gar nicht.
Wobei es mit auch irgendwie neu ist, daß Raid-Controller Kühlpads bräuchten. Ist das irgendein Gamer, der die Kisten zusammenschraubt hat, womöglich sogar mit einer Wasser- oder Ölkühlung und LED-Lichterketten?
lks
PS: zum Thema taupunkt im serverraum sollte man sich schlau machen, bevor man selbst anfängt, Server zusammenzuschrauben.
Wenn Feuchtigkeit sich an den "Kühlpads" bildet fragt man sich doch, wie stark diese kühlen und wie hoch die Luftfeuchtigkeit in dem Raum ist. Da stimmen mit Eurer Klimatisierung und Be- und Entlüftung des Servers und des Serverraumes irgendetwas ganz und gar nicht.
Wobei es mit auch irgendwie neu ist, daß Raid-Controller Kühlpads bräuchten. Ist das irgendein Gamer, der die Kisten zusammenschraubt hat, womöglich sogar mit einer Wasser- oder Ölkühlung und LED-Lichterketten?
lks
PS: zum Thema taupunkt im serverraum sollte man sich schlau machen, bevor man selbst anfängt, Server zusammenzuschrauben.
Moin Somebodytolove.
alles richtig gemacht, dieses sehr wesentliche Detail hättest du keineswegs weglassen sollen!
Das spricht meiner Ansicht nach mindestens für eine inkorrekte Belüftung der SSDs innerhalb des Servers.
Kann es sein, dass Ihr kein richtiges Servergehäuse verwendet habt?
Wie hoch ist den generell die Luftfeuchtigkeit in dem Serverraum?
(Sollte nicht über 20-30% liegen.)
Ist dieser Klimatisiert?
Die meisten hier möchten dir auch nichts andrehen, sondern möchten durch die Rückfragen lediglich das Problem besser verstehen. 😉
Wenn du das richtige hast, dann taugt das normalerweise schon was. 🙃
Du meinst wohl eher SAN mit FC, ein NAS hat normalerweise kein FC.
Und ja schon genug gesehen und auch selbst implementiert.
Bei deiner Systemgrösse würde ich aber eher SAS und nicht FC oder iSCSI verwenden,
ist am performantesten und auch am kostengünstigsten. 😉
Süss, ein SMB/KMU Speicherkistchen, fast ohne jegliche relevante Redundanz.
Ne, das würde ich zu diesem Zweck ganz sicher nicht empfehlen.
Eher schon was in dieser Richtung.
https://www.infortrend.com/de/products/families/esds/1000
oder auch
https://www.infortrend.com/de/products/families/gs/1000
Übrigens, auch wenn dir dieser Hersteller wahrscheinlich nicht viel sagen wird,
Infortrend gehört weltweit mit zu den ältesten und erfahrensten Storagehersteller und läuft in Asien als Enterprise A-Brand. 😉
Beste Grüsse aus BaWü
Alex
Wie gesagt, genau deshalb wollte ich nicht weiter ins Detail gehen, ich hätte es wohl einfach weglassen sollen.
Aber gut jetzt sind wir in der Diskussion. Es geht um diesen Raid Controller:
https://www.highpoint-tech.com/ssd/ssd7103-overview
Aber gut jetzt sind wir in der Diskussion. Es geht um diesen Raid Controller:
https://www.highpoint-tech.com/ssd/ssd7103-overview
alles richtig gemacht, dieses sehr wesentliche Detail hättest du keineswegs weglassen sollen!
Davon haben wir drei Stück gekauft, jeweils einen für die beiden Server und einen auf Reserve falls etwas ist. Einer ist abgeschmiert, der Server läuft jetzt mit der Reserve. Den zweiten habe ich darauf auch kontrolliert und dieser hatte ebenfalls Feuchtigkeit, aber im Raid Controller drinnen. Also ich musste diesen wieder aufschrauben um dies Festzustellen.
Das spricht meiner Ansicht nach mindestens für eine inkorrekte Belüftung der SSDs innerhalb des Servers.
Kann es sein, dass Ihr kein richtiges Servergehäuse verwendet habt?
ES GIBT KEIN ALLGEMEINES PROBLEM MIT DER FEUCHTIGKEIT WEDER IM SERVERRAUM NOCH IM SERVERSCHRANK!
Wie hoch ist den generell die Luftfeuchtigkeit in dem Serverraum?
(Sollte nicht über 20-30% liegen.)
Ist dieser Klimatisiert?
Also keine Kaufempfehlung von meiner Seite
Die meisten hier möchten dir auch nichts andrehen, sondern möchten durch die Rückfragen lediglich das Problem besser verstehen. 😉
Aber es würde mich tatsächlich freuen wenn mir noch jemand seine Erfahrungen mit Netzwerk Storage mitteilen könnte. Taugt das etwas von der Performance wenn beispielsweise DC / Fileserver drauf liegen?
Wenn du das richtige hast, dann taugt das normalerweise schon was. 🙃
Hat jemand beispielsweise eine NAS mit Fiber Channel als Storage im Einsatz oder schonmal in freier Wildbahn gesehen?
Du meinst wohl eher SAN mit FC, ein NAS hat normalerweise kein FC.
Und ja schon genug gesehen und auch selbst implementiert.
Bei deiner Systemgrösse würde ich aber eher SAS und nicht FC oder iSCSI verwenden,
ist am performantesten und auch am kostengünstigsten. 😉
Bspw. sowas in der Richtung: https://www.qnap.com/de-de/product/ts-877xu-rp
Süss, ein SMB/KMU Speicherkistchen, fast ohne jegliche relevante Redundanz.
Ne, das würde ich zu diesem Zweck ganz sicher nicht empfehlen.
Eher schon was in dieser Richtung.
https://www.infortrend.com/de/products/families/esds/1000
oder auch
https://www.infortrend.com/de/products/families/gs/1000
Übrigens, auch wenn dir dieser Hersteller wahrscheinlich nicht viel sagen wird,
Infortrend gehört weltweit mit zu den ältesten und erfahrensten Storagehersteller und läuft in Asien als Enterprise A-Brand. 😉
Beste Grüsse aus BaWü
Alex
Hi,
sei nicht enttäuscht, die Ratschläge der Kollegen sind gut gemeint. Und die Irritiation über merkwürdige Selbstbauten auch. Selbst bauen ist cool und günstig. Ob es preis-wert ist, darüber lässt sich trefflich streiten. Die Lernkurve ist nicht ohne und wenn man die Zeit rechnet... Aber das ist ja für Euch Geschichte (wahrscheinlich).
Ich bin weder ein Freund der NAS-Kisten noch möchte ich die Expertise des Kollegen @MysticFoxDE in Frage stellen.
Einen Schritt zurück gehen ich wollen würde
Vor der Empfehlung geeigneter HW steht die Frage nach der konkreten Nutzung. Du schreibst oben was von 2 VMs und dass SATA vielleicht schon reicht. Später schreibst Du von DC/Fileserver. Wieviele Clients? Habe ich das überlesen? Datenbanken ja/nein? Traffic? Schon mal IOPS gemessen/berechnet?
AD braucht im Normalfall kaum Leistung. Insbesondere, wenn die Userzahl eher gering ist. Ich habe es noch nicht versucht, aber unter 20 Clients reicht wahrscheinlich ein Raspberry Pi (natürlich nicht mit Windows). Das AD kann locker das NAS machen, wenn Du nicht das aktuellste Funktionslevel brauchst. Das haben die großen Hersteller heute als Paket dabei. Auch für Office-mäßiges Fileserving im kleinen Unternehmen ist ein NAS (mit Cache) meist ausreichend. Die Dinger (auch das von Dir verlinkte) arbeiten heute mit einer Kombi aus SATA-RAID und SSD-Cache. Wenn der Cache ausreichend dimensioniert ist, ist das komfortabel schnell. Ein SAN geht da aus meiner Sicht weit am Bedarf (und wahrscheinlich auch Budget) vorbei.
Wenn das NAS das AD und Fileserving selbst macht, ist alles fein. Was aber auf einem so kleinen NAS uncool kommt, ist Windows-Server. Dafür fehlt es den bezahlbaren Dingern an Systemleistung. Und ein leistungsstarkes NAS ist unverhältnismäßig teuer. In einem solchen Fall geht man zu Thomas Krenn oder anderen Kollegen und konfiguriert sich einen vernünftigen Server, der SATA oder SAS-Platten hat, möglichst viele im RAID - und einen wohlbemessenen SSD-Cache. Wenn man in der Lage ist, den Host in Linux einzurichten (easy going), braucht man nicht einmal einen RAID-Controller. Die heutigen Prozessoren sind stark genug, um ein Software-RAID performant zu bedienen. Ein MB mit ausreichend Anschlüssen oder mit zusätlichem HBA reicht. Unter Windows wäre ich da vorsichtiger. Da mögen Berufenere etwas zu sagen. Bei Windows-Admins kommt es ja meist nicht aufs Geld an, da ist ein RAID-Controller dann noch im Budget
Viele Grüße, commodity
sei nicht enttäuscht, die Ratschläge der Kollegen sind gut gemeint. Und die Irritiation über merkwürdige Selbstbauten auch. Selbst bauen ist cool und günstig. Ob es preis-wert ist, darüber lässt sich trefflich streiten. Die Lernkurve ist nicht ohne und wenn man die Zeit rechnet... Aber das ist ja für Euch Geschichte (wahrscheinlich).
Ich bin weder ein Freund der NAS-Kisten noch möchte ich die Expertise des Kollegen @MysticFoxDE in Frage stellen.
Einen Schritt zurück gehen ich wollen würde
Vor der Empfehlung geeigneter HW steht die Frage nach der konkreten Nutzung. Du schreibst oben was von 2 VMs und dass SATA vielleicht schon reicht. Später schreibst Du von DC/Fileserver. Wieviele Clients? Habe ich das überlesen? Datenbanken ja/nein? Traffic? Schon mal IOPS gemessen/berechnet?
AD braucht im Normalfall kaum Leistung. Insbesondere, wenn die Userzahl eher gering ist. Ich habe es noch nicht versucht, aber unter 20 Clients reicht wahrscheinlich ein Raspberry Pi (natürlich nicht mit Windows). Das AD kann locker das NAS machen, wenn Du nicht das aktuellste Funktionslevel brauchst. Das haben die großen Hersteller heute als Paket dabei. Auch für Office-mäßiges Fileserving im kleinen Unternehmen ist ein NAS (mit Cache) meist ausreichend. Die Dinger (auch das von Dir verlinkte) arbeiten heute mit einer Kombi aus SATA-RAID und SSD-Cache. Wenn der Cache ausreichend dimensioniert ist, ist das komfortabel schnell. Ein SAN geht da aus meiner Sicht weit am Bedarf (und wahrscheinlich auch Budget) vorbei.
Wenn das NAS das AD und Fileserving selbst macht, ist alles fein. Was aber auf einem so kleinen NAS uncool kommt, ist Windows-Server. Dafür fehlt es den bezahlbaren Dingern an Systemleistung. Und ein leistungsstarkes NAS ist unverhältnismäßig teuer. In einem solchen Fall geht man zu Thomas Krenn oder anderen Kollegen und konfiguriert sich einen vernünftigen Server, der SATA oder SAS-Platten hat, möglichst viele im RAID - und einen wohlbemessenen SSD-Cache. Wenn man in der Lage ist, den Host in Linux einzurichten (easy going), braucht man nicht einmal einen RAID-Controller. Die heutigen Prozessoren sind stark genug, um ein Software-RAID performant zu bedienen. Ein MB mit ausreichend Anschlüssen oder mit zusätlichem HBA reicht. Unter Windows wäre ich da vorsichtiger. Da mögen Berufenere etwas zu sagen. Bei Windows-Admins kommt es ja meist nicht aufs Geld an, da ist ein RAID-Controller dann noch im Budget
Viele Grüße, commodity
Moin somebodytolove,
mir ist da bez. deines Problems noch eine Kleinigkeit eingefallen.
Kann es sein, dass der Lüfter des Kontrollers entweder defekt ist oder nicht dauerhaft läuft.
Aha, ich sehe gerade in der Doku deines RAID-Controllers, dass man den Lüfter steuern kann und dass dieser
default auf Auto steht. 🤔
Stelle mal die Lüfter Steuerung auf "Medium" und prüfe danach ob der Lüfter dauerhaft in Betrieb ist.
https://filedn.com/lG3WBCwKGHT7yNuTsFCwXy0/HighPoint-Download/Document/G ...
(Seite 17)
Meine Vermutung ist, dass der Lüfter auf "Auto" so gut wie nie anspringt weil du schlichtweg nicht genug Last Erzeugst um die Komponenten über die entsprechende Schwelle aufzuheizen. Und die fehlende Lüftung sorgt eben dafür, dass sich über die Zeit Wasser im Controller bildet, weil es durch die Einhausung und ohne Lüftung innerhalb des Controllers immer wärmer ist wie aussen. Plus betriebsbedingte aber nicht hohe Temperaturschwankungen innerhalb des Controllers und schon hast du dein Schwitzwasser. 😉
Beste Grüsse aus BaWü
Alex
Aber gut jetzt sind wir in der Diskussion. Es geht um diesen Raid Controller:
https://www.highpoint-tech.com/ssd/ssd7103-overview
https://www.highpoint-tech.com/ssd/ssd7103-overview
mir ist da bez. deines Problems noch eine Kleinigkeit eingefallen.
Kann es sein, dass der Lüfter des Kontrollers entweder defekt ist oder nicht dauerhaft läuft.
Aha, ich sehe gerade in der Doku deines RAID-Controllers, dass man den Lüfter steuern kann und dass dieser
default auf Auto steht. 🤔
Stelle mal die Lüfter Steuerung auf "Medium" und prüfe danach ob der Lüfter dauerhaft in Betrieb ist.
https://filedn.com/lG3WBCwKGHT7yNuTsFCwXy0/HighPoint-Download/Document/G ...
(Seite 17)
Meine Vermutung ist, dass der Lüfter auf "Auto" so gut wie nie anspringt weil du schlichtweg nicht genug Last Erzeugst um die Komponenten über die entsprechende Schwelle aufzuheizen. Und die fehlende Lüftung sorgt eben dafür, dass sich über die Zeit Wasser im Controller bildet, weil es durch die Einhausung und ohne Lüftung innerhalb des Controllers immer wärmer ist wie aussen. Plus betriebsbedingte aber nicht hohe Temperaturschwankungen innerhalb des Controllers und schon hast du dein Schwitzwasser. 😉
Beste Grüsse aus BaWü
Alex