neueradmuser
Goto Top

Backup von 30TB pro Woche - Welche Technik?

Hallo,
ich muss ein Backup (mehrere einzelne) einrichten mit einer aktuellen "Last" von 30TB pro Woche.
Das heißt dies ist der aktuelle Stand (aus diversen Systemen). Von daher muss das System erweiterbar sein.

Bei meiner Recherche bin ich bei Synology auf das RS2416RP+ gestoßen mit min. 5-6TB Platten im Raid 6 Verbund.
Preislich kommen wir da min. in die 4000-4500€ Region
und dann per Windows Backup auf das NAS.

Gibt es technisch gesehen eine bessere Lösung? SAN / DAS / oder sonstiges?
Wie stehts mit Windows Storage Pools... jmd. Langzeit Erfahrung?

Leider weiß ich nicht ob es nächstes Jahr mehr oder weniger TB sind.

Gedacht war das jeder User "sein Ordner" bekommt... und seine Backups dort platzieren kann... oder evtl. auch vom Admin verwaltet... steht noch zur Diskussion

Gruß und danke für Input

Content-ID: 313366

Url: https://administrator.de/contentid/313366

Ausgedruckt am: 22.11.2024 um 07:11 Uhr

121016
121016 23.08.2016 um 16:46:24 Uhr
Goto Top
Hallo,

ich würde bei dieser Menge eher in Richtung Bandsicherung (+ Roboter) gehen. Ein aktuelles LTO7 Band schafft bis zu 15TB, also wird eine Sicherung auf 2 Bänder aufgeteilt. Entweder wird das Band dann händisch oder automatisch per Roboter gewechselt (oder man installiert ein Bandlaufwerk, welches mehrere Bänder fassen kann).
Sicherung dann z.B. per Veeam laufen lassen - hier können Agents auf Clients zugreifen und diese mitsichern (oder nur Ordner von Clients...).

Siehe z.B.: Bandlaufwerke bei Dell
Veeam B&R
Kraemer
Kraemer 23.08.2016 um 16:57:13 Uhr
Goto Top
Moin,

da du leider keinerlei Auskünfte darüber gibst, was gesichert werden muss, ist es eigentlich unmöglich, dir einen ordentlichen Tip zu geben.

Gruß Krämer

PS: Man kann nicht einmal beurteilen, ob Windows-Backup für dich überhaupt in Frage kommt.
em-pie
em-pie 23.08.2016 um 17:17:15 Uhr
Goto Top
Servus,

Kann mich meinen Vorrednern nur anschließen:

bei der Datenmenge würde ich keine "einfache" NAS mehr verwenden.
Ob es eine Tapelibrary sein muss, weiss ich nicht. Einige DaSi-Lösungen verwandeln eine Storage ebenfalls ich eine virtuelle TapeLibrary.
Vorteil: deutlich schneller in der Recovery-Phase, da ein lästiges Band-Spulen entfällt.

Bei der Datenmenge wäre für dich des Weiteren u.U. auch Datendeduplizierung relevant. Wenn du z.B. viele WindowsServer sichert willst/ musst, müssen die selben Bits&Bytes ja nicht 50x gesichert werden.


Was für Angaben ggf. noch relevant wären:
  • Welches Budget habt ihr?
  • Sucht ihr nur nach einer Sicherungsablage oder auch nach einer gesamtheitlichen DaSi-Lösung?
  • Was muss gesichert werden?
  • Virtualisierst du?
    • Wenn Ja, mit Was?
  • Welche Infrastruktur steht dir zur Verfügung?
    • FibreChannel?
    • iSCSI
    • SAS



Gruß
em-pie
neueradmuser
neueradmuser 23.08.2016 um 17:26:13 Uhr
Goto Top
Hi,
aaalso DLT/LTO kenn ich durchaus ... hab bei DLT8000 aufgehört und LTO1 oder 2 (100/200GB)
hatte ich durchaus auch überlegt... nur dann könne die Jobs ja nicht parallel laufen da das Bandlaufwerk ja Kirre wird dabei ...

Budget: also die 4000 sind pro forma genehmigt
was wird gesichert: das geht über komplette Server oder auch nur einzelene Datenbanken oder sogar nur einzelne FileStrukturen
Deduplizierung: ja ist mir bewußt das es einen Vorteil bringen kann... Die Kapazität is darauf ausgelegt was die Systeme aktuell verbaut haben an Festplatten
Virtualisierung: ja ist vorhanden (Hyper-V) ... mind. 1 System ist vom Backup betroffen
Infrastruktur: SwitchStack und SAS Platten... FC und iSCSI müßte ein HBA verbaut werden... allerdings betrifft es ja mehrere Systeme
Gesucht wird quasi eine Sicherungsablage, da es viele unterschiedliche Systeme sind die alle von unterschiedlichen Personen betreut werden und im Falle eines crashes die Daten vorhalten sollen...

Lediglich 2 Server davon sollen später ausgebaut werden auf eine Revisionierung des Backups... also Woche / Monat / Jahr...
certifiedit.net
certifiedit.net 23.08.2016 um 17:49:25 Uhr
Goto Top
Hallo Nightwishler,

die 4k reichen vermutlich nicht. Eine Synology halte ich schon bei weitaus kleineren Datenbeständen für kritisch. Geht ja nicht nur ums sichern, sondern auch ums wiederherstellen.

Veeam ist ein guter Ansatz.

Also nochmals, was soll gesichert werden?

Hyper-V, VMs? Wie viele, welcher Umfang
Daten?
Datenbanken? dito

Ansonsten lohnt sich hierbei vermutlich auch eine genauere Analyse.

Daneben 30TB sind derzeitiger Datenstand oder Datenzuwachs, wenn ersteres, wie ist der Zuwachs, wenn letzteres, wie groß ist der Datenstand. Extrem wichtige Infos(!)

VG
clSchak
clSchak 23.08.2016 um 17:50:54 Uhr
Goto Top
Hi

öhm 4k und du sprichst von SAN inkl. FC, LTO7 Library ...? Habe ich gerade irgendeinen Preisverfall nicht mitbekommen? Für 4k kannst dir eine Synology mit 12 x 4TB oder vergleichbares dahinstellen - aber sicherlich keine vollständige Backuplösung - es sei denn du weichst auf gebrauchte Hardware aus (Leasingrückläufer oder so etwas).

Zu deinen Anforderungen passt eher so etwas wie Veeam, BackupExec, MS DPM oder vergleichbares und da liegst du alleine Preislich schon drüber - klar kann man alles scripten aber damit kann nicht jeder umgehen, Benutzerfreundlich ist das eher nicht.

Was evtl. machbar ist, eine Veeam B&R Lizenz für deinen Hyper-V Host, die kostenpflichtige Variante, dazu deine rausgesuchte Synology NAS und auf den Clients einfach Veeam Endpoint drauf, dass kannst dann in dein Repository von Veeam reinlaufen lassen und darüber auch wiederherstellen - funktioniert super und kann von jedem bedient werden, allerdings ist die Lösung ein wenig teurer.

Gruß
@clSchak
certifiedit.net
certifiedit.net 23.08.2016 um 17:55:34 Uhr
Goto Top
Exakt das war auch mein Gedanke, darum die direkte Ansprache auf die Menge der Systeme.

@to, wenn du magst können wir das Sizing gerne gemeinsam durchgehen. Nur für 4k wirst du nichtmal eine ordentliche Backupsoftware bekommen und für unter 4k in Hinsicht auf der Backupsoftware wirst du dir früher oder später wünschen, dass man das Geld investiert hätte.

VG
Dani
Dani 23.08.2016 um 17:55:54 Uhr
Goto Top
Guten Abend nightwishler,
Bei meiner Recherche bin ich bei Synology auf das RS2416RP+ gestoßen mit min. 5-6TB Platten im Raid 6 Verbund.
Weißt du wie lange ein Rebuild einer Festplatte dauert? Hatten wir gerade erst hier diskutiert.

Was mir bei solchen "Größen" durch den Kopf geht:
Wie könnt ihr auf Grund solche groben Rahmenbedingungen ein Projekt planen, Empfehlungen ausprechen und umsetzen?

Es ist nicht definiert
  • Wie lange ein Backup dauern darf?
  • Wie oft muss von Applikationen, Datenbanken, VMs eine Sicherung durchgeführt werden?
  • Wie lange muss eine Sicherung aufbewahrt werden?
  • Wie schnell muss ein (Disaster) Recovery erfolgen?
  • Müssen andere Kollegen/Teams die Möglichkeit haben, Daten selbst wiederherzustellen?
  • Muss eine Replikation der Datensicherung auf einen zweiten Standort erfolgen?
  • Was passiert, wenn das Backupsystem einen defekt hat?
  • Welche Hardware/Software ist bereits im Einsatz, mit der man die Zielsetzung erreichen könnte?
  • Kann ich auf Snapshot-Technik und Datendeuplizierung zurückgreifen?
...

Leider weiß ich nicht ob es nächstes Jahr mehr oder weniger TB sind.
Weniger wird's nie...

Wenn es nur um Erfahrungen der Mädels und Jungs hier geht -> ok. Ist aus meiner Sicht aber nicht vergleichbar, da jeder andere Anforderungen und Gegebenheiten hat.


Gruß,
Dani
runasservice
runasservice 23.08.2016 um 21:49:10 Uhr
Goto Top
Hallo,

Ein aktuelles LTO7 Band schafft bis zu 15TB

Ein LTO-7 Medium hat eine native Kapazität von 6000 GB (6000 * 1000 * 1000 * 1000 Byte) und kann damit 5,45697 TB an Daten aufnehmen.

Die Nutzung der Hardware-Kompression bei der Bandsicherung ist in der Praxis oft eine Glückssache und sollte bei der Planung der Sicherung keine Rolle spielen.

MfG
Dr.EVIL
Dr.EVIL 24.08.2016 um 13:41:42 Uhr
Goto Top
Mal davon abgesehen besnötigt ein LTO7 Drive eine "Data Matching Rate" von mindestens 100MB/s!
Wenn die Kompression funktionieren soll und auch die versprochene Backup-Geschwindigkeit erreicht werden soll, müssten mindestens 700MB/s "geliefert" werden.
Wenn Du also keine größeren SAN Storages mit dutzenden 10k SAS Platten in einem Verbund, oder All-Flash Arrays die mindestens mit einer 10Gbit Ethernet (Besser min. 8Gbit/s FC) Infrastruktur angebunden sind, kannst Du ein LTO7 vergessen!

Meine Empfehlung um 30TB "wegzusichern": Einfacher Windows Server mit Software Deduplikation.
4.000€ reichen allerdings m.M. nur für "billige Bastellösungen"
Wenn deiner Firma ihre Daten nicht mehr wert sind, würde ich einen (gebrauchten?!) Backup-Server mit Windows Server 2012R2 empfehlen, der z.B. mit 12x 1TB SATA Platten im RAID6 ausgestattet ist und dessen Volumes mit der Dedup Option von Windows komprimiert werden.

Und immer im Hinterkopf behalten, das eine 1 Gigabit Ethernet Verbindung am Tag höchstens 10TB übertragen kann...
(Insbesondere auch bei der Rücksicherung!)
runasservice
runasservice 24.08.2016 um 18:24:28 Uhr
Goto Top
Hallo,

Wenn die Kompression funktionieren soll und auch die versprochene Backup-Geschwindigkeit erreicht werden soll, müssten mindestens 700MB/s "geliefert" werden.

Nein, der Datendurchsatz von 750 MB/s ergibt sich aus der theoretischen Kompression von 2.5:1 und den nativen max. Duchsatz von 300 MB/s (300 MB/s * 2,5 ), wobei die Angabe von 300 MB/s ein "bis zu" oder "peek" Wert ist (der im Mittel nicht erreicht wird) .

In der Praxis sollte aber ein Durchsatz von 120 MB/s bis 200 MB/s möglich sein.

Alle Angaben sind natürlich im Dezimal-Präfix!

Ob eine Kompression "funktioniert", hängt alleine von den Daten ab. Ein LTO-Laufwerk kann keine MP3, MP4, ZIP, 7z, ARJ, usw. noch weiter komprimieren.....

MfG
neueradmuser
neueradmuser 25.08.2016 um 16:00:00 Uhr
Goto Top
dem Stimme ich zu... das letzte mal habe ich Bandtechnik mit DAT DDS3/4/5 eingesetzt und DLT4000-8000 ... aber auch da war man nur auf der sicheren Seite wenn man mit der unkomprimierten Kapazität gerechnet hat face-smile
neueradmuser
neueradmuser 25.08.2016 um 16:03:10 Uhr
Goto Top
Hallo, also ich hab lediglich gesagt die 4k sind pro forma genehmigt... zu dem LTO7 hab ich lediglich gesagt das mir die Technik an sich bekannt ist... und FC hab ich gar nicht (da meinte ich das die HBA's noch verbaut werden müssten)

also Ziel (vielleicht nochmal besser erläutert):
ein performanter Speicher der jegliche Art von Backups aufnehmen kann (Zugriff auf einzelne Backups innerhalb dieses Speichers am besten durch AD-Anbindung)

Was kommt da rein:
a) Backups von 10-20 SQL-Datenbanken die auf dem entsprechendem System (Cloud / Rechenzentrum) angestoßen werden und den Speicher "im Keller" als Ziel haben
b) diverse NTFS-Dateistrukturen welche manuell erstellt werden (müssen) aus der Cloud / Rechenzentrum & von lokalen Clients
c) eine komplette Domäne mit 8 Servern via Windows Image Backup (aktuell-wird aber noch geändert) davon ist mindestens 1 Hyper-V Host dabei
d) komplette Windows Server aus der Cloud heraus...

Im Falle eines Falles müssen nicht mehrere TB auf einmal recovert werden... es ist lediglich die Summe aller unabhängigen Systeme (bis auf die Domäne) die es so erschreckend groß macht.

aktuell wird das alles schon gesichert... aber halt irgendwie & irgendwo... und nun soll im Step 1 erstmal alles zentral 1 Ziel haben...
Dieser Zielspeicher soll als Durchgangs-Backup dienen (1-5 Tage) und von da aus dann richtig weggesichert werden...

vielleicht hab ich mich nun besser ausgedrückt - Entschuldigung für Missverständnisse
Gruß und danke
neueradmuser
neueradmuser 25.08.2016 aktualisiert um 16:53:35 Uhr
Goto Top
Hi Dani, ja den Betriag hat ich gelesen... so bin ich ja auf die Storage Pools aufmerksam geworden ;)

Und zu deinen Bedenken: geplant ist noch nix... empfohlen schon gar nicht und umgesetzt noch lange nicht...
es geht sich darum eine bessere Lösung als zurzeit vorhanden zu finden... den die geschätzten 30-40 USB Platten die sonstwo rumfliegen sind im Falle des Falles eh nicht zu gebrauchen aus meiner Sicht... so kam das Thema auf den Tisch...

- Das Backup eines Servers mit 3-4TB läuft aktuell glaub ich 17h ?! nagelt mich aber bitte nicht darauf fest, ich weiß es nicht hundert prozentig - das wäre auch der größte
- Man hätte natürlich am liebsten jeden Tag. Wenn es dann an die Dollars geht werden vermutlich alle 2 /3 / 5 Tage auch völlig ok sein ;)
- auf diesem Speicher den ich Suche soll die Sicherung nur als Durchgang liegen... und dann meinetwegen verschieben als ColdBackup... so der Gedanke
- Ein Disaster Recovery sollte (laut Wunsch) asap erfolgen und in best möglicher Geschwindigkeit - alternativ wird aber alles auf HA ausgebaut (was noch nicht HA-fähig ist!!!) womit man den Punkt wieder vernachlässigen könnte denke ich
- Andere Kollegen müssen selber eine SQL Datenbank wieder hochziehen können ... ja!
- Replikation muss nicht erfolgen
Wenn das Backupsystem defekt sein sollte muß asap ein Ersatz her und wenn es heißt für 1 Woche alles wieder so zu machen wie es jetzt ist... (was würde es da an Möglichkeiten geben?)
- Aktuell gibt es lediglich 30-40 USB 30 Festplatten mit größen von 2-4/5TB ... Ein NAS ist nicht vorhanden
- Deduplizierung könnte man sich überlegen aber was wäre wenn die referenzierende Datei in dem Server steckt wo das Backup defekt ist ?! (denke man hätte gern unabhängige Backups)

und weniger oder mehr TB nächstes Jahr... Man ist dabei seinen Datenmüll aufzuräumen da man gemerkt hat das es ins unermessliche steigt wenn man alles speichert in 5facher Ausführung... Backup auf den Server und dann vom Server Backup machen etc... das hat sich wohl irgendwie da eingeschlichen... und ist absoluter murks...

Ich danke auf jeden Fall schon mal für die konstruktiven Kommentare !!! face-smile
clSchak
clSchak 25.08.2016 um 16:33:10 Uhr
Goto Top
Für Geld bekommst du alles dahingestellt und jeder Hersteller liefert dir alles was du willst und deine Anforderungen abdeckt.

Ich würde mir als erstes ein passendes Risiko-Konzept erstellen und danach dann die Hardware dimensionieren, scheint ja doch mehr zu sein wie ein simples Backup eher ein Gesamtkonzept wo jetzt das Thema "Backup" mal eben betrachtet wird.

Denn geringe Downtimes mit Backup-Recovery wirst du niemals haben, die Daten müssen ja erst einmal zurück gespielt werden. Für geringe Downtimes benötigst du entsprechende Systeme. ggf. ein 2. RZ mit Mirroring usw. - nur durch ein Backup hast du keine Sicherheit - wir sichern unsere DB zwar jeden Tag zusätzlich eine asynchrone Replikation - wenn Ich der Buchhaltung um 15:00 Uhr sagen würde "sorry leute ich muss ein Backup von 22:00 Uhr gestern einspielen" dann suchen die sich ganz schnell einen schönen Baum und ein Strick dabei um den Admin hängen zu sehen...

Ich würde mir an deiner Stelle ein passendes Systemhaus suchen das mit dir zusammen ein Konzept ausarbeitet was bestmöglich und so günstig wie möglich alle Anforderungen abdeckt
neueradmuser
neueradmuser 25.08.2016 um 16:38:59 Uhr
Goto Top
Hallo,
also die meisten Server / Datenbanken sind HA-mäßig abgesichert oder werden jetzt noch doppelt ausgelegt da man sich durchaus darüber bewusst ist das Recovery & schnell für "kleines Geld" (unter 10k) nicht machbar ist... es geht sich nur darum davon eine "Kopie" zu haben. Deshalb ist ja Downtime und Desaster Recovery Zeit nicht an oberste Prio... gibt es dafür vielleicht ein besseren Begriff als Backup?! *überleg*

denke das macht das "verstehen" in dem Zusammenhang unnötig kompliziert
clSchak
clSchak 25.08.2016 um 16:50:41 Uhr
Goto Top
irgendwie widersprichst du dir gerade, einen Post weiter oben soll das DR ASAP erfolgen und über HA wird nachgedacht und jetzt darf es "piano" sein und HA ist vorhanden Ôô.

Wenn es lediglich um ein Archiv / eine Kopie der Daten geht, dann reicht eine einfach NAS vollkommen aus, die SQL Datenbanken kannst dann mit Bordmitteln einfach darauf sichern, die Fileserver einfach per Robocopy dann hast eine Kopie der Daten vorliegen. Bei Robocopy kannst das ganze dann direkt als "Mirror" einrichten so das der nur noch das Delta kopiert und nicht mehr die Daten die bereits vorhanden sind.
neueradmuser
neueradmuser 25.08.2016 um 16:55:35 Uhr
Goto Top
Ja wenn man genau ließt kommt das blöd rüber ;) ... hab's geändert ... der Wunsch ist asap, was aber durch das HA vernachlässigt werden kann... man hätte halt gerne immer ein abgesichertes System...
Die Prio sollte aber sein das die Daten jederzeit verfügbar sind... und das geht auch mit defektem HA-System... dafür ist es ja da... natürlich sollte die Instandsetzung dann nicht 1-2 Wochen dauern...
Kraemer
Kraemer 25.08.2016 um 16:58:25 Uhr
Goto Top
Moin,

du / ihr verwechselt da was. HA und Backup haben so gar nichts miteinander zu tun! Bei HA geht es darum sich gegen Hardwareausfälle abzusichern. Beim Backup geht es darum, sich gegen Datenverlust zu schützen.

Gruß Krämer
neueradmuser
neueradmuser 25.08.2016 aktualisiert um 17:05:05 Uhr
Goto Top
Richtig, ist mir bewusst... das HA soll dafür sorgen das jeder arbeiten kann... OHNE Unterbrechung... das Outlook braucht maximal 15 Sekunden zum umschalten (DAG) ... da klingelt dann schon 2x mein Telefon Oo --> unten rechts steht Outlook würde nicht gehen...

Und ja, dann also doch Backup als Begriff... um den Inhalt des HA-Systems wiederherzustellen...
ich glaub jetzt haben wir bald alles durch ;)
em-pie
em-pie 25.08.2016 um 17:09:17 Uhr
Goto Top
So schaut es aus:

Denn was bringt ein HA, wenn ich mich hinsetze und ein Format D: ( auf D: liegen alle FileShares, exemplarisch) in die Konsole eingebe.
Dann sind die Daten weg, aber euer HA läuft noch, da ich ja keinen Server demoliert habe.

Das Pendent dazu ist: RAID vs. Backup. Durch ein RAID schaffe ich ein HA auf Platten-Ebene (zzgl. Performanceschub), aber wenn die Daten futsch sind, sind sie futsch

Ich denke, ihr müsst, wie bereits einige Male mitgeteilt, euch über ein sinniges Backupkonzept gedanken machen.
  • Definiert ein Ziel, z.B. alles mittels einer Backuplösung im Disk2Tape Prinzip
  • Überlegt, wie ihr das realisieren wollt und in welchen Abschnitten. Es wäre möglich, zunächst nur 2 Tape zu machen und später eine STorage zwischen zu setzen
  • Und überlegt euch, welche Daten ihr wie lange aufbewahren müsst. Teils ist man ja an gesetzliche Bestimmungen gebunden, wenn z.B. Dokumente (Rechnungen) digital archiviert werden.
  • Zudem: Wie lange könnt ihr ohne verfügbare Daten arbeiten?

Ich denke, dass es am pfiffigsten ist, sich mal 1-2 Systemhäuser einzuladen, eure Ziele denen mitzuteilen und dann gemeinsam ein Konzept auszuarbeiten.
Dr.EVIL
Dr.EVIL 27.08.2016 um 12:36:23 Uhr
Goto Top
"Praxis" Werte können nur dann angenommen werden, wenn man die reale Umgebung hinreichend genau kennt!
Da uns weitgehend unbekannt ist, in welchem maß sich die Daten "verdichten" lassen muss man vom "worst Case" (oder nach sichtweise: "Best Case") ausgehen, in dem man optimal komprimierbare Dateien (Datenbanken gehören, sofern nicht verschlüselt, dazu) über mehrere parallele Pfade sichert.

Und daher gehe ich von den maximalen Anforderungen aus!

Da diese Betrachtung in der "Praxis" offenbar eher unüblich ist, ist der Frust über angeblich "zu langsame" weil nicht den "Leistungs-Versprechungen " im "White Paper" entsprechende LTO Drives relativ häufig...
Ex0r2k16
Ex0r2k16 09.02.2018 aktualisiert um 13:48:40 Uhr
Goto Top
Ich sichere übrigens mittels Veeam auf ne recht potente Synology. Das Budget dürfte die 4K locker überschritten haben da alleine der Switch dafür schon ca. 3k gekostet hat.

Wie viel sicher ich? Ca. 1TB pro Tag. Bin ich mit der Lösung zufrieden? Nö :D

Die Synologys sind reine Knallbonbons. Die können noch so teuer sein. Die Teile haben ihr OS auf den Platten verteilt anstatt auf redundante SD Karten. Mir is letztens eine einfach so deswegen abgestürzt. Kam beim booten auch nicht mehr hoch. Musste wirklich den Strom rausziehen und dann war das Teil erst wieder zum Start zu überreden.

Da läuft jeder 0185 HP Microserver mit ZFS oder so stabiler. Finger weg davon.
Dr.EVIL
Dr.EVIL 12.02.2018 um 09:35:50 Uhr
Goto Top
Ob "redundante SD Karten" hier die Lösung sind?
Für einen ESX Server mag dies vielleicht noch reichen, aber selbst für ein einfaches Linux würde ich eine Boot-Partition auf den Platten (Oder natürlich ein eigenes RAID1 HDD/SDD Paar) bevorzugen! "Normalerweise" halte ich ein "echtes RAID" für stabiler und schneller als irgendein SD oder USB Bootmedium. Aber den meisten dieser Systeme fehlt ein physischer RAID Controller, zugunsten eines billigeren Software RAIDs...
Vielen dieser chinesischen Billig-Storages sind nur auf den Preis "optimiert". Den Dingern würde ich nicht einmal das Backup meiner MP3 Sammlung anvertrauen. face-wink
Die wenigen "großen" Systeme mit professionellem Anspruch, sind allerdings so teuer, das man auch gleich eine "vernünftige" Lösung eines Marken Herstellers nehmen kann...
Ex0r2k16
Ex0r2k16 12.02.2018 um 09:53:09 Uhr
Goto Top
Ähm die Systeme von Synology, die ich meinte sind ja noch nicht mal "so" günstig. Man zahlt halt auch für die Features wie der Erweiterbarkeit. Ich könnte da z.B. nochmal 10 oder mehr Platten per propertrierem Erweiterungsport und 2tem 19" Case da drann pappen. Das Software Raid nehme ich denen auch absolut nicht übel. Da sind schon recht starke Intel CPUs verbaut samt ECC RAM verbaut. Von der Seite her passt für mich auch die Preis-/Leistung.

Was aber meiner Meinung nach halt gar nicht geht, ist das Verteilen des OS auf alle Storage Pools und dass ich das als Admin überhaupt nicht steuern kann. Ich wusste das auch vorher gar nicht (geerbte Hardware) und hatte mich nur gewundert warum alle Platten immer zeitgleich blinken, da ich auch nirgends nen Hinweis auf ne OS HDD oder sowas gefunden hatte.

Fazit: Ich kann absolut keine Datensicherheit bei den Dingern gewährleisten. Ich will nicht wissen wie sehr ein Rebuild das Webinterface beeinflusst.

PS: Privat fahr ich mit Freenas auf ner SD Karte eig sehr gut, wenn man denn weiß, was man tut.

PPS: Ich seh grad: Die Dinger fangen so ab 2500€ leer an. Puh.
Dr.EVIL
Dr.EVIL 12.02.2018 um 16:26:59 Uhr
Goto Top
Zitat von @Ex0r2k16:

PS: Privat fahr ich mit Freenas auf ner SD Karte eig sehr gut, wenn man denn weiß, was man tut.

Je kleiner das OS desdo besser eignet es sich für den Start über ein "USB" Medium...

PPS: Ich seh grad: Die Dinger fangen so ab 2500€ leer an. Puh.

Sag ich doch...
"Alle Köche kochen mit dem gleichen Wasser"
Dafür bekommt man schon gute NAS Server von Lenovo, Fujitsu, HPE und Dell!
Ex0r2k16
Ex0r2k16 12.02.2018 um 16:33:21 Uhr
Goto Top
Habe auch ein paar Dells. Kein Vergleich. 2500 ist wohl auch immernoch zu tief gegriffen.
Ich meine so sehen die Dinger ja ganz okay aus und vieles könnte man wohl einfach mit einer vernünftigen Verwaltungssoftware fixen. Mein Maximaldurchsatz bisher war 1GB/s über 10GBe Kupfer und CIF. Das geht eigentlich klar.