fisi-pjm
Goto Top

Netzlaufwerk Benchmark - Deduplizierung

Hallo,

ich stehe vor folgendem Interessantem und für mich, falls es funktioniert, super Praktischem Versuch.

Ich bin bei einem Windows Server 2012 auf ein Feature in der DateiServerrolle gestoßen. Nämlich die Deduplizierung.
Ich habe ein Testsystem aufgesetzt und mit Daten gefüttert. Die Ersparnis an Festplattenplatz ist nicht von der Hand zu weisen.
Meine frage ist nun wie sieht es mit der Performance aus, habt ihr eine Idee wie ich die Schreib und lese Performance auf einem Laufwerk teste auf dem Deduplizierte Daten befinden?
Einfach Kopieren einfügen, oder habt ihr vielleicht schon Erfahrungen, bzw. tools die man dafür nutzen kann?

Gruß
PJM

Content-ID: 228809

Url: https://administrator.de/contentid/228809

Ausgedruckt am: 21.11.2024 um 12:11 Uhr

emeriks
emeriks 05.02.2014 um 15:16:21 Uhr
Goto Top
Hi,
Deduplizierung wurde ja nicht von M$ erfunden ... face-wink
Das kennt man aus dem SAN-Bereich.
Das hängt davon ab, ob das ein dedup-on-write ist oder ein scheduled dedup. Da kenne ich Windows 2012 nicht genug.
Wenn es on-write ist, dann ist eine große Last beim Schreiben eines Blocks zu erwarten. Beim Lesen unverändert.
Wenn es scheduled ist, dann ist nur während des Dedups erhöhte Last zu erwarten. Außerhalb davon beim Lesen und Schreiben unverändert.
Wenn M$ auch den Cache fürs Dedup optimiert hat, dann wäre so ein Fileserver wahrscheinlich sogar schneller, weil er dann doppelte Blöcke nicht doppelt im Cache hält, sondern jeden Dedup-Block nur einmal. Damit hat er mehr RAM frei und kann mehr Blöcke im Cache halten.

Testen einfach, indem Du eine definierte Menge Dateien auf den Server kopierst. Einmal auf das Laufwerk mit Dedup und einmal auf das selbe(!) Laufwerk ohne Dedup.

E.
Monschu
Monschu 05.02.2014 um 15:40:40 Uhr
Goto Top
Hi,

so wie ich das verstanden habe, greift die Dedup Funktion erst nach einer eingestellten Zeit an Tagen auf die Dateien zu.

Zitat von http://technet.microsoft.com/de-de/library/hh831602.aspx
Nicht optimierte Dateien. Zu den nicht optimierten Dateien zählen beispielsweise Dateien, die nicht der ausgewählten Richtlinieneinstellung für das Dateialter
entsprechen...

Somit sollte es emeriks zweiter Fall sein.
Unser Test diesbezüglich steht noch aus, mal schauen was er uns so anzeigt.
Gruß
fisi-pjm
fisi-pjm 05.02.2014 um 16:24:34 Uhr
Goto Top
Also bei 2012 ist es im Normalfall ein Hintergrundprozess. Man kann aber auch einen Zeitraum festlegen in dem die Deduplizierung mit normaler Prioität laufen soll, und beim test war selbst unter normaler Prio noch absolut problemloses arbeiten auf dem Server möglich.

Ich habe jetzt eine Partition mit 300 GB (User echtdaten aus backup, Profile, Userverzeichnisse, Gruppenlaufwerke, etc...) als testobjekt an den server gehängt.
Nach der Deduplizierung habe ich 102!!! GB zusätzlichen freien Speicherplatz.

Bei einem test mit einem 1 GB großen Verzeichnis bunt gemischter dateien sowohl in format als auch größe, ergab sich eine leichte verschlechterung.

Gruß
PJM