Netzlaufwerk Benchmark - Deduplizierung
Hallo,
ich stehe vor folgendem Interessantem und für mich, falls es funktioniert, super Praktischem Versuch.
Ich bin bei einem Windows Server 2012 auf ein Feature in der DateiServerrolle gestoßen. Nämlich die Deduplizierung.
Ich habe ein Testsystem aufgesetzt und mit Daten gefüttert. Die Ersparnis an Festplattenplatz ist nicht von der Hand zu weisen.
Meine frage ist nun wie sieht es mit der Performance aus, habt ihr eine Idee wie ich die Schreib und lese Performance auf einem Laufwerk teste auf dem Deduplizierte Daten befinden?
Einfach Kopieren einfügen, oder habt ihr vielleicht schon Erfahrungen, bzw. tools die man dafür nutzen kann?
Gruß
PJM
ich stehe vor folgendem Interessantem und für mich, falls es funktioniert, super Praktischem Versuch.
Ich bin bei einem Windows Server 2012 auf ein Feature in der DateiServerrolle gestoßen. Nämlich die Deduplizierung.
Ich habe ein Testsystem aufgesetzt und mit Daten gefüttert. Die Ersparnis an Festplattenplatz ist nicht von der Hand zu weisen.
Meine frage ist nun wie sieht es mit der Performance aus, habt ihr eine Idee wie ich die Schreib und lese Performance auf einem Laufwerk teste auf dem Deduplizierte Daten befinden?
Einfach Kopieren einfügen, oder habt ihr vielleicht schon Erfahrungen, bzw. tools die man dafür nutzen kann?
Gruß
PJM
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 228809
Url: https://administrator.de/contentid/228809
Ausgedruckt am: 21.11.2024 um 12:11 Uhr
3 Kommentare
Neuester Kommentar
Hi,
Deduplizierung wurde ja nicht von M$ erfunden ...
Das kennt man aus dem SAN-Bereich.
Das hängt davon ab, ob das ein dedup-on-write ist oder ein scheduled dedup. Da kenne ich Windows 2012 nicht genug.
Wenn es on-write ist, dann ist eine große Last beim Schreiben eines Blocks zu erwarten. Beim Lesen unverändert.
Wenn es scheduled ist, dann ist nur während des Dedups erhöhte Last zu erwarten. Außerhalb davon beim Lesen und Schreiben unverändert.
Wenn M$ auch den Cache fürs Dedup optimiert hat, dann wäre so ein Fileserver wahrscheinlich sogar schneller, weil er dann doppelte Blöcke nicht doppelt im Cache hält, sondern jeden Dedup-Block nur einmal. Damit hat er mehr RAM frei und kann mehr Blöcke im Cache halten.
Testen einfach, indem Du eine definierte Menge Dateien auf den Server kopierst. Einmal auf das Laufwerk mit Dedup und einmal auf das selbe(!) Laufwerk ohne Dedup.
E.
Deduplizierung wurde ja nicht von M$ erfunden ...
Das kennt man aus dem SAN-Bereich.
Das hängt davon ab, ob das ein dedup-on-write ist oder ein scheduled dedup. Da kenne ich Windows 2012 nicht genug.
Wenn es on-write ist, dann ist eine große Last beim Schreiben eines Blocks zu erwarten. Beim Lesen unverändert.
Wenn es scheduled ist, dann ist nur während des Dedups erhöhte Last zu erwarten. Außerhalb davon beim Lesen und Schreiben unverändert.
Wenn M$ auch den Cache fürs Dedup optimiert hat, dann wäre so ein Fileserver wahrscheinlich sogar schneller, weil er dann doppelte Blöcke nicht doppelt im Cache hält, sondern jeden Dedup-Block nur einmal. Damit hat er mehr RAM frei und kann mehr Blöcke im Cache halten.
Testen einfach, indem Du eine definierte Menge Dateien auf den Server kopierst. Einmal auf das Laufwerk mit Dedup und einmal auf das selbe(!) Laufwerk ohne Dedup.
E.
Hi,
so wie ich das verstanden habe, greift die Dedup Funktion erst nach einer eingestellten Zeit an Tagen auf die Dateien zu.
Somit sollte es emeriks zweiter Fall sein.
Unser Test diesbezüglich steht noch aus, mal schauen was er uns so anzeigt.
Gruß
so wie ich das verstanden habe, greift die Dedup Funktion erst nach einer eingestellten Zeit an Tagen auf die Dateien zu.
Zitat von http://technet.microsoft.com/de-de/library/hh831602.aspx
Nicht optimierte Dateien. Zu den nicht optimierten Dateien zählen beispielsweise Dateien, die nicht der ausgewählten Richtlinieneinstellung für das Dateialter
entsprechen...
Nicht optimierte Dateien. Zu den nicht optimierten Dateien zählen beispielsweise Dateien, die nicht der ausgewählten Richtlinieneinstellung für das Dateialter
entsprechen...
Somit sollte es emeriks zweiter Fall sein.
Unser Test diesbezüglich steht noch aus, mal schauen was er uns so anzeigt.
Gruß