emeriks
Goto Top

SDELETE -z auf Produktiv-Server

Hi,
muss man Bedenken haben, wenn man SDELETE mit Option -z auf einem produktiven Server einsetzt?
Laut Beschreibung (und so wie ich es sehen kann) erzeugt SDELETE eine Datei auf dem Laufwerk - so groß wie möglich, sprich so groß wie freier Platz verfügbar - und füllt diese mit Null-Bytes. Anschließend löscht es die Datei.
Bedeutet das nicht, dass das Laufwerk zum Ende hin kurzzeitig voll ist (0 % frei) und dass dadurch aktive Prozesse dann u.U. ihre Daten nicht runterschreiben können? Oder ist da eine Sicherheitsreserve eingebaut, welche SDLETE an freien Platz auf der Platte belässt?

Weiß das jemand?

E.

Content-ID: 292272

Url: https://administrator.de/forum/sdelete-z-auf-produktiv-server-292272.html

Ausgedruckt am: 27.12.2024 um 19:12 Uhr

colinardo
colinardo 06.01.2016 aktualisiert um 01:16:01 Uhr
Goto Top
Hallo Emeriks,
kann ich nur dringend von abraten, das Tool bitte nur bei nicht genutzten Datenträgern anwenden, bei live Servern bekommst du mächtig Freude mit abgestürzten und sich abrupt beendenden Diensten.
Ein Kollege kann dir ein Lied davon singen, hat der nur einmal und nie wieder gemacht, das war Ihm eine Lehre.
Hatte das damals mal zum Spaß an der Freud auf einem virtualisierten Exchange auf dem unter anderem noch DFS und SQL-Server liefen nachgestellt... Ergebnis: Diverse Dienste streikten nach einer Weile Aktivität von sdelete. Beim Neustart dann sogar ein Bluescreen der sich aber nach dem zweiten Reboot verflüchtigte, die Exchange DB hatte wohl auch eine kleine "Inkontinenz" die sich aber mit eseutil wieder zurecht biegen ließ.

Fazit: Bitte nicht nachmachen und den Server vorher runterfahren und das offline tun außer du brauchst neue Herausforderungen oder bist Risikogeil face-smile

Grüße Uwe
kaiand1
kaiand1 06.01.2016 um 02:40:59 Uhr
Goto Top
Nun eine Aktive Datenbank wird sicherlich danach nicht mehr brauchbar sein da die Updaten möchte und bei 0 Speicherplatz ihre Daten Anfängt zu überschreiben aber nicht mehr alles reingeht.
Kollege hat mit sowas mal nicht nur die DB unwiederruflich geschrottet sondern auch alle eingehende Mails als 0 Byte angenommen.
Und Remote einloggen ging danach auch nicht mehr da der Dienst abgeschmiert ist da er die Logdatei nicht mehr schreiben konnte...
Aber sowas macht man nur im Offline Modus.
Und wenn du eine SSD hast siehst das ganze wieder anders aus xD
Aber jeder Versuch macht Klug ;)
StefanKittel
StefanKittel 06.01.2016 um 09:30:00 Uhr
Goto Top
Hallo,

auch sollte man dies Tool nicht auf Virtualisierungsplattformen einsetzen wo Storages nach dem Thin-Prinzip genutzt werden.

Stefan
122990
122990 06.01.2016 aktualisiert um 09:44:37 Uhr
Goto Top
Zitat von @StefanKittel:

auch sollte man dies Tool nicht auf Virtualisierungsplattformen einsetzen wo Storages nach dem Thin-Prinzip genutzt werden.
Zum shrinken von aufgeblähten thin provisioned vhds ist es unter Windows aber ganz nützlich ..., offline versteht sich natürlich.

Gruß grexit
Dani
Dani 06.01.2016 um 10:27:45 Uhr
Goto Top
Moin @122990,
Zitat von @122990:

Zitat von @StefanKittel:

auch sollte man dies Tool nicht auf Virtualisierungsplattformen einsetzen wo Storages nach dem Thin-Prinzip genutzt werden.
Zum shrinken von aufgeblähten thin provisioned vhds ist es unter Windows aber ganz nützlich ..., offline versteht sich natürlich.

Gruß grexit
Bietet dafür Microsoft nicht auch schon eine Funktionen im Hyper-V an?


Gruß,
Dani
122990
122990 06.01.2016 aktualisiert um 10:34:21 Uhr
Goto Top
Zitat von @Dani:
Bietet dafür Microsoft nicht auch schon eine Funktionen im Hyper-V an?
Schon, aber die arbeitet weniger effektiv wenn man die VM nicht vorher defragementiert und den nicht belegten Speicher nicht vorher mit Nullen überschreibt.

Gruß grexit
117471
117471 06.01.2016 um 13:49:35 Uhr
Goto Top
Zitat von @122990:

Schon, aber die arbeitet weniger effektiv wenn man die VM nicht vorher defragementiert und den nicht belegten Speicher nicht vorher mit Nullen überschreibt.

Dennoch lohnt es sich immer wieder einmal, darüber nachzudenken, in welchem Verhältnis Aufwände und Risiken zu den tatsächlichen Verbesserungen bestehen. "Gesundes Mittelmaß" ftw.

Wie groß wäre denn der gemessene Unterschied zwischen einer "uneffektiven" und einer "effektiven" Optimierung?
122990
122990 06.01.2016 aktualisiert um 14:00:43 Uhr
Goto Top
Zitat von @117471:
Dennoch lohnt es sich immer wieder einmal, darüber nachzudenken, in welchem Verhältnis Aufwände und Risiken zu den tatsächlichen Verbesserungen bestehen. "Gesundes Mittelmaß" ftw.

Wie groß wäre denn der gemessene Unterschied zwischen einer "uneffektiven" und einer "effektiven" Optimierung?
Also ein Beispiel aus meiner Praxiserfahrung:
  • Thin-Provisioned VHDX mit angewachsener Größe von 500GB.
  • Belegt waren darin effektiv 250GB
  • Größe nach Shrinking ohne weitere Maßnahmen mit 2maligen Anwenden Optimize-VHD = 420GB
  • Größe nach Shrinking mit vorherigem defragmentieren und überschreiben der nicht belegten Bereiche mit sdelete -z und anschließendem Optimize-VHD = 260GB

Denke das sagt alles face-smile
colinardo
colinardo 06.01.2016 aktualisiert um 14:22:15 Uhr
Goto Top
Zitat von @122990:
Denke das sagt alles face-smile
Dem kann ich auch zustimmen, bei akuten Platzproblemen macht diese Methode eindeutig mehr Platz frei, als die reine Verwendung von Optimize-VHD.

Grüße Uwe
117471
117471 06.01.2016 um 15:22:08 Uhr
Goto Top
Zitat von @colinardo:

Dem kann ich auch zustimmen, bei akuten Platzproblemen macht diese Methode eindeutig mehr Platz frei, als die reine Verwendung von Optimize-VHD.

O.K., wenn die Differenz so krass ist, wäre das natürlich eine Mühe wert.

Allerdings stellt sich mir dann die Frage, ob es nicht klüger ist, die virtuelle Platte in einem anderen System zu mounten und von dort zu beackern. Aber dazu haben Dir ja auch schon die Kollegen geraten face-smile
122990
122990 06.01.2016 aktualisiert um 16:13:20 Uhr
Goto Top
Zitat von @117471:
Allerdings stellt sich mir dann die Frage, ob es nicht klüger ist, die virtuelle Platte in einem anderen System zu mounten und von dort zu beackern. Aber dazu haben Dir ja auch schon die Kollegen geraten face-smile
Na das ist ja bei der Methode sowieso obligatorisch (aus einer VM sich selbst die VHD optimieren wie soll das denn auch gehen?? face-smile) ...Macht man natürlich bei heruntergefahrener VM auf dem Host.
emeriks
emeriks 06.01.2016 um 19:38:50 Uhr
Goto Top
Hallo am Alle,
Danke für Eure Rückmeldungen!

Ja, es geht um eine VM unter VMware. Thick VMDK auf Thin SAN LUN (NetApp). Die NetApp meldet stetig Datenzuwachs im Volume, obwohl die Laufwerke aus VM-Sicht kaum voller werden. Ich habe aber ein Laufwerk ausgemacht, auf welchem von einem Server-Dienst (PACS) sehr exzessiv temporäre Daten geschrieben und kurz danach wieder gelöscht werden. Da NTFS die gelöschten Blöcke nicht sofort überschreibt bleiben diese Blöcke aus Sicht des SAN weiterhin als "benutzt". Hier kommen so ca. 90-100 GB die Woche zusammen. Die Idee ist, diese Blöcke einmal wöchentlich auszunullen.

Plan B: Da dieses Laufwerk fast ausschließlich nur für diese temporären Bewegungsdaten ist, überlege ich, das Laufwerk so zu verkleinern, dass Windows die Blöcke laufend überschreiben muss. Allerdings kann ich nicht 100% abschätzen, wie groß das Laufwerk min. sein muss. (z.Z. >600 GB frei). Hier werde ich aber mal den Hersteller abfragen.

Ich überlege ernsthaft mir eine eigene kleine Anwendung zu schreiben, welche mir z.B. Null-Byte-Dateien erzeugt, dabei aber auf freibleienden Speicherplatz achtet ...

Andere Ideen?

E.
Dani
Dani 06.01.2016 aktualisiert um 20:09:40 Uhr
Goto Top
Hallo @emeriks,
Ja, es geht um eine VM unter VMware. Thick VMDK auf Thin SAN LUN (NetApp). Die NetApp meldet stetig Datenzuwachs im Volume, obwohl die Laufwerke aus VM-Sicht kaum voller werden.
Da du "LUN" geschrieben hast gehe ich davon aus, dass die Datastores via iSCSI angebunden sind?! Besteth die Möglichkeit auch NFS zu nutzen? Ich meine bei Block-Level (FC, ISCSI) bekommt das Storage nicht mit, ob Speicherplatz frei wird. Darum müssten die Werte von vSphere und Netapp die Zahlen abweichen. Mit NFS fällt die Ebene "LUN" heraus. Schau dir diesen Blogartikel dazu an.


Gruß,
Dani
emeriks
emeriks 06.01.2016 um 20:00:40 Uhr
Goto Top
Nein, FC.
Und der Link bezieht sich auf NFS, nicht auf iSCSI !