NTFS/ MFT: 2000 Dateien-Löschvorgang
Hallo !
Ich habe mal eine Nuss zum knacken, vielleicht auch zum Diskutieren..
Wenn ich unter XpSp2 auf NTFS 2000 Dateien auf dem selben Laufwerk, in dem selben Verzeichnis auf einmal lösche, dauert es natürlich eine bestimmte Zeit..
Wird dabei aufgrund des Transaktionalen Dateisystems die MFT jedes mal neu geschrieben? Dies würde ja einen größeren Verschleiß auf dem Datenträger bedeuten, da ja die MFT an der selben Stelle ist..
Was meint ihr dazu?
Danke
Ich habe mal eine Nuss zum knacken, vielleicht auch zum Diskutieren..
Wenn ich unter XpSp2 auf NTFS 2000 Dateien auf dem selben Laufwerk, in dem selben Verzeichnis auf einmal lösche, dauert es natürlich eine bestimmte Zeit..
Wird dabei aufgrund des Transaktionalen Dateisystems die MFT jedes mal neu geschrieben? Dies würde ja einen größeren Verschleiß auf dem Datenträger bedeuten, da ja die MFT an der selben Stelle ist..
Was meint ihr dazu?
Danke
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 43577
Url: https://administrator.de/forum/ntfs-mft-2000-dateien-loeschvorgang-43577.html
Ausgedruckt am: 22.12.2024 um 20:12 Uhr
4 Kommentare
Neuester Kommentar
Hallo js2005
Was willst du uns damit sagen?
gretz drop
Was willst du uns damit sagen?
gretz drop
...wenn diese Theorie stimmt, dann müssten in den Plattenbereichen, in denen "die Registry" abgebildet wird, ja auch durch die ständigen Aktualisierungen Löcher in die Festplatte fressen...
...und die Internetverbindungskabel reiben sich auch an der Innenseite ab durch das ständige Datenschaufeln...
Sollte ich doch mal auf eine kabellose Verbindung umsteigen? *grübel*
Und ich glaube, es ist sicherer, meine lokalen Daten bei einem externen Inernet-Provider zu speichern, jedenfalls die 2000, die ich löschen muss...
Ach nee, dann muss ich ja wieder über das Internetkabel...
Oh Mann, echt eine harte Nuss...
Bin gespannt auf die Lösung...
Biber
...und die Internetverbindungskabel reiben sich auch an der Innenseite ab durch das ständige Datenschaufeln...
Sollte ich doch mal auf eine kabellose Verbindung umsteigen? *grübel*
Und ich glaube, es ist sicherer, meine lokalen Daten bei einem externen Inernet-Provider zu speichern, jedenfalls die 2000, die ich löschen muss...
Ach nee, dann muss ich ja wieder über das Internetkabel...
Oh Mann, echt eine harte Nuss...
Bin gespannt auf die Lösung...
Biber
@Biber
Jetzt ist mir auch klar, warum die Swisscom (Anbieter der Datenleitung) Gestern Abend bei uns in der Firma den Cisco-Router inklusive aller Kabel getauscht hat.
Die haben wohl bei Messungen festgestellt, dass unsere Kabel und der Cisco-Router abgenutzt sind *hehe*
@12918
Wenn ich deinen Gedanken aufnehme, wäre ein mögliches Szenario folgendes:
Der Controller der Harddisk sollte ein Algorithmus laufen haben, welcher mit einem Zähler für jeden Daten-Sektor die Lese-/Schreiboperationen überwacht. Wird ein gewisser Wert überschritten, sollte der Algorithmus diesen Sektor mit dem Status "Nicht mehr benutzen" markieren und die Daten welche sich darauf befinden in einen Sektor mit Status "unbenutzt" bzw. "wenig benutzt" verschieben.
Nach meinem Wissen würde das einen enormen Overhead generieren und die Lese-/Schreibleistung einer Harddisk massiv verschlechtern.
Dieser Verschleiss wird in der Praxis zum Teil abgefangen, indem sich dynamische Daten oft während des normalen Betriebes im RAM befinden.
Somit sind wir beim nächsten Problem: Ein RAM besteht aus Halbleiter Schaltern (Zellen). Auch diese Zellen können nach millionenfachem Wertwechsel (0 zu 1; 1 zu 0) einen "Schaden" nehmen. Somit müsste für einen RAM-Baustein ein gleicher Algorithmus angewendet werden.
Klar steigen in der Praxis oft Harddisks aus. Nach meinen Erfahrungen sind das aber die mechanischen Abnützungen und nicht das die Halbleiterstruktur nicht mehr funktioniert.
Es gibt bei Harddisks die Funktion, dass schlechte Sektoren als "Bad-Sector" markiert werden und nicht mehr benutzt werden.
Somit ist das "höhere Level" dieses Forums wieder gewahrt!
gretz und einen wunderschönen Tag
drop
Jetzt ist mir auch klar, warum die Swisscom (Anbieter der Datenleitung) Gestern Abend bei uns in der Firma den Cisco-Router inklusive aller Kabel getauscht hat.
Die haben wohl bei Messungen festgestellt, dass unsere Kabel und der Cisco-Router abgenutzt sind *hehe*
@12918
Wenn ich deinen Gedanken aufnehme, wäre ein mögliches Szenario folgendes:
Der Controller der Harddisk sollte ein Algorithmus laufen haben, welcher mit einem Zähler für jeden Daten-Sektor die Lese-/Schreiboperationen überwacht. Wird ein gewisser Wert überschritten, sollte der Algorithmus diesen Sektor mit dem Status "Nicht mehr benutzen" markieren und die Daten welche sich darauf befinden in einen Sektor mit Status "unbenutzt" bzw. "wenig benutzt" verschieben.
Nach meinem Wissen würde das einen enormen Overhead generieren und die Lese-/Schreibleistung einer Harddisk massiv verschlechtern.
Dieser Verschleiss wird in der Praxis zum Teil abgefangen, indem sich dynamische Daten oft während des normalen Betriebes im RAM befinden.
Somit sind wir beim nächsten Problem: Ein RAM besteht aus Halbleiter Schaltern (Zellen). Auch diese Zellen können nach millionenfachem Wertwechsel (0 zu 1; 1 zu 0) einen "Schaden" nehmen. Somit müsste für einen RAM-Baustein ein gleicher Algorithmus angewendet werden.
Klar steigen in der Praxis oft Harddisks aus. Nach meinen Erfahrungen sind das aber die mechanischen Abnützungen und nicht das die Halbleiterstruktur nicht mehr funktioniert.
Es gibt bei Harddisks die Funktion, dass schlechte Sektoren als "Bad-Sector" markiert werden und nicht mehr benutzt werden.
Somit ist das "höhere Level" dieses Forums wieder gewahrt!
gretz und einen wunderschönen Tag
drop