NTFS/ MFT: 2000 Dateien-Löschvorgang

js2005
Goto Top
Hallo !
Ich habe mal eine Nuss zum knacken, vielleicht auch zum Diskutieren..

Wenn ich unter XpSp2 auf NTFS 2000 Dateien auf dem selben Laufwerk, in dem selben Verzeichnis auf einmal lösche, dauert es natürlich eine bestimmte Zeit..

Wird dabei aufgrund des Transaktionalen Dateisystems die MFT jedes mal neu geschrieben? Dies würde ja einen größeren Verschleiß auf dem Datenträger bedeuten, da ja die MFT an der selben Stelle ist..

Was meint ihr dazu?

Danke

Content-Key: 43577

Url: https://administrator.de/contentid/43577

Ausgedruckt am: 15.08.2022 um 02:08 Uhr

Mitglied: 17243
17243 02.11.2006 um 21:51:57 Uhr
Goto Top
Hallo js2005

Was willst du uns damit sagen?

gretz drop
Mitglied: Biber
Biber 02.11.2006 um 22:04:29 Uhr
Goto Top
...wenn diese Theorie stimmt, dann müssten in den Plattenbereichen, in denen "die Registry" abgebildet wird, ja auch durch die ständigen Aktualisierungen Löcher in die Festplatte fressen...

...und die Internetverbindungskabel reiben sich auch an der Innenseite ab durch das ständige Datenschaufeln...

Sollte ich doch mal auf eine kabellose Verbindung umsteigen? *grübel*

Und ich glaube, es ist sicherer, meine lokalen Daten bei einem externen Inernet-Provider zu speichern, jedenfalls die 2000, die ich löschen muss...

Ach nee, dann muss ich ja wieder über das Internetkabel...

Oh Mann, echt eine harte Nuss...

Bin gespannt auf die Lösung...

Biber
Mitglied: js2005
js2005 02.11.2006 um 23:19:46 Uhr
Goto Top
Also Jungs, ich wollte hier keine Witzveranstaltung, sondern hoffte, hier bewege man sich auf einem höheren Level..

Wenn ein Bereich eines Datenträgers überaus stark beansprucht wird - und die MFT (eventuell ist sie sogar fragmentiert ) ist an der selben Stelle der Platte - dann unterliegt dieser Bereich ja einem physikalisch viel höherem Verschleiß, als gewöhnliche Speicherbereiche. Entscheidend ist also, wie lange das gut geht - nicht nur auf einen einzigen Löschvorgang bezogen..

So far so good
Mitglied: 17243
17243 03.11.2006 um 08:41:03 Uhr
Goto Top
@Biber
Jetzt ist mir auch klar, warum die Swisscom (Anbieter der Datenleitung) Gestern Abend bei uns in der Firma den Cisco-Router inklusive aller Kabel getauscht hat.
Die haben wohl bei Messungen festgestellt, dass unsere Kabel und der Cisco-Router abgenutzt sind *hehe*

@12918
Wenn ich deinen Gedanken aufnehme, wäre ein mögliches Szenario folgendes:
Der Controller der Harddisk sollte ein Algorithmus laufen haben, welcher mit einem Zähler für jeden Daten-Sektor die Lese-/Schreiboperationen überwacht. Wird ein gewisser Wert überschritten, sollte der Algorithmus diesen Sektor mit dem Status "Nicht mehr benutzen" markieren und die Daten welche sich darauf befinden in einen Sektor mit Status "unbenutzt" bzw. "wenig benutzt" verschieben.
Nach meinem Wissen würde das einen enormen Overhead generieren und die Lese-/Schreibleistung einer Harddisk massiv verschlechtern.
Dieser Verschleiss wird in der Praxis zum Teil abgefangen, indem sich dynamische Daten oft während des normalen Betriebes im RAM befinden.
Somit sind wir beim nächsten Problem: Ein RAM besteht aus Halbleiter Schaltern (Zellen). Auch diese Zellen können nach millionenfachem Wertwechsel (0 zu 1; 1 zu 0) einen "Schaden" nehmen. Somit müsste für einen RAM-Baustein ein gleicher Algorithmus angewendet werden.

Klar steigen in der Praxis oft Harddisks aus. Nach meinen Erfahrungen sind das aber die mechanischen Abnützungen und nicht das die Halbleiterstruktur nicht mehr funktioniert.
Es gibt bei Harddisks die Funktion, dass schlechte Sektoren als "Bad-Sector" markiert werden und nicht mehr benutzt werden.

Somit ist das "höhere Level" dieses Forums wieder gewahrt! face-smile

gretz und einen wunderschönen Tag
drop