RAID5 nach bespielen von ca. 1,5TB Daten nicht mehr erreichbar
RAID5 aus 4x1000GB HDDs ermöglicht nach aufspielen von ca. 1,5TB Daten keinen Zugriff mehr.
Hallo.
Ich habe folgendes Problem:
Mein RAID5 besteht aus vier 1000GB Festplatten (Samsung SpinPoint F2 EcoGreen) und hängt an einem onboard RAID-Controller der Marke Marvell, welcher auf einem ASUS-Board verbaut ist.
Ich habe das RAID5 initialisiert (Full initialization) unter Windows Server 2003 als GPT konvertiert und mit NTFS formatiert. Es lassen sich ohne Probleme ca. 1,5TB Daten aufspielen bis Windows plötzlich keinen Zugriff mehr ermöglicht.
Das BIOS des RAID Controllers zeigt als Status weiterhin FULLASSIGN an. Die Samsung Festplatten habe ich vor Inbetriebnahme mit dem ESTOOL überprüft, allerdings ohne "Complete Surface Scan".
Sämtliche Wiederherstellungsversuche (Testdisk, GetDataBack) sind erfolglos, die Programme können keine MFT zu wiederherstellen finden. Nach dem der Fehler das erste mal auftrat habe ich alles nochmal neu aufgesetzt und kam nach tagelanger Arbeit wieder zum selben Ergebnis.
Das RAID5 ist nur als Datenlaufwerk gedacht, Windows 2003 läuft auf einer seperaten Platte an dem zweiten onboard Controller.
Hat hier irgendjemand eine Idee wo das Problem liegen könnte?
Hallo.
Ich habe folgendes Problem:
Mein RAID5 besteht aus vier 1000GB Festplatten (Samsung SpinPoint F2 EcoGreen) und hängt an einem onboard RAID-Controller der Marke Marvell, welcher auf einem ASUS-Board verbaut ist.
Ich habe das RAID5 initialisiert (Full initialization) unter Windows Server 2003 als GPT konvertiert und mit NTFS formatiert. Es lassen sich ohne Probleme ca. 1,5TB Daten aufspielen bis Windows plötzlich keinen Zugriff mehr ermöglicht.
Das BIOS des RAID Controllers zeigt als Status weiterhin FULLASSIGN an. Die Samsung Festplatten habe ich vor Inbetriebnahme mit dem ESTOOL überprüft, allerdings ohne "Complete Surface Scan".
Sämtliche Wiederherstellungsversuche (Testdisk, GetDataBack) sind erfolglos, die Programme können keine MFT zu wiederherstellen finden. Nach dem der Fehler das erste mal auftrat habe ich alles nochmal neu aufgesetzt und kam nach tagelanger Arbeit wieder zum selben Ergebnis.
Das RAID5 ist nur als Datenlaufwerk gedacht, Windows 2003 läuft auf einer seperaten Platte an dem zweiten onboard Controller.
Hat hier irgendjemand eine Idee wo das Problem liegen könnte?
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 120242
Url: https://administrator.de/contentid/120242
Ausgedruckt am: 22.11.2024 um 01:11 Uhr
20 Kommentare
Neuester Kommentar
Ja, an den Marvell onBoard Controller. Diese Controller taugen nichts
für den harten Dauerbetrieb mit Raid5 würde ich z.B. den von 3ware
empfehlen.
Ich habe das einmal auf Desktop-Ebene mit diesem onBoard Controller
und anderen durchexerziert und gleich wieder verworfen. Alles Mist.
Im übirgen wird für ein Raid5 fünf Festplatten benötigt, wobei die fünfte Platte für die Paratiätskontrolle zuständig ist.
Du kannst natürlich auch Raid5 mit drei Festplatten betreiben, wobei die 3te Platte dann für die Paritätskontrolle zunständig ist.
Eine Platte kann dann ausfallen. In jedem Fall würde ich noch eine Hotspareplatte mitlaufen lassen, die im Falle eines Plattenausfalls gleich einspringt.
Zum Nachschlagen für Raidkonstellationen
http://de.wikipedia.org/wiki/RAID
oder in diesem Forum.
Dieses Thema wurde schon öfters behandelt.
für den harten Dauerbetrieb mit Raid5 würde ich z.B. den von 3ware
empfehlen.
Ich habe das einmal auf Desktop-Ebene mit diesem onBoard Controller
und anderen durchexerziert und gleich wieder verworfen. Alles Mist.
Im übirgen wird für ein Raid5 fünf Festplatten benötigt, wobei die fünfte Platte für die Paratiätskontrolle zuständig ist.
Du kannst natürlich auch Raid5 mit drei Festplatten betreiben, wobei die 3te Platte dann für die Paritätskontrolle zunständig ist.
Eine Platte kann dann ausfallen. In jedem Fall würde ich noch eine Hotspareplatte mitlaufen lassen, die im Falle eines Plattenausfalls gleich einspringt.
Zum Nachschlagen für Raidkonstellationen
http://de.wikipedia.org/wiki/RAID
oder in diesem Forum.
Dieses Thema wurde schon öfters behandelt.
Zitat von @bartlebi:
Im übirgen wird für ein Raid5 fünf Festplatten
benötigt, wobei die fünfte Platte für die
Paratiätskontrolle zuständig ist.
Du kannst natürlich auch Raid5 mit drei Festplatten betreiben,
wobei die 3te Platte dann für die Paritätskontrolle
zunständig ist.
Eine Platte kann dann ausfallen. In jedem Fall würde ich noch
eine Hotspareplatte mitlaufen lassen, die im Falle eines
Plattenausfalls gleich einspringt.
Zum Nachschlagen für Raidkonstellationen
http://de.wikipedia.org/wiki/RAID
Im übirgen wird für ein Raid5 fünf Festplatten
benötigt, wobei die fünfte Platte für die
Paratiätskontrolle zuständig ist.
Du kannst natürlich auch Raid5 mit drei Festplatten betreiben,
wobei die 3te Platte dann für die Paritätskontrolle
zunständig ist.
Eine Platte kann dann ausfallen. In jedem Fall würde ich noch
eine Hotspareplatte mitlaufen lassen, die im Falle eines
Plattenausfalls gleich einspringt.
Zum Nachschlagen für Raidkonstellationen
http://de.wikipedia.org/wiki/RAID
Obwohl der Wiki Artikel gut ist hast du ihn selbst vermutlich nicht gelesen. Erst mal die Paratätsinformationen werden auf alle Platten verteilt. Bei Raid 4 wird's nur auf eine einzige geschrieben. Zum anderen Raid5 benötigt mindestens 3 Platten geht aber auch auf 4,5,6,7 usw.
@bachelorffm
Schon mal an ein Softwareraid gedacht. Das nimmt sich zum Marvel nicht viel.
@wiesi200, und ob ich den richtig gelesen habe.
Die Paritätsverwaltung auf alle Platten habe ich allerdings vorausgesetzt.
Zudem habe ich auch geschrieben, dass ein Raid5 auch aus 3 Platten bestehen kann. Die Frage ist mit welcher Ausfallsicherheit man leben möchte.
Anmerkung: In unserer Firma haben wir mehrere Server mit unterschiedlichen Raid-Konstellationen wie Raid10, Raid5 im großen Maßstab etc., bei einer Serverfarm gibt es mehr zu beachten, u.a. auch Ausfallsicherheit von Controllern.
Wenn eine Frage eher für den privaten Bereich abzielt, sollte dieses auch entsprechend formuliert werden, d.h. die Priorisierung der Wichtigkeit, ob das Raid auch wirklich mit dem Controller laufen muss, ist dann natürlich eine andere.
Im übrigen sind diese Fragen schon öfters in diesem Forum erörtert worden!
@bachelorffm, aber OK, bleiben wir beim onBoard Controller von Marvel und dessen Problemlösung.
Bei einem Raid 1-Verbund habe ich diesen Controller auch auf Desktop-Ebene auch schon betrieben.
Damit kann man leben, falls eine Platte ausfällt macht es nichts, Umschalten auf IDE-Modus und weiter geht es.
Die Analyse, warum es gerade bei Raid-5 und 1.5 gb zum stoppen kommt, ist schwierig zu analysieren.
Ausgewogenheit Hardware, Bios-Einstellungen und Controller-Software könnten hier die Ursachen sein.
Neueinrichtung:
1. Sofern alle 4 Festplatten wirklich gleich sind und alle keinen Defekt haben, besteht bei dem Hardware-Raid
immer das Problem mit der Syncronisation zwischen den Festplatten und Controller, was auch mit den
teureren Controllern immer wieder auftritt.
Es wird ein vermeintlicher Fehler bzw. eine defekte Festplatte angezeigt und die Controller-Software
schließt die eine oder andere Platte aus.
2. Software-Raid, ist nach meiner Einschätzung erheblich gefährlicher und hat auch eine Einschränkung,
aber von der Transferrate fast genauso schnell.
Entscheidend ist aber auch hier, wieviel Sicherheit will ich haben zu welchen Kosten.
Wird nicht nur im Linux-Umfeld immer beliebter.
Wichtig ist, dass der Bootloader auf der ersten Festplatte sitzt, geht diese kaputt, bootet der PC nicht
mehr, dass ist der Pferdfuß.
Die Paritätsverwaltung auf alle Platten habe ich allerdings vorausgesetzt.
Zudem habe ich auch geschrieben, dass ein Raid5 auch aus 3 Platten bestehen kann. Die Frage ist mit welcher Ausfallsicherheit man leben möchte.
Anmerkung: In unserer Firma haben wir mehrere Server mit unterschiedlichen Raid-Konstellationen wie Raid10, Raid5 im großen Maßstab etc., bei einer Serverfarm gibt es mehr zu beachten, u.a. auch Ausfallsicherheit von Controllern.
Wenn eine Frage eher für den privaten Bereich abzielt, sollte dieses auch entsprechend formuliert werden, d.h. die Priorisierung der Wichtigkeit, ob das Raid auch wirklich mit dem Controller laufen muss, ist dann natürlich eine andere.
Im übrigen sind diese Fragen schon öfters in diesem Forum erörtert worden!
@bachelorffm, aber OK, bleiben wir beim onBoard Controller von Marvel und dessen Problemlösung.
Bei einem Raid 1-Verbund habe ich diesen Controller auch auf Desktop-Ebene auch schon betrieben.
Damit kann man leben, falls eine Platte ausfällt macht es nichts, Umschalten auf IDE-Modus und weiter geht es.
Die Analyse, warum es gerade bei Raid-5 und 1.5 gb zum stoppen kommt, ist schwierig zu analysieren.
Ausgewogenheit Hardware, Bios-Einstellungen und Controller-Software könnten hier die Ursachen sein.
Neueinrichtung:
1. Sofern alle 4 Festplatten wirklich gleich sind und alle keinen Defekt haben, besteht bei dem Hardware-Raid
immer das Problem mit der Syncronisation zwischen den Festplatten und Controller, was auch mit den
teureren Controllern immer wieder auftritt.
Es wird ein vermeintlicher Fehler bzw. eine defekte Festplatte angezeigt und die Controller-Software
schließt die eine oder andere Platte aus.
2. Software-Raid, ist nach meiner Einschätzung erheblich gefährlicher und hat auch eine Einschränkung,
aber von der Transferrate fast genauso schnell.
Entscheidend ist aber auch hier, wieviel Sicherheit will ich haben zu welchen Kosten.
Wird nicht nur im Linux-Umfeld immer beliebter.
Wichtig ist, dass der Bootloader auf der ersten Festplatte sitzt, geht diese kaputt, bootet der PC nicht
mehr, dass ist der Pferdfuß.
Du hast geschrieben: "Im übrigen wird für ein Raid5 fünf Festplatten benötigt" hast zwar wieder korrigiert aber es der Satz stimmt so nicht.
Du hast dann geschrieben das bei 3Platten die 3te die Partiätsverwaltung mach bzw. bei 5 die 5te. Das ist so auch nicht richtig.
Lassen wir mal die Hotspare Platte außen vor. Bringt ja eh nur bedingt mehr Sicherheit, da sich der Verbund beim Ausfall erst wieder aufbauen muss. Ne Platte daneben hin legen bringt genau so viel. Ist eher ne Sache der Bequemlichkeit.
Ein Raid 5 mit 5 Platten ist eigentlich nicht so sicher wie eins mit 3 Platten da geht's um Wahrscheinlichkeit. Die Geschwindigkeit ist aber höher.
Das mit den privaten Bereich spielt da denke ich eher eine untergeordnete Rolle. Die onBoard Marvel Raidcontroller sind jetzt nicht grad das tollste.
Das macht ein Software Raid genau so gut. Da kann dir kein Controller ausfallen. Da es nur im die Datenplatten geht ist auch der Bootloader nicht drauf. Also für den Fall nicht unbedingt die blödeste Lösung.
Im Serverbereich setzte ich am liebsten GDT oder LSI ein. Hab da auch den einen oder anderen Server rum stehen.
Du hast dann geschrieben das bei 3Platten die 3te die Partiätsverwaltung mach bzw. bei 5 die 5te. Das ist so auch nicht richtig.
Lassen wir mal die Hotspare Platte außen vor. Bringt ja eh nur bedingt mehr Sicherheit, da sich der Verbund beim Ausfall erst wieder aufbauen muss. Ne Platte daneben hin legen bringt genau so viel. Ist eher ne Sache der Bequemlichkeit.
Ein Raid 5 mit 5 Platten ist eigentlich nicht so sicher wie eins mit 3 Platten da geht's um Wahrscheinlichkeit. Die Geschwindigkeit ist aber höher.
Das mit den privaten Bereich spielt da denke ich eher eine untergeordnete Rolle. Die onBoard Marvel Raidcontroller sind jetzt nicht grad das tollste.
Das macht ein Software Raid genau so gut. Da kann dir kein Controller ausfallen. Da es nur im die Datenplatten geht ist auch der Bootloader nicht drauf. Also für den Fall nicht unbedingt die blödeste Lösung.
Im Serverbereich setzte ich am liebsten GDT oder LSI ein. Hab da auch den einen oder anderen Server rum stehen.
Zitat von @wiesi200:
Du hast dann geschrieben das bei 3Platten die 3te die
Partiätsverwaltung mach bzw. bei 5 die 5te. Das ist so auch nicht
richtig.
Gut, etwas zu grob umschrieben, da die Paratitätsinformationen im Gegensatz zum Raid4 ja auf die Platten verteilt werden. Sonst könnte ja keine ausfallen. Zu diesem Thema sind ja schon in diesemDu hast dann geschrieben das bei 3Platten die 3te die
Partiätsverwaltung mach bzw. bei 5 die 5te. Das ist so auch nicht
richtig.
Forum etliche Abhandlungen und Kommentare geschrieben worden, warum die keiner liest, ist mir schleierhaft.
Die Geschwindigkeit bei Raid5 mit fünf oder drei Platten sei einmal dahingestellt, aber eine Hotspareplatte macht im professionellen Umfeld immer Sinn, wenn diese schon eingebaut ist, bevor ein Fehler auftritt.
Selbstverständlich ist bei reinen Datenplatten und Softwareraid, der Bootloader nicht maßgeblich, war auch nur als allgemeiner Hinweis gedacht.
Ist im übrigen auch keine blöde Lösung, sondern wird bei vernünfter Datensicherung auch häufig eingesetzt.
Gut, die GDT und LSI Controller bewegen sich in einem anderen Preissegment als Adaptec oder 3ware
Moin,
mal ganz blöd gefragt: Kann es sein, daß Dir bei 1,5 TB an Dateien die MFT "übergelaufen" ist? Wenn ich lese
Gruß J chem
mal ganz blöd gefragt: Kann es sein, daß Dir bei 1,5 TB an Dateien die MFT "übergelaufen" ist? Wenn ich lese
Sämtliche Wiederherstellungsversuche (Testdisk, GetDataBack) sind erfolglos, die Programme können keine MFT zu wiederherstellen finden.
sieht es mir so aus, als ob die maximale Anzahl von Dateieinträgen erreicht wurde und daher das Inhaltsverzeichnis der Raid-Partition überschrieben wurde. Vor allem, wennNach dem der Fehler das erste mal auftrat habe ich alles nochmal neu aufgesetzt und kam nach tagelanger Arbeit wieder zum selben Ergebnis.
das noch hinzukommt.Gruß J chem
Moin,
wenn ich recht erinnere, gibt es in der Registry einen Schlüssel, der den reservierten Speicherplatz für die MFT begrenzt:
HKEY_LOCAL_MACHINE \ SYSTEM \ CurrentControlSet \ Control \ FileSystem" beim Eintrag "NtfsMftZoneReservation"
Als Einträge sind möglich
1- 12,5%
2- 25%
3- 37,5%
4- 50%
der Partitionsgröße.
Vom Prinzip her sollte die MFT (ist ja eigentlich nur eine Datei) dynamisch "mitwachsen". Standard sind 16 KB (Default-Einstellung bei der Installation des BS). Mit jeder Datei, die hinzukommt, wächst diese Datei um 1 KB.
Die Anzahl der Dateien ist so groß, daß der reservierte Speicherplatz nicht mehr ausreicht und die Datei überschreiben wird. Womit dann die Anfangs-Informationen auch weg sind. Was dann in einer nicht zu findenden MFT endet.
Ob dem so ist, kannst nur Du endgültig beantworten, denn nur Du weißt, wieviele Dateien tatsächlich gespeichert werden und ob deren Anzahl den zugewiesenen Platz gemäß der o.a. Formel sprengt.
Gruß J chem
wenn ich recht erinnere, gibt es in der Registry einen Schlüssel, der den reservierten Speicherplatz für die MFT begrenzt:
HKEY_LOCAL_MACHINE \ SYSTEM \ CurrentControlSet \ Control \ FileSystem" beim Eintrag "NtfsMftZoneReservation"
Als Einträge sind möglich
1- 12,5%
2- 25%
3- 37,5%
4- 50%
der Partitionsgröße.
Vom Prinzip her sollte die MFT (ist ja eigentlich nur eine Datei) dynamisch "mitwachsen". Standard sind 16 KB (Default-Einstellung bei der Installation des BS). Mit jeder Datei, die hinzukommt, wächst diese Datei um 1 KB.
Die Anzahl der Dateien ist so groß, daß der reservierte Speicherplatz nicht mehr ausreicht und die Datei überschreiben wird. Womit dann die Anfangs-Informationen auch weg sind. Was dann in einer nicht zu findenden MFT endet.
Ob dem so ist, kannst nur Du endgültig beantworten, denn nur Du weißt, wieviele Dateien tatsächlich gespeichert werden und ob deren Anzahl den zugewiesenen Platz gemäß der o.a. Formel sprengt.
Gruß J chem
Hi
ohne den Fall im jetzigen aufgenommen zu haben: GPT (GUID Parttion Table) ist mit den meisten Tools die derzeit auf dem Markt sind nicht kompatibel, was aber recht gut klappt sind RAW Datensuche. Ich habe privat seit 7 Jahren GPT im Einsatz (auf einem sehr großen Netfinity mit etwa 15TB) und Windows kann damit ganz gut umgehen (da befinden sich etwa 17Mio Dateien drinnen und der Befülllungsgrad erreicht langsam 96%). Zum Glück mußte ich nie einen harten NTFS Crash mit chkdsk angehen. Meine Imagetools (HD Snapshot, Ghost, PQIMGCTR, Acronis können teils die HD sehen, aber meist falsche Größe (Acronis trumpft hier) oder brechen nach 2TB ab (Acronis...). Einzig ntbackup oder BackupExec (oder wohl andere Backupsysteme) läuft einwandfrei; umziehen mußte ich schon mehrfach (rsync oder robocopy).
Zuerst einmal würde ich mit einem tool wie filescavenger (im Long Modus) probieren; EZRec und die zahlreichen "ich helfe dir wenn ich kann" tools würde ich auslassen. Ich mache so einen HD/Volumen Fehlerfall etwa 1*die Woche, wodurch ich sehr viele Probleme kenne und bisher immer zum Ergebnis kam. Das die HDs OK sind nehme ich mal an (naja Samsung....), aber simpel offline an einem anderen Rechner mit den Samsung tools testen
Da du vermutlich keine Kapa hast um ein RAW Image von dem Konstrukt zu ziehen (evtl ist der Marvell einfach nicht in der Lage mit GPT umzugehen oder er hat wie viele SATA Chipsätze ein Problem mit Disks ab 2TB), oder?
Ich habe auf meinem ASUS P5WDG2 auch einen drauf und habe ihn zwar als Performanter als den ICH7 beobachtet aber die Tools sind eher drittklassig. Hast du mit dem neu erstellten Volumen schon ein paar Testboots durchgeführt? Ich hatte schon Kontroller die erst unter Win wunderbar alles erstellen ließen und danach die Krise mit dem Firmwareloader bekamen.
Schau mal ob drivesnapshot die HD richtig sieht; lt Support ist eine Unterstützung von Volumen >2TB (aber nur mit Sektorsize=512B) seit der V1.39 mit drinnen. Zur Erleichtertung: der RAID Eintrag ist vom NT aus nicht sichtbar und damit überschreibt dir ein volles Dateisystem sicher keine "RAID Konfig" (marvel, intel, SiI, Promise, NVidia, ATI bauen NUR SoftwareRAIDs). Wenn du die HD noch als einzelnes Volumen siehst passt das. Der MFT passt sich normal beim befüllen an (min 12.5% max ist afair 75%), außerdem steht da nicht so viel wie man denkt.
Gruß
Sam
ohne den Fall im jetzigen aufgenommen zu haben: GPT (GUID Parttion Table) ist mit den meisten Tools die derzeit auf dem Markt sind nicht kompatibel, was aber recht gut klappt sind RAW Datensuche. Ich habe privat seit 7 Jahren GPT im Einsatz (auf einem sehr großen Netfinity mit etwa 15TB) und Windows kann damit ganz gut umgehen (da befinden sich etwa 17Mio Dateien drinnen und der Befülllungsgrad erreicht langsam 96%). Zum Glück mußte ich nie einen harten NTFS Crash mit chkdsk angehen. Meine Imagetools (HD Snapshot, Ghost, PQIMGCTR, Acronis können teils die HD sehen, aber meist falsche Größe (Acronis trumpft hier) oder brechen nach 2TB ab (Acronis...). Einzig ntbackup oder BackupExec (oder wohl andere Backupsysteme) läuft einwandfrei; umziehen mußte ich schon mehrfach (rsync oder robocopy).
Zuerst einmal würde ich mit einem tool wie filescavenger (im Long Modus) probieren; EZRec und die zahlreichen "ich helfe dir wenn ich kann" tools würde ich auslassen. Ich mache so einen HD/Volumen Fehlerfall etwa 1*die Woche, wodurch ich sehr viele Probleme kenne und bisher immer zum Ergebnis kam. Das die HDs OK sind nehme ich mal an (naja Samsung....), aber simpel offline an einem anderen Rechner mit den Samsung tools testen
Da du vermutlich keine Kapa hast um ein RAW Image von dem Konstrukt zu ziehen (evtl ist der Marvell einfach nicht in der Lage mit GPT umzugehen oder er hat wie viele SATA Chipsätze ein Problem mit Disks ab 2TB), oder?
Ich habe auf meinem ASUS P5WDG2 auch einen drauf und habe ihn zwar als Performanter als den ICH7 beobachtet aber die Tools sind eher drittklassig. Hast du mit dem neu erstellten Volumen schon ein paar Testboots durchgeführt? Ich hatte schon Kontroller die erst unter Win wunderbar alles erstellen ließen und danach die Krise mit dem Firmwareloader bekamen.
Schau mal ob drivesnapshot die HD richtig sieht; lt Support ist eine Unterstützung von Volumen >2TB (aber nur mit Sektorsize=512B) seit der V1.39 mit drinnen. Zur Erleichtertung: der RAID Eintrag ist vom NT aus nicht sichtbar und damit überschreibt dir ein volles Dateisystem sicher keine "RAID Konfig" (marvel, intel, SiI, Promise, NVidia, ATI bauen NUR SoftwareRAIDs). Wenn du die HD noch als einzelnes Volumen siehst passt das. Der MFT passt sich normal beim befüllen an (min 12.5% max ist afair 75%), außerdem steht da nicht so viel wie man denkt.
Gruß
Sam
Hi
Die RAW Datensuche bringt dich an die Daten. Wenn drivesnapshot das Vol sieht und backupen kann kommst du wieder ans Volumen. Sofern du die Daten (noch wo) hast, vergiss dies und mache gleich ein SoftRAID5. Der NT Teil gilt als sehr stabil und performant und hatte ich auch schon mal. Wieso 1.5TB: evtl sind das die 25% Standard MFT (beim format Befehl) sofern das wirklich was mit den derzeitigen 2TB Grenzen zu tun hat. Wenn du spielen kannst lass doch mal mit bigfile oder ähnlichen große Daten dort erzeugen (2TB und warte bis er abbricht, BSOD, ...). Ich habe meinen Marvell noch nicht mit großen HDs getestet, daher kann ich keine TB Erfahrung geben, aber selbst Intel hat erst vor kurzem zugegeben (Bericht in der c't) das keine deren aktuellen SATA Chips mehr als 2TB verwalten kann als Endgerät (die Controller dank 64Bit teils schon). Mit 2*1.3TB HDs von Seagate habe ich das mit einem SiI RAID0 gehäuse schon mal ausprobiert. Nach etwa 2 Min kam ein Timeout und die HD wurde mit 0GB gefunden; im Linux wurde sie dann als Bigdisk mit 32Bit-1 512B Sektoren gefunden.
Da ich das Gerät nicht da habe kann ich nur Vorgehenstipps geben; wie gesagt wenn du spielen kannst/willst (SoftRAID unter w2k3 habe ich mit 6.3TB im Einsatz, da es mit SAN schwer alternativen gibt) findet sich sicher eine Lösung!
Gruß
Sam
Die RAW Datensuche bringt dich an die Daten. Wenn drivesnapshot das Vol sieht und backupen kann kommst du wieder ans Volumen. Sofern du die Daten (noch wo) hast, vergiss dies und mache gleich ein SoftRAID5. Der NT Teil gilt als sehr stabil und performant und hatte ich auch schon mal. Wieso 1.5TB: evtl sind das die 25% Standard MFT (beim format Befehl) sofern das wirklich was mit den derzeitigen 2TB Grenzen zu tun hat. Wenn du spielen kannst lass doch mal mit bigfile oder ähnlichen große Daten dort erzeugen (2TB und warte bis er abbricht, BSOD, ...). Ich habe meinen Marvell noch nicht mit großen HDs getestet, daher kann ich keine TB Erfahrung geben, aber selbst Intel hat erst vor kurzem zugegeben (Bericht in der c't) das keine deren aktuellen SATA Chips mehr als 2TB verwalten kann als Endgerät (die Controller dank 64Bit teils schon). Mit 2*1.3TB HDs von Seagate habe ich das mit einem SiI RAID0 gehäuse schon mal ausprobiert. Nach etwa 2 Min kam ein Timeout und die HD wurde mit 0GB gefunden; im Linux wurde sie dann als Bigdisk mit 32Bit-1 512B Sektoren gefunden.
Da ich das Gerät nicht da habe kann ich nur Vorgehenstipps geben; wie gesagt wenn du spielen kannst/willst (SoftRAID unter w2k3 habe ich mit 6.3TB im Einsatz, da es mit SAN schwer alternativen gibt) findet sich sicher eine Lösung!
Gruß
Sam
GDB kann aber nicht mit GPT umgehen; FS ist da besser, mit DriveSnapshot kannst du auch einzelne Bereiche direkt zurückholen via mounten; wie gesagt würde ich erst mal sehen was geht und was nicht und dann einen Weg finden. Jedes Tool (wir haben hier in der Firma 5 verschiedene nur für Desaster Fälle) und jedes hat seine Stärken und schwächen, daher will ich keines Missen; irgendwann ist man doch froh drum.
Eine Lösung habe ich nicht, aber vor einer Weile hat die c't RAID-Kisten (direct attached) getestet und ist unter Windows auf einen Bug in etlichen Windows-(E-)SATA-Treibern gestoßen: bei ca 2GB Füllstand gab es ein geschrottetes Filesystem.
Eventuell hast du genau das gleiche Problem, auch wenn du kein E-SATA verwendest (ist am Ende eh der gleiche Treiber)
Es war die 2/2009:
<http://www.heise.de/kiosk/archiv/ct/2009/2/54_kiosk>
Zitat:
An Southbridges von Intel (ICH10R sowie ICH9M) und AMD (780G mit SB700) sowie dem SATA-Chip JMicron 20363 erkannte Vista dagegen die Kapazität falsch, und zwar um genau 2048 GByte zu klein. Das deutet darauf hin, dass die Treiber intern mit 32-bittigen Sektornummern rechnen und größere Zahlen einfach abschneiden.
Das Prekäre daran: Hat man die 4big bereits formatiert und mit Daten bespielt, so taucht sie im Explorer und auch in der Datenträgerverwaltung von Vista mit der korrekten Kapazität auf; scheinbar ist alles in Ordnung.
Doch wehe, man überschreitet beim Befüllen die 2-Terabyte-Grenze. Dann werden Daten am Anfang der Platte überschrieben, die Partitionierung ist hinüber und alle Daten futsch, wie wir in mehreren nächtelangen Versuchen
zuverlässig reproduzieren konnten.
Zitat Ende.
Eventuell hast du genau das gleiche Problem, auch wenn du kein E-SATA verwendest (ist am Ende eh der gleiche Treiber)
Es war die 2/2009:
<http://www.heise.de/kiosk/archiv/ct/2009/2/54_kiosk>
Zitat:
An Southbridges von Intel (ICH10R sowie ICH9M) und AMD (780G mit SB700) sowie dem SATA-Chip JMicron 20363 erkannte Vista dagegen die Kapazität falsch, und zwar um genau 2048 GByte zu klein. Das deutet darauf hin, dass die Treiber intern mit 32-bittigen Sektornummern rechnen und größere Zahlen einfach abschneiden.
Das Prekäre daran: Hat man die 4big bereits formatiert und mit Daten bespielt, so taucht sie im Explorer und auch in der Datenträgerverwaltung von Vista mit der korrekten Kapazität auf; scheinbar ist alles in Ordnung.
Doch wehe, man überschreitet beim Befüllen die 2-Terabyte-Grenze. Dann werden Daten am Anfang der Platte überschrieben, die Partitionierung ist hinüber und alle Daten futsch, wie wir in mehreren nächtelangen Versuchen
zuverlässig reproduzieren konnten.
Zitat Ende.
Hi Deltatango
das klingt nach meinem Bericht oben:
"sofern das wirklich was mit den derzeitigen 2TB Grenzen zu tun hat. Wenn du spielen kannst lass doch mal mit bigfile oder ähnlichen große Daten dort erzeugen (2TB und warte bis er abbricht, BSOD, ...). Ich habe meinen Marvell noch nicht mit großen HDs getestet, daher kann ich keine TB Erfahrung geben, aber selbst Intel hat erst vor kurzem zugegeben (Bericht in der c't) das keine deren aktuellen SATA Chips mehr als 2TB verwalten kann als Endgerät (die Controller dank 64Bit teils schon)"
das klingt nach meinem Bericht oben:
"sofern das wirklich was mit den derzeitigen 2TB Grenzen zu tun hat. Wenn du spielen kannst lass doch mal mit bigfile oder ähnlichen große Daten dort erzeugen (2TB und warte bis er abbricht, BSOD, ...). Ich habe meinen Marvell noch nicht mit großen HDs getestet, daher kann ich keine TB Erfahrung geben, aber selbst Intel hat erst vor kurzem zugegeben (Bericht in der c't) das keine deren aktuellen SATA Chips mehr als 2TB verwalten kann als Endgerät (die Controller dank 64Bit teils schon)"
Hi
erkennt DS auch das dort ein Volumen liegt? Wenn ja gibt es laut Hilfe einen Kommandozeilen Parameter Zitat:
Ausschließen von Dateien aus dem Backup
In manchen Fällen kann es sinnvoll sein, gewisse Verzeichnisse und Dateien aus dem Backup auszuschließen.
Dies ist immer der Fall (und schon immer so implementiert) für Pagefile.sys und Hiberfile.sys, kann aber auch für temporäre Verzeichnisse, gesammelte gesaugte Filme etc. sinnvoll sein.
Technisch bedingt wird dabei lediglich der Inhalt der betroffenen Dateien nicht gesichert, die Verzeichniseinträge aber sehr wohl.
Deshalb sind nach einem Restore zwar sämtliche Dateien noch immer/wieder da, enthalten aber lediglich zufällige Daten.
Aus diesem Grunde wird im Image eine Datei 'SnapshotDeleteAfterRestore.BAT' angelegt; sie sollte nach einem Restore ausgeführt werden, um Irritationen zu vermeiden.
Dateien und Verzeichnisse können ausgeschlossen werden durch (Komma-separiert)
--exclude:\Temp,\Windows\Memory.dmp,\Windows\Minidump\*,"\Dokumente und Einstellungen",\Windows\$NtUninstall*
(\temp und \temp\* sind equivalent)
Leerzeichen im Dateinamen müssen durch `"` Hochkomma eingeschlossen werden
Dies umfasst immer auch Unterverzeichnisse
Gruß
Sam
erkennt DS auch das dort ein Volumen liegt? Wenn ja gibt es laut Hilfe einen Kommandozeilen Parameter Zitat:
Ausschließen von Dateien aus dem Backup
In manchen Fällen kann es sinnvoll sein, gewisse Verzeichnisse und Dateien aus dem Backup auszuschließen.
Dies ist immer der Fall (und schon immer so implementiert) für Pagefile.sys und Hiberfile.sys, kann aber auch für temporäre Verzeichnisse, gesammelte gesaugte Filme etc. sinnvoll sein.
Technisch bedingt wird dabei lediglich der Inhalt der betroffenen Dateien nicht gesichert, die Verzeichniseinträge aber sehr wohl.
Deshalb sind nach einem Restore zwar sämtliche Dateien noch immer/wieder da, enthalten aber lediglich zufällige Daten.
Aus diesem Grunde wird im Image eine Datei 'SnapshotDeleteAfterRestore.BAT' angelegt; sie sollte nach einem Restore ausgeführt werden, um Irritationen zu vermeiden.
Dateien und Verzeichnisse können ausgeschlossen werden durch (Komma-separiert)
--exclude:\Temp,\Windows\Memory.dmp,\Windows\Minidump\*,"\Dokumente und Einstellungen",\Windows\$NtUninstall*
(\temp und \temp\* sind equivalent)
Leerzeichen im Dateinamen müssen durch `"` Hochkomma eingeschlossen werden
Dies umfasst immer auch Unterverzeichnisse
Gruß
Sam