supaman
Goto Top

Daten mit automatischer Archiv-Rotation auf Festplatte absichern

grüße,

ich suche für folgendes szenario eine backup-software:

\\server1\ordner1\*.* [ca. 50 mb]
\\server1\ordner2\*.* [ca. 100 mb]
\\server2\ordner1\*.* [ca. 250 mb]
\\server2\ordner2\*.* [ca. 175 GB]

--> gesamtdatenmenge derzeit ca. 180 GB

ich möchte gerne die ordner auf einen separaten backup-server absichern, raid-5 array mit sagen wir 1.2 TB speicherkapazität. nun würde ich dort bei full backups grade mal 6 backups draufbekommen. ich möchte halt gerne 3 oder 4 wochen im zugriff haben, deshalb montags immer ein fullbackup und den rest der woche inkrementell absichern (geänderte / neu hinzugekommenen daten). die daten sollen nach möglichkeit in zip archive mit pw-verschlüsselung geschrieben werden.

soweit, so gut - das kann (fast) jede backup-software. das problem ist, das nach ein paar wochen die platte des backup-servers voll ist. damit das ganze ohne benutzer eingriff laufen kann, muss die software eine art rotation / limitierung der archive haben, sprich das
nach der 3ten oder 4ten woche werden die ältesten archive automatisch gelöscht werden. lt. forumssuche kann man das mit veritas backup exec machen, jedoch übersteigt diese variante das budget. ev. kann man das sogar mit einer dos-batch-datei lösen.

kennt jemand eine geeignete und preiswerte software?

Content-ID: 34636

Url: https://administrator.de/contentid/34636

Ausgedruckt am: 22.11.2024 um 03:11 Uhr

sysad
sysad 17.07.2006 um 13:17:49 Uhr
Goto Top
Acronis True Image kann das:

Du musst für jede Generation einen eigenen Task erstellen a la 'Jeden 2. Dienstag im Monat einen Vollbackup' und dann 'Jeden 2. Tag diff oder ink' dazu, beides auf das gleiche Archiv bezogen. Der Vollbackup überschreibt sich alle 4 Wochen. Dann 'Jeden 3. Dienstag...etc' auf eine andere Archivdatei. Damit kannst Du so viele 'selbstlöschende' Archive haben wie Du Platz hast.

Könnte auch mit NTBackup gehen, wenn man nicht 'sichern' sondern 'kopieren' wählt, um die Änderung des Archivbits zu verhindern. Habs aber mit NTB nicht probiert. Aber wenn Du billig suchst, ist NTB das beste......
Supaman
Supaman 17.07.2006 um 13:29:52 Uhr
Goto Top
eine etwas subopimale lösung, da man beim restore erst gucken muss, welcher der 4-6 backup jobs denn nun das aktuellste backup beinhaltet. für mich kein problem, bei den weniger versierten benutzern könnte es da probleme geben.
sysad
sysad 17.07.2006 um 14:03:39 Uhr
Goto Top
eine etwas subopimale lösung, da man
beim restore erst gucken muss, welcher der
4-6 backup jobs denn nun das aktuellste
backup beinhaltet.

Nein, das legst Du doch schon beim Erstellen des Tasks einmal fest, dann läuft es immer automatisch zeitgesteuert!
Supaman
Supaman 17.07.2006 um 14:23:57 Uhr
Goto Top
ich hab dich so verstanden:
backup-job-1: jeden 1.montag im monat full, danach inkrementell, in ordner backup1
backup-job-2: jeden 2.montag im monat full, danach inkrementell, in ordner backup2
backup-job-3: jeden 3.montag im monat full, danach inkrementell, in ordner backup3
backup-job-4: jeden 4.montag im monat full, danach inkrementell, in ordner backup4

daraus folgt aber auch, das wenn es z.b. der 22. eines monats ist und man will die sicherung vom vortag haben, kann es sowohl in backup3 oder auch backup4 sein, je nach dem wie die wochen fallen.

mir wäre eine sicherung lieber, die entweder fortlaufend nummeriert ist oder das datum im ordnernamen beinhaltet. datum im ordnernamen scheidet nach dem o.g. verfahren aus.
herkules
herkules 17.07.2006 um 15:40:21 Uhr
Goto Top
Was natürlich eine schöne Methode wäre wenn man das mit CA Brightstore ArcServe durchführen wüde. Da kann man dann komplette Rotationspläne auf GFS-Basis erstellen wenn man das möchte.
Supaman
Supaman 17.07.2006 um 15:43:28 Uhr
Goto Top
ich vermute mal das arcserve ähnlich wie veritas backup exec = $$$$ bedeutet... face-sad
SarekHL
SarekHL 21.07.2006 um 23:27:58 Uhr
Goto Top
eine etwas subopimale lösung, da man beim restore erst gucken muss, welcher der 4-6 backup jobs denn nun das aktuellste backup beinhaltet.
für mich kein problem, bei den weniger versierten benutzern könnte es da probleme geben.

Ihr laßt Benutzer ein Restore durchführen??
Supaman
Supaman 22.07.2006 um 08:36:45 Uhr
Goto Top
Ihr laßt Benutzer ein Restore
durchführen??

ja sicher. das ist für eine kleine firma, die sich keinen hauseigenen admin leisten kann. wenns dann klemmt, muss der chef selber in der lage sein, die daten wiederherzustellen. der anwendungszweck (von 2 servern je 2 verzeichnisse samt unterordner in zip datein packen mit automatischer rotation) ist *eigentlich* nicht soo kompliziert als das etwas dagegen sprechen würden, das der "benutzer" im bedarfsfall den restore zumeist einzelner dateien selber macht.
SarekHL
SarekHL 22.07.2006 um 09:04:41 Uhr
Goto Top
ja sicher. das ist für eine kleine
firma, die sich keinen hauseigenen admin
leisten kann. wenns dann klemmt, muss der
chef selber in der lage sein, die daten
wiederherzustellen. der anwendungszweck (von
2 servern je 2 verzeichnisse samt unterordner
in zip datein packen mit automatischer
rotation) ist *eigentlich* nicht soo
kompliziert als das etwas dagegen sprechen
würden, das der "benutzer" im
bedarfsfall den restore zumeist einzelner
dateien selber macht.

Dann such mal nach "Cobian Backup" und guck, ob Dir das was bringt. Der kann halt zippen und man kann ihm sagen, wieviele Archive er behalten soll. Dann mußt Du Deinem Chef nur noch zeigen, wie er mit dem "Entzip-Tool" umgeht, denn mit normalem WinZIP lassen sich die Archive glaube ich nicht öffnen.
Supaman
Supaman 22.07.2006 um 09:51:08 Uhr
Goto Top
vielen dank für den tip, werde ich mal installieren und dann berichten. eine frage hätte ich noch zu den zip dateien: es gibt einen pfad, der mit unterordnern so ca 130 GB an daten hat.

kann man eine solche datenmenge ohne probleme an einem stück zippen oder sollte man das archiv z.b. in 10gb stücke aufsplitten?
SarekHL
SarekHL 22.07.2006 um 10:06:53 Uhr
Goto Top
kann man eine solche datenmenge ohne
probleme an einem stück zippen oder
sollte man das archiv z.b. in 10gb
stücke aufsplitten?

Keine Ahnung ... mit solchen Datenmengen hatte ich noch nie zu tun - und selbst bei 50 GB verwende ich kein ZIP mehr, nicht mal mehr RAR, sondern da nehme ich ein "richtiges" Backupprogramm ;)

Das einzige, was mir einfällt, ist das Dateisystem - Du mußt natürlich NTFS nehmen, um Dateien > 2 GB zu speichern ...