Backup-Strategie bei mehreren Server(w2k8R2) mit einem Volumen von ca. 2TB
Hallo Leute,
ich hätte mal wieder eine Fragestellung an Euch:
Bei einem Kunden haben wir mehrere Windows Server 2008R2x64 stehen. Unter anderem ist da auch ein dedizierter Backup-Server vorhanden.
Mein "Sorgenkind" ist ein Server, der die gesammten CAD-Daten(Es laufen da keine Datenbanken) bevoratet - was ca. 1TB des Gesammtvolumens bzgl. Datensicherung ausmacht.
Ich erwähne absichtlich die aktuell eingesetzte Sicherungsstrategie nicht, um Euch nicht in irgendeiner Art zu beeinflussen.
Nur so viel: Es wird aktuell mit BackupExec 2010R3 gearbeitet.
Mein Problem:
Bei der aktuellen Sicherungsstrategie kommen wir so langsam an die Grenze des verfügbaren Zeitfensters.
Meine Frage:
Wie ich am besten die insgesammt ca. 2TB Sicherungsvolumen von ca. 5 verschiedenen Servern aufs Band(LTO) bekomme.
Zusätzliche Herausforderung: Ich würde gerne jeden Tag eine Vollsicherung durchführen.
Die Server sind zum Teil virtualisiert.
Die Server sind alle miteinander über Gigabit-Ethernet(Jeweils eine Netzwerkkarte mit einem Port/Kabel, Kupfer, 1GBit/s, Kein Port-Trunking) angeschlossen.
Wie habt ihr solche mittelständischen Unternehmen bzgl. der Datensicherung versorgt?
Bin erstmal für alle Lösungsvorschläge offen.
ich hätte mal wieder eine Fragestellung an Euch:
Bei einem Kunden haben wir mehrere Windows Server 2008R2x64 stehen. Unter anderem ist da auch ein dedizierter Backup-Server vorhanden.
Mein "Sorgenkind" ist ein Server, der die gesammten CAD-Daten(Es laufen da keine Datenbanken) bevoratet - was ca. 1TB des Gesammtvolumens bzgl. Datensicherung ausmacht.
Ich erwähne absichtlich die aktuell eingesetzte Sicherungsstrategie nicht, um Euch nicht in irgendeiner Art zu beeinflussen.
Nur so viel: Es wird aktuell mit BackupExec 2010R3 gearbeitet.
Mein Problem:
Bei der aktuellen Sicherungsstrategie kommen wir so langsam an die Grenze des verfügbaren Zeitfensters.
Meine Frage:
Wie ich am besten die insgesammt ca. 2TB Sicherungsvolumen von ca. 5 verschiedenen Servern aufs Band(LTO) bekomme.
Zusätzliche Herausforderung: Ich würde gerne jeden Tag eine Vollsicherung durchführen.
Die Server sind zum Teil virtualisiert.
Die Server sind alle miteinander über Gigabit-Ethernet(Jeweils eine Netzwerkkarte mit einem Port/Kabel, Kupfer, 1GBit/s, Kein Port-Trunking) angeschlossen.
Wie habt ihr solche mittelständischen Unternehmen bzgl. der Datensicherung versorgt?
Bin erstmal für alle Lösungsvorschläge offen.
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 192158
Url: https://administrator.de/contentid/192158
Ausgedruckt am: 08.11.2024 um 15:11 Uhr
34 Kommentare
Neuester Kommentar
HI!
ist Port-Trunking keine Option oder nur nicht vorhanden? Chance auf eine eigenes Backupnetz?
wenn keine DB für die CAD-Daten - wieso immer eine Vollsicherung?
Symantec Backup Exec konnte schon in Version 11.d die Daten lokale am Backup-Client komprimieren - weniger Übertragungsvolumen.
wir spiegeln hier alles per Robocopy auf einen zentralen Backup Server - allerdings nur einmal im Monat eine Vollsicherung und nur 600GB.
Geplant ist das ganze per DFS mit einer zweiten Niederlassung zu synchronisieren - ob das klappt kann ich noch nicht sagen.
sg Dirm
ist Port-Trunking keine Option oder nur nicht vorhanden? Chance auf eine eigenes Backupnetz?
wenn keine DB für die CAD-Daten - wieso immer eine Vollsicherung?
Symantec Backup Exec konnte schon in Version 11.d die Daten lokale am Backup-Client komprimieren - weniger Übertragungsvolumen.
wir spiegeln hier alles per Robocopy auf einen zentralen Backup Server - allerdings nur einmal im Monat eine Vollsicherung und nur 600GB.
Geplant ist das ganze per DFS mit einer zweiten Niederlassung zu synchronisieren - ob das klappt kann ich noch nicht sagen.
sg Dirm
Hallo Doc Andy,
dann solltest Du vielleicht gleich über ein SAN nachdenken, um zukunftssicher zu investieren.
und von dort wird dann auf eine RDX oder Tape Library gesichert!
Die Tape Library Lösung erscheint einem erst sehr teuer, sie kann aber schnell aufgestockt und erweitert werden mit wachsendem Datenvolumen.
Bei der Tape Library ist das zurück spielen der Daten aber langfristiger und man kann auch nicht sequenziell auf die Daten zugreifen!
Die Anschaffungskosten sind immens, aber der Gegenwert ist es auch und die SAN Lösung kann auch schnell
erweitert werden.
Die Datenvorhaltung ist das eine, die Datensicherung das andere und der betriebliche Stillstand wieder etwas anderes.
Aber das ist alles nichts gegen die Kosten die auf Euch zukommen wenn ein Abgabetermin
oder eine Deadline nicht eingehalten werden, nämlich die Kosten der Vertragsstrafe oder dem Regress!!!!
Gruß
Dobby
dann solltest Du vielleicht gleich über ein SAN nachdenken, um zukunftssicher zu investieren.
und von dort wird dann auf eine RDX oder Tape Library gesichert!
Die Tape Library Lösung erscheint einem erst sehr teuer, sie kann aber schnell aufgestockt und erweitert werden mit wachsendem Datenvolumen.
Bei der Tape Library ist das zurück spielen der Daten aber langfristiger und man kann auch nicht sequenziell auf die Daten zugreifen!
Die Anschaffungskosten sind immens, aber der Gegenwert ist es auch und die SAN Lösung kann auch schnell
erweitert werden.
Die Datenvorhaltung ist das eine, die Datensicherung das andere und der betriebliche Stillstand wieder etwas anderes.
Aber das ist alles nichts gegen die Kosten die auf Euch zukommen wenn ein Abgabetermin
oder eine Deadline nicht eingehalten werden, nämlich die Kosten der Vertragsstrafe oder dem Regress!!!!
Gruß
Dobby
HI!
Backup-Netz: du kannst bei BE eine bestimmte Schnittstelle wählen. Einmal eine Standard in den Optionen und dann bei jedem Auftrag. ist auch möglich jede IPv4 zu zulassen. bei BE 11.d in den Vorlage unter "Netzwerk und Sicherheit"
Vollsicherung: kannst du die Daten nicht am Backup Server "liegen" lassen? dann mit Robocopy die CAD-Daten spiegeln und dann gemütlich aufs Band sichern. Oder bekommt dein Band die Daten nicht mehr weg?
Komprimieren am Backup-Client: das hatte ich nur im Ohr - wir wollten mal einen Agent für jeden Server, aber kein Budget... vll ist das auch falsch, oder er machts automatisch.
sg Dirm
Backup-Netz: du kannst bei BE eine bestimmte Schnittstelle wählen. Einmal eine Standard in den Optionen und dann bei jedem Auftrag. ist auch möglich jede IPv4 zu zulassen. bei BE 11.d in den Vorlage unter "Netzwerk und Sicherheit"
Vollsicherung: kannst du die Daten nicht am Backup Server "liegen" lassen? dann mit Robocopy die CAD-Daten spiegeln und dann gemütlich aufs Band sichern. Oder bekommt dein Band die Daten nicht mehr weg?
Komprimieren am Backup-Client: das hatte ich nur im Ohr - wir wollten mal einen Agent für jeden Server, aber kein Budget... vll ist das auch falsch, oder er machts automatisch.
sg Dirm
Hallo,
alles in gesonderte VLAN´s "packen" dort können die Server oder Backlösungen sogar Mitglieder mehrerer
VLAN´s sein!!!!!
und die andere ist dem "Backup LAN" zugeordnet! Lässt sich aber auch mit VLAN´s auf einem Switch erledigen!!!!!
oder in einem anderen Brandabschnitt gelagert werden.
Stunden!!!!!
1.
2.
Nein Du hast da jetzt keinen gedanklichen Knoten, aber ich gleich, ja was denn jetzt:
DB sichern oder keine DB sichern?
Gruß
Dobby
Port Trunkting wäre generell möglich - ich hab da nur ein wenig Bedenken, wie meine Server
Windows Server 2008R2 x64, Zwei Intel Gigabit NIC onBoard auf eine getrunkte Verbindung reagieren?!
Windows Server 2008R2 x64, Zwei Intel Gigabit NIC onBoard auf eine getrunkte Verbindung reagieren?!
Da durfte ich bis dato noch keine Erfahrungen sammeln.
Vielleicht einen Test machen?Port Trunking hab ich bis jetzt nur von Switch zu Switch eingesetzt - jedoch noch nie direkt an einem > Server.
LAG geht doch auch! (Link Aggregation Group) 2 neue SFP+ Netzwerkkarten mit 10 GB Durchsatz und dann an den Layer 3 Switch ran und gut ist. Jumboframes aktivieren auf dem Server, dem Switch und den Klienten und einmal austesten das ganze.Backup-Netz ist auch so ein Thema:
Meist nur wenn der Chef die Summe sieht.Wenn ich meinen Servern ein eigene Backup-Netz einrichte, ist das doch parallel zum eigentlichen
Produktivnetz.
Ja so geht es auch, dann kann man in Ruhe weiter arbeiten und die Sicherung läuft parallel dazu oderProduktivnetz.
alles in gesonderte VLAN´s "packen" dort können die Server oder Backlösungen sogar Mitglieder mehrerer
VLAN´s sein!!!!!
Wie bringe ich dann Backup Exec bei, das es zur Sicherung "nur" Netzwerkkarte 2 verwenden soll?!
Da hab ich glaub noch nen Knoten im Oberstübchen
Nicht wirklich, warum auch, Du kannst die eine Netzwerkkarte für das normale "Produktiv LAN" nehmenDa hab ich glaub noch nen Knoten im Oberstübchen
und die andere ist dem "Backup LAN" zugeordnet! Lässt sich aber auch mit VLAN´s auf einem Switch erledigen!!!!!
Vollsicherung aus dem Grund, da ich der inkrementellen Sicherung - genauer gesagt den Medien -
nicht wirklich Traue.
Wenn es einmal bei Euch brennt ist das eh alles "wummpe" das Feuer fragt vorher nicht nach was es verbrennen darf! Da ist es besser zu sichern und möglichst auf viele Medien die außerhalbnicht wirklich Traue.
oder in einem anderen Brandabschnitt gelagert werden.
Wenn mir bei einer Vollsicherung ein Band kaputt geht - habe ich "nur" einen Tag, der nicht
wiederhergestellt werden kann.
Und das kann man mit Schattenkopien und einem potenten SAN auch mehrmals am Tag machen, dann fehlen nurwiederhergestellt werden kann.
Stunden!!!!!
Wenn mir bei einer inkrementellen Sicherung ein Band kaputt geht - kann ich die ganze Woche vergessen!
Wenn ein Sicherungsmedium kaputt geht ist das immer schlecht. Aber es kommt auch sicherlich auf die gesamte Backup Strategie an und auf die Kosten die anfallen, wenn der Betrieb steht!!Ist das Komprimieren am Backup-Client eine zusätzlich zu aktivierende Option?! Wenn ja, wo finde > ich diese?!
Verwendet Dein LTO Gerät nicht schon eine "Komprimierung?1.
Mein "Sorgenkind" ist ein Server, der die gesammten CAD-Daten (Es laufen da keine Datenbanken) bevoratet - was ca. 1TB des Gesammtvolumens bzgl.
Datensicherung ausmacht.
Datensicherung ausmacht.
2.
Wenn ich mit Snapshots arbeite, hab ich ja keine aktiven Datenbanken(SQL-Server, Exchange-Datenbank,...) mehr.
Nein Du hast da jetzt keinen gedanklichen Knoten, aber ich gleich, ja was denn jetzt:
DB sichern oder keine DB sichern?
Gruß
Dobby
Hallo,
Denk doch mal über Backup2Disk auf ein Raidsystem in einem anderen Brandanschnitt nach. Platzmaesig sehr für erweiterbar, sehr schnell. Und deine Bedenken mit dem Defekten Band bei der Vollsicherung sollten dann auch etwas kleiner sein, ein Raid kann zwar auch ausfallen aber nicht so leicht.
Wobei z.b. Auch eine DataDepublizierungssicherung interessant sein kann.
Denk doch mal über Backup2Disk auf ein Raidsystem in einem anderen Brandanschnitt nach. Platzmaesig sehr für erweiterbar, sehr schnell. Und deine Bedenken mit dem Defekten Band bei der Vollsicherung sollten dann auch etwas kleiner sein, ein Raid kann zwar auch ausfallen aber nicht so leicht.
Wobei z.b. Auch eine DataDepublizierungssicherung interessant sein kann.
Hi!
bzgl der Komprimierung:
http://www.symantec.com/de/de/backup-exec/agents-options-add-ons
Frag einfach mal beim Support.
ja, das Subnet kannst du wählen. - schau mal bei deiner Version. kann mir aber nicht vorstellen, dass sie die Funktion rausgenommen haben...
haben selber kein eigenes Netz dafür - afaik darfst du den anderen NICs aber kein Standardgateway zuweisen *gg*
in der Hauptniederlassung haben sie ein kleines Glasfasernetz fürs Backup. Client-Anbindung läuft über Kupfer.
beim Teaming musst du bedenken, dass der Server die Daten auch liefern muss 1 Daten NIC + 2 Backup-NICs sind theoretisch >300MB/s
Glasfaser, 10GBit - ka was du für ein Budget hast.
sg Dirm
bzgl der Komprimierung:
http://www.symantec.com/de/de/backup-exec/agents-options-add-ons
Der Agent optimiert Datenübertragungen für standortferne 32-Bit und 64-Bit Windows-Server mithilfe einer speziellen Agent Accelerator-Technologie, die Komprimierung auf der Quellseite und verteilte Bearbeitung beim Client bereitstellt.
ja, das Subnet kannst du wählen. - schau mal bei deiner Version. kann mir aber nicht vorstellen, dass sie die Funktion rausgenommen haben...
haben selber kein eigenes Netz dafür - afaik darfst du den anderen NICs aber kein Standardgateway zuweisen *gg*
in der Hauptniederlassung haben sie ein kleines Glasfasernetz fürs Backup. Client-Anbindung läuft über Kupfer.
beim Teaming musst du bedenken, dass der Server die Daten auch liefern muss 1 Daten NIC + 2 Backup-NICs sind theoretisch >300MB/s
Glasfaser, 10GBit - ka was du für ein Budget hast.
sg Dirm
Hallo,
Nein, habe ich nicht in Bezug auf die SFP+ Uplinks, nur auf SFP Uplinks.
Aber das LAG ist eine Leitungsbündelung und verschafft Dir/Euch einfach eine höhere Last zu managen!
Ist auch eher auf die zusätzlichen 10 GB Daten pro Woche zu geschnitten!!!
Das Jahr hat 52 Wochen und das wären doch dann 520 GB Zuwachs pro Jahr und das muss alles über Euer LAN
"gewuppt" und gesichert werden!
Gruß
Dobby
Hast Du da Erfahrungen bzgl. Fehleranfälligkeit?!
Hast Du mal die Anzahl der Switche die dafür in Frage kommen?Nein, habe ich nicht in Bezug auf die SFP+ Uplinks, nur auf SFP Uplinks.
Aber das LAG ist eine Leitungsbündelung und verschafft Dir/Euch einfach eine höhere Last zu managen!
Ist auch eher auf die zusätzlichen 10 GB Daten pro Woche zu geschnitten!!!
Das Jahr hat 52 Wochen und das wären doch dann 520 GB Zuwachs pro Jahr und das muss alles über Euer LAN
"gewuppt" und gesichert werden!
Gruß
Dobby
Zitat von @DocAndy:
Wär in meinem Fall kein Problem, da die "normalen" Daten der restlichen Server über das Produktiv-Netz
gesichert werden können.
Wär in meinem Fall kein Problem, da die "normalen" Daten der restlichen Server über das Produktiv-Netz
gesichert werden können.
wie meinst das? - hab gemeint, der Server muss auch die Ressourcen haben 3 Gbit ins Netzwerk zu schaufeln.
sg Dirm
Moin,
wir haben damals ähnliches Problem gehabt. Inzwischen haben wir "nur" für CAD eine Netapp 2040 da stehen mit 20TB Speicherplatz. Schön dabei ist , dass ein Snapshot innerhalb von 1 Minute angelegt ist. Über Snapmirror spiegeln wir den ganzen Datenbestand über 2x10GBit (MPIO) auf unsere Backup-Netapp. Dort laufen auch die anderen primären Netapps auf.
D.h. sollte die CAD-Netapp ausfallen können wir innerhalb von 10 Minuten auf die Backupsite wechseln. Oder wenn genug Zeit einen resync machen. Dauert bei 2TB nicht länger als 45 Minuten - somit auch Ausfallzeit. LTO kommt einfach nicht mehr hinterher.
Schön an der Lösung ist eben, einfach ein Shelf dazu hängen und gut ist. Keinerlei Daten umziehen o.ä.
Grüße,
Dani
wir haben damals ähnliches Problem gehabt. Inzwischen haben wir "nur" für CAD eine Netapp 2040 da stehen mit 20TB Speicherplatz. Schön dabei ist , dass ein Snapshot innerhalb von 1 Minute angelegt ist. Über Snapmirror spiegeln wir den ganzen Datenbestand über 2x10GBit (MPIO) auf unsere Backup-Netapp. Dort laufen auch die anderen primären Netapps auf.
D.h. sollte die CAD-Netapp ausfallen können wir innerhalb von 10 Minuten auf die Backupsite wechseln. Oder wenn genug Zeit einen resync machen. Dauert bei 2TB nicht länger als 45 Minuten - somit auch Ausfallzeit. LTO kommt einfach nicht mehr hinterher.
Schön an der Lösung ist eben, einfach ein Shelf dazu hängen und gut ist. Keinerlei Daten umziehen o.ä.
Grüße,
Dani
Moin,
Grüße,
Dani
Rein Interessehalber - Wie macht ihr bei Eurer vorgehensweise einen Restore von einzelnen Daten, die mit dem Stand von z.B. vor 5 Tage wiederhergestellt werden müssen?
Wir bzw. die Kollegen können einfach in den Ordner Snapshots wechseln und dort die gewünschtene Dateien selber herauskopieren. Der Ordner selber ist Read-Only kann also nichts passieren.Ich befürchte allerdings, dass diese Vorgehensweise das Budget meines Kunden komplett sprengen würde
KA, einfach mal n Angebot machen. Wie sichert ihr unterschiedliche Datenbanken(Exchange, SQL-Server, Informix-Datenbanken, ...)?
Gibts einzelne Agenten/Lizenzen von Netapp. Wird auch per Snapshot gesichert und wiedergestellt. Zusätzlich machen wir aber noch bei wirkliche wichtigen Sachen eine sicherung über Microsoft SQL Manager.Grüße,
Dani
Zitat von @DocAndy:
Rein Interessehalber - Wie macht ihr bei Eurer vorgehensweise einen Restore von einzelnen Daten, die mit dem Stand von z.B. vor 5
Tage wiederhergestellt werden müssen?
Hier schon mal an ein PDM System gedacht bei CAD Daten?Rein Interessehalber - Wie macht ihr bei Eurer vorgehensweise einen Restore von einzelnen Daten, die mit dem Stand von z.B. vor 5
Tage wiederhergestellt werden müssen?
VSS ist für sowas eigentlich auch ein guter "erster" Ansatzpunkt.
Finde ich schade, daß Ihr den Weg über dediziertes Backup-Netz via Crossover nicht mehr weiter verfolgt habt.
Leider kenne Ich Deine Hardware bzgl. CAD-Server und Backup-Server nicht.
Da aber bei Dir beide übereinander liegen...
Ich habe in einem ähnlichen Fall einfach Glasfaser genommen, weil ja im selben Rack.
Gut, die Hardware war jetzt doch etwas teurer als normale Nic's, jedoch für den meinigen Fall günstiger als ein dediziertes Backup-Netz mit allem Pipapo.
Glasfaser hat ein paar Haken, aber wenn Du:
a) eine Simplex-Faser mit zwei verschiedenen Wellenlängen benutzt oder
b) eine Duplexfaser im Simplex-Modus (jede Faser eine Richtung Rx und Tx benutzt
dann fluppt das.
Obacht nur, Du brauchst bei so kurzen Distanzen unbedingt ein Dämpfungsglied!
(und wenn Du von Glasfaser keine Ahnung hast, lass das lieber einen Fachmann umsetzen)
So, und dann hast Du zwischen den beiden Kisten viel Saft, aber Dein Raid-Controller muß die eintrudelnden Daten auch wegschaufeln können!
Lonesome Walker
Leider kenne Ich Deine Hardware bzgl. CAD-Server und Backup-Server nicht.
Da aber bei Dir beide übereinander liegen...
Ich habe in einem ähnlichen Fall einfach Glasfaser genommen, weil ja im selben Rack.
Gut, die Hardware war jetzt doch etwas teurer als normale Nic's, jedoch für den meinigen Fall günstiger als ein dediziertes Backup-Netz mit allem Pipapo.
Glasfaser hat ein paar Haken, aber wenn Du:
a) eine Simplex-Faser mit zwei verschiedenen Wellenlängen benutzt oder
b) eine Duplexfaser im Simplex-Modus (jede Faser eine Richtung Rx und Tx benutzt
dann fluppt das.
Obacht nur, Du brauchst bei so kurzen Distanzen unbedingt ein Dämpfungsglied!
(und wenn Du von Glasfaser keine Ahnung hast, lass das lieber einen Fachmann umsetzen)
So, und dann hast Du zwischen den beiden Kisten viel Saft, aber Dein Raid-Controller muß die eintrudelnden Daten auch wegschaufeln können!
Lonesome Walker
Hallo Doc Andy
Ich befasse mich nun seit einigen Jahren mit Backupszenarien und speziell mit BackupExec. Das Problem mit dem Zeitfenster für ein Backup kenne ich daher auch sehr gut. Da du mit BE2010R3 eine recht aktuelle Version einsetzt würde ich das Backup wie folt lösen:
Variante 1) B2D Jobs auf die Platten des Backupservers mit Clientseitiger Deduplizierung (ACHTUNG: Symantec empfiehlt hier für jeden Windows Server mit aktiver Clientdedup einen eigenen Job wobei je nach Leistung der Server auch mehrere Jobs gleichzeitig ablaufen können)dies spart einiges an Zeit und Platz. In einem extra Job kannst du dann die Daten auf dein LTO schreiben.
Variante 2) gleich wie Variante 1 aber ohne die Deduplication, hier hast du den Vorteil dass du in BE einstellen kannst dass die Gesicherten B2D Jobs sofort auf das LTO quasi kopiert werden, somit wird die Sicherung auf Band weniger Zeit in anspruch nehmen.
Backupexec und speziell Dedup haben aber sehr gerne möglichst viel RAM (gut 8GB und mehr). Wenn der Backupserver aber an seinen Grenzen ist und nicht weiter ausgebaut werden soll, bzw auch der Plattenplatz eng werden sollte wäre es eine gute Alternative ein B2D auf ein Preiswertes NAS (iSCSI anbindung) zu machen. Sehr gute erfahrungen habe ich mit den Storages von Thecus und QNAP wobei mir bei letzteren die Möglichkeit der Datenspiegelung auf eine weitere QNAP sehr gut gefällt.
Prinzipiell ist ein B2D sehr ratsam da die Wiederherstellungszeiten von Disk um einiges niedriger sind wie von Band.
Die Idee mit dem DFS auf den Backupserver ist auch gut, hier ist nur zu beachten dass DFS alle Änderung "sofort" repliziert, also keine alten Versionen aufbehält. Hier kannst du aber zur Unterstützung auf dem 2008er Server die Option der Vorgängerversionen gut verwenden und aktivieren. Wichtig auch noch, DFS so konfigurieren dass es nur in Richtung des Backupservers repliziert, funktionierte zwar beim 2003er nicht sauber aber seit 2008 geht dies auch wirklich schön.
Ich befasse mich nun seit einigen Jahren mit Backupszenarien und speziell mit BackupExec. Das Problem mit dem Zeitfenster für ein Backup kenne ich daher auch sehr gut. Da du mit BE2010R3 eine recht aktuelle Version einsetzt würde ich das Backup wie folt lösen:
Variante 1) B2D Jobs auf die Platten des Backupservers mit Clientseitiger Deduplizierung (ACHTUNG: Symantec empfiehlt hier für jeden Windows Server mit aktiver Clientdedup einen eigenen Job wobei je nach Leistung der Server auch mehrere Jobs gleichzeitig ablaufen können)dies spart einiges an Zeit und Platz. In einem extra Job kannst du dann die Daten auf dein LTO schreiben.
Variante 2) gleich wie Variante 1 aber ohne die Deduplication, hier hast du den Vorteil dass du in BE einstellen kannst dass die Gesicherten B2D Jobs sofort auf das LTO quasi kopiert werden, somit wird die Sicherung auf Band weniger Zeit in anspruch nehmen.
Backupexec und speziell Dedup haben aber sehr gerne möglichst viel RAM (gut 8GB und mehr). Wenn der Backupserver aber an seinen Grenzen ist und nicht weiter ausgebaut werden soll, bzw auch der Plattenplatz eng werden sollte wäre es eine gute Alternative ein B2D auf ein Preiswertes NAS (iSCSI anbindung) zu machen. Sehr gute erfahrungen habe ich mit den Storages von Thecus und QNAP wobei mir bei letzteren die Möglichkeit der Datenspiegelung auf eine weitere QNAP sehr gut gefällt.
Prinzipiell ist ein B2D sehr ratsam da die Wiederherstellungszeiten von Disk um einiges niedriger sind wie von Band.
Die Idee mit dem DFS auf den Backupserver ist auch gut, hier ist nur zu beachten dass DFS alle Änderung "sofort" repliziert, also keine alten Versionen aufbehält. Hier kannst du aber zur Unterstützung auf dem 2008er Server die Option der Vorgängerversionen gut verwenden und aktivieren. Wichtig auch noch, DFS so konfigurieren dass es nur in Richtung des Backupservers repliziert, funktionierte zwar beim 2003er nicht sauber aber seit 2008 geht dies auch wirklich schön.
Tag
Was ich machen würde (falls du das nicht schon so machst):
Während der Nacht die Daten von allen Servern auf den Backupserver spiegeln (mit einem Robocopy-Batch, Parameter /mir) und am Tag darauf die in der Nacht gespiegelten Daten auf die Tapes schreiben.
Mit dem Parameter /mir wird quasi eine Einweg-Synchronisation von allen anderen Servern auf den Backupservern gemacht. Ich gehe in dem Fall mal davon aus, dass pro Tag ca. 100 MB gelöscht und ca. 2 GB neue Daten hinzukommen. Der reine Spiegelvorgang von den verschiedenen Servern auf den Backupserver sollte so schon in einer Nacht zu schaffen sein. Ob dann der Tag ausreicht, um die ganzen Daten von Disk auf Tape zu schreiben, das steht auf einem anderen Blatt....
Was ich machen würde (falls du das nicht schon so machst):
Während der Nacht die Daten von allen Servern auf den Backupserver spiegeln (mit einem Robocopy-Batch, Parameter /mir) und am Tag darauf die in der Nacht gespiegelten Daten auf die Tapes schreiben.
Mit dem Parameter /mir wird quasi eine Einweg-Synchronisation von allen anderen Servern auf den Backupservern gemacht. Ich gehe in dem Fall mal davon aus, dass pro Tag ca. 100 MB gelöscht und ca. 2 GB neue Daten hinzukommen. Der reine Spiegelvorgang von den verschiedenen Servern auf den Backupserver sollte so schon in einer Nacht zu schaffen sein. Ob dann der Tag ausreicht, um die ganzen Daten von Disk auf Tape zu schreiben, das steht auf einem anderen Blatt....
Hallo Doc Andy
Die Idee von TuXHunt3R mit RoboCopy ist auch nicht schlecht, jedoch wage ich zu Bezweifeln dass die Sicherungszeit am Tag reicht wenn sie in der Nacht nicht reicht. Erfahrungsgemäß hat man über Nacht doch mehr Stunden verfügbar
Ausserdem wozu sich mit einem zusätzlichen Tool herumschlagen wenn man eine brauchbare Replikationstechnik bereits onboard hat?! Das DFS kannst du sehr fein einstellen. Beispielsweise dass du zwischen 0900 Uhr und 1700 Uhr nur mit einer niedrigen Bandbreite replizierst, ist aber im LAN bei 1GBit normalerweise nicht nötig da ja wirklich nach der Erstreplikation nur noch die Änderungen repliziert werden und dies mehr oder weniger sofort.
Bezüglich verlässlichkeit ist DFS beim 2008er ganz gut, wie gesagt Onewayreplikationen waren beim 2003R2 nicht brauchbar aber da hat MS gut nachgebessert. Du kannst dir auch ein kleines Reporting aktivieren dabei, wirklich umfassendes Monitoring gibts so aber nicht wirklich. Dafür wären dann Produkte wie MS SCOM 2007/2012 oder MS SCE 2010 geeignet.
Probier das DFS doch einfach mal aus auf deinen Servern. Du kannst ja Testweise ein Verzeichnis am CAD-Server anlegen und das in eine DFS mit dem Backupserver einbetten. Wenn du testweise einige grosse Files darin ablegst siehst du wie schnell repliziert wird bzw. wie sehr/ wenig das Netzwerk ausgelastet wird. Zum wegsichern vom Backupserver auf Tape hast du bei dem Szenario dann ja fast 24h zeit
Und ich würde dir Raten die Volume Shadow Copy zu aktivieren damit am CAD Server auch mehrere Versionen der Files verfügbar sind fals ein User eine Datei löscht oder einen Fehler speichert. Damit kann man sehr schnell auf eine Vorgängerversion zurückgehen.
Anbei noch drei nützliche Links:
DFS Step-by-Step Guide for Windows Server 2008
http://technet.microsoft.com/en-us/library/cc732863(v=ws.10).aspx
Create a Diagnostic Report for DFS Replication
http://technet.microsoft.com/en-us/library/cc754227.aspx
Create and Restore Shadow Copies on Windows Server 2008
http://technet.microsoft.com/en-us/magazine/dd637757.aspx
Grüße
Die Idee von TuXHunt3R mit RoboCopy ist auch nicht schlecht, jedoch wage ich zu Bezweifeln dass die Sicherungszeit am Tag reicht wenn sie in der Nacht nicht reicht. Erfahrungsgemäß hat man über Nacht doch mehr Stunden verfügbar
Ausserdem wozu sich mit einem zusätzlichen Tool herumschlagen wenn man eine brauchbare Replikationstechnik bereits onboard hat?! Das DFS kannst du sehr fein einstellen. Beispielsweise dass du zwischen 0900 Uhr und 1700 Uhr nur mit einer niedrigen Bandbreite replizierst, ist aber im LAN bei 1GBit normalerweise nicht nötig da ja wirklich nach der Erstreplikation nur noch die Änderungen repliziert werden und dies mehr oder weniger sofort.
Bezüglich verlässlichkeit ist DFS beim 2008er ganz gut, wie gesagt Onewayreplikationen waren beim 2003R2 nicht brauchbar aber da hat MS gut nachgebessert. Du kannst dir auch ein kleines Reporting aktivieren dabei, wirklich umfassendes Monitoring gibts so aber nicht wirklich. Dafür wären dann Produkte wie MS SCOM 2007/2012 oder MS SCE 2010 geeignet.
Probier das DFS doch einfach mal aus auf deinen Servern. Du kannst ja Testweise ein Verzeichnis am CAD-Server anlegen und das in eine DFS mit dem Backupserver einbetten. Wenn du testweise einige grosse Files darin ablegst siehst du wie schnell repliziert wird bzw. wie sehr/ wenig das Netzwerk ausgelastet wird. Zum wegsichern vom Backupserver auf Tape hast du bei dem Szenario dann ja fast 24h zeit
Und ich würde dir Raten die Volume Shadow Copy zu aktivieren damit am CAD Server auch mehrere Versionen der Files verfügbar sind fals ein User eine Datei löscht oder einen Fehler speichert. Damit kann man sehr schnell auf eine Vorgängerversion zurückgehen.
Anbei noch drei nützliche Links:
DFS Step-by-Step Guide for Windows Server 2008
http://technet.microsoft.com/en-us/library/cc732863(v=ws.10).aspx
Create a Diagnostic Report for DFS Replication
http://technet.microsoft.com/en-us/library/cc754227.aspx
Create and Restore Shadow Copies on Windows Server 2008
http://technet.microsoft.com/en-us/magazine/dd637757.aspx
Grüße
@ nasta-admin
Auch ein Ansatz, der aber getestet werden muss. Ich hatte bei einem Kunden mal Probleme mit DFS im Zusammenhang mit CAD-Daten. Konkret ging es dabei um SolidEdge 18. Der Zugriff auf die Dateien war langsam und teilweise stürzte SolidEdge auch ganz ab, obwohl eine 1 Gbit/s-Leitung direkt auf den Core-Switch ging, an dem auch der Server hing. Erst als ich DFS abgestellt habe, trat das Problem nicht mehr auf. Ich wäre also etwas vorsichtig und würde ein Fall-Back bereit halten.
Gruss
TuXHunT3R
Auch ein Ansatz, der aber getestet werden muss. Ich hatte bei einem Kunden mal Probleme mit DFS im Zusammenhang mit CAD-Daten. Konkret ging es dabei um SolidEdge 18. Der Zugriff auf die Dateien war langsam und teilweise stürzte SolidEdge auch ganz ab, obwohl eine 1 Gbit/s-Leitung direkt auf den Core-Switch ging, an dem auch der Server hing. Erst als ich DFS abgestellt habe, trat das Problem nicht mehr auf. Ich wäre also etwas vorsichtig und würde ein Fall-Back bereit halten.
Gruss
TuXHunT3R