Einsatz externer Festplatten mit Veritas Backup Exec 10d
Hat jemand Erfahrungen mit dem Einsatz von externen Plattensystemen in Bezug auf die Nutzung in Symantec/Veritas Backup Exec 10d. Externe USB/S-ATA oder Maxtor OneTouch mit NIC?
Hallo,
wir haben 5 Windows Server 2003 im Einsatz und ca. 20 GB Exchangedaten, 70 GB File und 10 GB SQL Daten.
Ich suche eine Möglichkeit die in Backup Exec enthaltene Backup2Disk Variante sinnvoll zu nutzen. Mein Chef hat bei Maxtor eine externe Festplatte gesehen, welche es ermöglicht über die integrierte NIC direkt per LAN auf diese Zuzugreifen.
Bisher setzen wir ein klassisches Tape ein, welches jedoch an seine Grenzen angelangt ist.
Meine Bedenken liegen nun an folgenden Stellen:
1. Wird die Festplatte als Netzshare oder Laufwerk eingerichtet?
2. Ist die Performance überhaupt ausreichend für 15GB zu sichern(LAN hat 100GB / MAXTOR Festplatte hat 1GB NIC)
3. Was passiert, wenn ich zwei Platten rotieren möchte (Tausch, zwecks Auslagerung ausser Haus)
Hat hier jemand Erfahrungen bzw. diese Konstellation im Einsatz?
Es würde mich auch interessieren, welche "Plattenkonzepte" hier bevorzugt sind, sprich ob jemand USB-Festplatten am Server anschliesst oder es schon einmal mit externen S-ATA Platten probiert hat.
Wäre für jede Rückmeldung sehr dankbar.
Mfg
Björn Reichard
Hallo,
wir haben 5 Windows Server 2003 im Einsatz und ca. 20 GB Exchangedaten, 70 GB File und 10 GB SQL Daten.
Ich suche eine Möglichkeit die in Backup Exec enthaltene Backup2Disk Variante sinnvoll zu nutzen. Mein Chef hat bei Maxtor eine externe Festplatte gesehen, welche es ermöglicht über die integrierte NIC direkt per LAN auf diese Zuzugreifen.
Bisher setzen wir ein klassisches Tape ein, welches jedoch an seine Grenzen angelangt ist.
Meine Bedenken liegen nun an folgenden Stellen:
1. Wird die Festplatte als Netzshare oder Laufwerk eingerichtet?
2. Ist die Performance überhaupt ausreichend für 15GB zu sichern(LAN hat 100GB / MAXTOR Festplatte hat 1GB NIC)
3. Was passiert, wenn ich zwei Platten rotieren möchte (Tausch, zwecks Auslagerung ausser Haus)
Hat hier jemand Erfahrungen bzw. diese Konstellation im Einsatz?
Es würde mich auch interessieren, welche "Plattenkonzepte" hier bevorzugt sind, sprich ob jemand USB-Festplatten am Server anschliesst oder es schon einmal mit externen S-ATA Platten probiert hat.
Wäre für jede Rückmeldung sehr dankbar.
Mfg
Björn Reichard
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 29739
Url: https://administrator.de/contentid/29739
Ausgedruckt am: 22.11.2024 um 20:11 Uhr
11 Kommentare
Neuester Kommentar
Hallöle,
habe genau das realisiert! Ich habe externe USB-Platten und tausche diese täglich. In Windows habe ich der jeweils angeschlossenen Platte den Laufwerksbuchstaben E:\ zugeordnet. BackupExec sichert also immer auf E:\. Funktioniert wunderbar.
Im Vergleich zu einem DLT-Laufwerk ist der Spaß erheblich schneller. Bei mir hat sich die Dauer der Sicherung auf ca. 30 % reduziert. Die Geschwindigkeit hängt stark von der Netzwerk-Karte der anderen Server und deren Rechenleistung ab. Das variiert zwischen 5 GB und 40 GB in der Stunde inklusive Überprüfung. Außerdem spielt es noch eine Rolle, was du sicherst. Ich benutze auch die Agents (Exchange, Oracle, SQL).
Der Exchange braucht trotz besserer Hardware ca. doppelt so lange, wie der Oracle oder der SQL.
Ich glaube nicht, dass die Anbindung der Platte über LAN viel bringt, weil i.d.R. mit USB 2.0 der Datendurchsatz höher ist, als der der Platte.
Zur Zeit sichere ich nachts über 100 GB von 7 Servern und habe noch Luft in meinem Zeitfenster. Allerdings habe ich noch 3 alte Kisten dabei (Pentium 3, 100 Mbit), die zwar nur ca. 20 % der Datenmenge verursachen, aber 50 % der Zeit ausmachen. Ich mache jeden Tag ein Fullbackup.
Ich glaube, das war's, was mir dazu einfällt!
Ciao
Niko
habe genau das realisiert! Ich habe externe USB-Platten und tausche diese täglich. In Windows habe ich der jeweils angeschlossenen Platte den Laufwerksbuchstaben E:\ zugeordnet. BackupExec sichert also immer auf E:\. Funktioniert wunderbar.
Im Vergleich zu einem DLT-Laufwerk ist der Spaß erheblich schneller. Bei mir hat sich die Dauer der Sicherung auf ca. 30 % reduziert. Die Geschwindigkeit hängt stark von der Netzwerk-Karte der anderen Server und deren Rechenleistung ab. Das variiert zwischen 5 GB und 40 GB in der Stunde inklusive Überprüfung. Außerdem spielt es noch eine Rolle, was du sicherst. Ich benutze auch die Agents (Exchange, Oracle, SQL).
Der Exchange braucht trotz besserer Hardware ca. doppelt so lange, wie der Oracle oder der SQL.
Ich glaube nicht, dass die Anbindung der Platte über LAN viel bringt, weil i.d.R. mit USB 2.0 der Datendurchsatz höher ist, als der der Platte.
Zur Zeit sichere ich nachts über 100 GB von 7 Servern und habe noch Luft in meinem Zeitfenster. Allerdings habe ich noch 3 alte Kisten dabei (Pentium 3, 100 Mbit), die zwar nur ca. 20 % der Datenmenge verursachen, aber 50 % der Zeit ausmachen. Ich mache jeden Tag ein Fullbackup.
Ich glaube, das war's, was mir dazu einfällt!
Ciao
Niko
Genau so läuft's. Es ist immer nur eine Platte anschlossen. Ich stecke also täglich nur Netzteil und USB-Kabel um. BE ist damit glücklich! Es erkennt jede Platte als eigenständiges Medium und ordnet das angeschlossene automatisch als online zu und setzt die nicht angeschlossenen Platten offline.
Ich sehe keinen Grund, warum das mit S-ATA nicht genauso funktionieren sollte, war damals nur teurer, deshalb hab ich's nicht gemacht.
Ich sehe keinen Grund, warum das mit S-ATA nicht genauso funktionieren sollte, war damals nur teurer, deshalb hab ich's nicht gemacht.
Mit sata sieht es noch schlecht aus, da die HDDS bei fast allen Controllern nur als interne HDD erkannt werden. Nur bei Nforce Mainboards und Nvidia Treibern kann man die Festplatten ohne heruntergefahrenen Rechner wechseln (leider). Bin selber auf der Suche nach einem zusätzlichen Satacontroller, der dies wie der Nforce kann. USB ist auch nicht soviel langsamer, wenn direkt am Server angeschlossen. Die 2. Alternative sind Schaltuhren, damit die HDDs automatisch ein und ausgeschaltet werden. Die billigen NAS Gehäuse taugen nichts, nur 3Mb/s und nur Fat32
mfg
tzippi
mfg
tzippi
Hallo, und dein Server bekommt da nie Probleme, wenn du oft die Festplatte aus und ein steckst?
Hallo, also USB am Server dauern ein und aus zu stecken ist mir doch ein wenig zu heiß. Ich bin auf der Suche nach einer Festplatte mit Netzwerkanschluss welche einen Gigaspeed Anschluss hat. Hat jemand so eine und kann darüber seine Erfahrungen berichten?
Hi.
Mal ein anderer Vorschlag von mir. Von der Sicherung auf USB-Platten halt ich eher wenig.
Wenn es ums Zeitfenster geht, dass zu eng ist, würde ich folgende Lösung bevorzugen.
1 externes RAID-5 SCSI-Plattensystem für einen Backup-to-Disk Job.
Anschließendes kopieren dieser Sicherung auf DLT, LTO oder ähnliches. Dies kann jeder Zeit ausserhalb des Sicherungsfensters geschehen.
So hat man die Vorteile beider Welten. Hohe Sicherungs-Geschwindigkeit der Festplatten, lange Archivierbarkeit der Magnetbänder.
Klar. Sowas ist natürlich etwas teurer als ne USB-Läsung ohne Bänder. Allerdings bezweifle ich dass eine Festplatte nach 30 Jahren im Schrank noch so läuft dass man die Daten wieder her kriegen könnte. Die Archivierungsvorschriften sollte man eben immer mit im Auge halten.
Auch mit ein Grund dass ich lieber eine "Overkill"-Lösung wähle ist der, dass ich was Datenverlust angeht, schon ein paar Kundenfirmen sterben gesehen habe weil die Chefs zu geizig waren und sich auf billige Lösungen verlassen haben.
Ist aber natürlich jedem selber überlassen.
Mal ein anderer Vorschlag von mir. Von der Sicherung auf USB-Platten halt ich eher wenig.
Wenn es ums Zeitfenster geht, dass zu eng ist, würde ich folgende Lösung bevorzugen.
1 externes RAID-5 SCSI-Plattensystem für einen Backup-to-Disk Job.
Anschließendes kopieren dieser Sicherung auf DLT, LTO oder ähnliches. Dies kann jeder Zeit ausserhalb des Sicherungsfensters geschehen.
So hat man die Vorteile beider Welten. Hohe Sicherungs-Geschwindigkeit der Festplatten, lange Archivierbarkeit der Magnetbänder.
Klar. Sowas ist natürlich etwas teurer als ne USB-Läsung ohne Bänder. Allerdings bezweifle ich dass eine Festplatte nach 30 Jahren im Schrank noch so läuft dass man die Daten wieder her kriegen könnte. Die Archivierungsvorschriften sollte man eben immer mit im Auge halten.
Auch mit ein Grund dass ich lieber eine "Overkill"-Lösung wähle ist der, dass ich was Datenverlust angeht, schon ein paar Kundenfirmen sterben gesehen habe weil die Chefs zu geizig waren und sich auf billige Lösungen verlassen haben.
Ist aber natürlich jedem selber überlassen.
sei noch angemerkt, das Veritas Backup nicht auf ein Netzwerklaufwerk sprich einen Share oder ähnliches sichern kann. Bei USB Festplatten geht es bei Nic HDs hats bei mir nicht funktioniert...
Klar ist ein externes SCRSI-RAID und ein LTO-Laufwerk dahinter eine technisch sehr gute Lösung zum Thema Datensicherung. Im Idealfall also ein NAS oder SAN.
Nur: In den Raum zu stellen, das sei nur "etwas" teurer ist ein schlechter Scherz! Ich lege ein vielfaches an Kohle auf den Tisch und habe dann noch nicht ein einziges Band.
Außerdem sehe ich eine Datensicherung als Lösung für den Notfall, also wenn's knallt. Ich lege keine USB-Platte und auch kein Magnetband meiner Datensicherung 30 Jahre in einen Tresor, sondern habe die im täglichen Wechsel im Einsatz. Raucht mir da eine Platte ab, dann merke ich das sofort. Bei einem Band bemerkt man genau das i.d.R. nicht (ich habe schon häufig erlebt, dass die Sicherungssoftware sagt: OK, aber auf dem Band dann doch nichts Brauchbares mehr drauf war, und das auch bei Bändern, die kein halbes Jahr alt waren) und nach einem halben Jahr sollte man die Bänder sowieso tauschen (und schon wieder zahle ich).
Die angesprochene Archivierung ist ebenso wichtig, wie die Datensicherung, ist aber m.E. ein anderes Thema, da hier nicht die Wiederherstellung von defekten oder verschwundenen Daten eine Rolle spielt, sondern die sichere, schnell wieder auffindbare Auslagerung und Aufbewahrung von im laufenden Betrieb nicht mehr benötigter Daten.
Auf die Datensicherung brauchen nur die IT-Verantwortlichen Zugriff, auf die Archivierung muss aber der Sachbearbeiter z.B. aus der Buchhaltung Zugriff haben. Sichern muss ich ganze Serversysteme, archivieren nur die entspechenden Fachdaten, so dass auch in der Art der Daten ein Unterschied besteht.
Nur: In den Raum zu stellen, das sei nur "etwas" teurer ist ein schlechter Scherz! Ich lege ein vielfaches an Kohle auf den Tisch und habe dann noch nicht ein einziges Band.
Außerdem sehe ich eine Datensicherung als Lösung für den Notfall, also wenn's knallt. Ich lege keine USB-Platte und auch kein Magnetband meiner Datensicherung 30 Jahre in einen Tresor, sondern habe die im täglichen Wechsel im Einsatz. Raucht mir da eine Platte ab, dann merke ich das sofort. Bei einem Band bemerkt man genau das i.d.R. nicht (ich habe schon häufig erlebt, dass die Sicherungssoftware sagt: OK, aber auf dem Band dann doch nichts Brauchbares mehr drauf war, und das auch bei Bändern, die kein halbes Jahr alt waren) und nach einem halben Jahr sollte man die Bänder sowieso tauschen (und schon wieder zahle ich).
Die angesprochene Archivierung ist ebenso wichtig, wie die Datensicherung, ist aber m.E. ein anderes Thema, da hier nicht die Wiederherstellung von defekten oder verschwundenen Daten eine Rolle spielt, sondern die sichere, schnell wieder auffindbare Auslagerung und Aufbewahrung von im laufenden Betrieb nicht mehr benötigter Daten.
Auf die Datensicherung brauchen nur die IT-Verantwortlichen Zugriff, auf die Archivierung muss aber der Sachbearbeiter z.B. aus der Buchhaltung Zugriff haben. Sichern muss ich ganze Serversysteme, archivieren nur die entspechenden Fachdaten, so dass auch in der Art der Daten ein Unterschied besteht.