Backup Exec 2010 - niedrige Auftragsrate - Ursache?
Hallo,
auf einem Windows Server 2008 ist Backup Exec 2010 installiert. Dies ist der Medienserver.
Ein anderer Win Server 2003 wird per RemoteBackup gesichert. Der Remoteagent ist auf dem Server installiert.
Die Server sind per GBIT LAN verbunden.
Es gibt ein Sicherungsauftrag für den Server (dateiserver 2008) und einen weiteren für den Mailserver. Der Mailserver-Sicherungsauftrag wird zuerst gesichert. Nach Ablauf dessen wird der Dateiserver gesichert.
Problem:
Der Auftrag 2 schlägt fehl, da der Auftrag 1 viel länger als bisher benötigt.
Seit ein paar Tagen tritt nun das Verhalten auf, dass die "Auftragrate" statt 255 MB/min nur noch 177 MB/min hoch ist.
Obwohl nichts am System bzw. an der Netzwerkverbindung geändert wurde, ist die Auftragsrate nicht mehr so hoch.
Kennt jemand dieses Verhalten und die Ursache bzw. Lösung dazu?
Vielen Dank für Eure Unterstützung!
Gruß
auf einem Windows Server 2008 ist Backup Exec 2010 installiert. Dies ist der Medienserver.
Ein anderer Win Server 2003 wird per RemoteBackup gesichert. Der Remoteagent ist auf dem Server installiert.
Die Server sind per GBIT LAN verbunden.
Es gibt ein Sicherungsauftrag für den Server (dateiserver 2008) und einen weiteren für den Mailserver. Der Mailserver-Sicherungsauftrag wird zuerst gesichert. Nach Ablauf dessen wird der Dateiserver gesichert.
Problem:
Der Auftrag 2 schlägt fehl, da der Auftrag 1 viel länger als bisher benötigt.
Seit ein paar Tagen tritt nun das Verhalten auf, dass die "Auftragrate" statt 255 MB/min nur noch 177 MB/min hoch ist.
Obwohl nichts am System bzw. an der Netzwerkverbindung geändert wurde, ist die Auftragsrate nicht mehr so hoch.
Kennt jemand dieses Verhalten und die Ursache bzw. Lösung dazu?
Vielen Dank für Eure Unterstützung!
Gruß
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 162416
Url: https://administrator.de/contentid/162416
Ausgedruckt am: 25.11.2024 um 14:11 Uhr
14 Kommentare
Neuester Kommentar
Warum machst du 2 Aufträge daraus? Einer reicht doch, der sichert dann alles nacheinander... Für den Exchange wird aber ein kostenpflichtiger Agent benötigt.
Hi,
wenn du trotzdem mit 2 unterschiedlichen Aufträgen hantieren möchtest, dann erzeuge eine Policy (Richtlinie), dass der 2. Auftrag erst startet, wenn der 1. abgeschlossen ist. Das geht über das Einbinden von Regeln.
BTW: Worauf wird denn gesichert? Warum werden 2 Aufträge benötigt?
Ich habe diverse Konfigurationen eingerichtet, die meisten waren aber schneller als 200 MB/min (bei mir 750 MB/min bei der Sicherung von 2 Servern auf ein schwachbrüstiges Buffalo-NAS).
@spytnik
wenn du trotzdem mit 2 unterschiedlichen Aufträgen hantieren möchtest, dann erzeuge eine Policy (Richtlinie), dass der 2. Auftrag erst startet, wenn der 1. abgeschlossen ist. Das geht über das Einbinden von Regeln.
BTW: Worauf wird denn gesichert? Warum werden 2 Aufträge benötigt?
Ich habe diverse Konfigurationen eingerichtet, die meisten waren aber schneller als 200 MB/min (bei mir 750 MB/min bei der Sicherung von 2 Servern auf ein schwachbrüstiges Buffalo-NAS).
@spytnik
Für den Exchange wird aber ein kostenpflichtiger Agent benötigt.
Das ist schon richtig, aber der TO hat ja nicht geschrieben, dass er einen Exchange nutzt. Es soll ja auch noch alternative Mailserver geben. ♠
Du kannst doch mehrere Email-Empfänger angeben...
hi VIPER5000,
du kannst für jeden Job beliebige Mailempfänger festlegen, welche du global vorher definiert hast.
Also auch, wie von dir gewünscht, pro Server (also pro Backupjob) an eine E-Mail Adresse.
Evtl. funkt dir der Virenscanner dazwischen u. zieht die Auftragsrate runter.
Welchen AV setzt du ein ?
mfg redocomp
du kannst für jeden Job beliebige Mailempfänger festlegen, welche du global vorher definiert hast.
Also auch, wie von dir gewünscht, pro Server (also pro Backupjob) an eine E-Mail Adresse.
Evtl. funkt dir der Virenscanner dazwischen u. zieht die Auftragsrate runter.
Welchen AV setzt du ein ?
mfg redocomp
Hallo,
wenn die, wie in einer anderen Antwort geschrieben, direkt auf das LTO-Laufwerk sicherst, dann sind 255mb/min _extrem_ zu langsam.
Die meisten LTO2-Laufwerke benötigen mind. 720mb/min, und LTO3-Laufwerke mind. 1800mb/min um im Streaming-Mode zu laufen.
Wenn die Datenrate darunter liegt läuft das Laufwerk im Start-Stop-Modus.
Uns dieser ruiniert dir sehr schnell die Medien und das Bandlaufwerk.
D.h. dass je nachdem was du für ein Laufwerk hast selbst die 1000mb/min zu langsam sind.
Daher solltest du zu allererst eine Diagnosesoftware vom Laufwerkshersteller besorgen und mit einem neuen Band testen ob das Laufwerk überhaupt noch in Ordnung ist.
Wenn das Backup zu langsam ist, dann liegt das sehr häufig an der Datenstruktur.
Wenn man sehr viele sehr kleine Dateien hat, dann können die Festplatten die Daten nicht schnell genug lesen.
Die Diagnosesoftware bietet i.d.R. auch einen Performancetest, um zu prüfen ob es nicht beim Datentransport einen Flaschenhals gibt.
Wenn die Performance OK generell ist, dann solltest du darüber nachdenken eine Backup to Disk to Tape Strategie zu nutzen.
Bei uns läuft das Backup 2 Disk über das Gigabit Netz mit 1600-1900mb/min, und dann das Copy to Tape mit mind. 4000mb/min (mit einem IBM LTO3FH-Laufwerk in einer Library).
K.
wenn die, wie in einer anderen Antwort geschrieben, direkt auf das LTO-Laufwerk sicherst, dann sind 255mb/min _extrem_ zu langsam.
Die meisten LTO2-Laufwerke benötigen mind. 720mb/min, und LTO3-Laufwerke mind. 1800mb/min um im Streaming-Mode zu laufen.
Wenn die Datenrate darunter liegt läuft das Laufwerk im Start-Stop-Modus.
Uns dieser ruiniert dir sehr schnell die Medien und das Bandlaufwerk.
D.h. dass je nachdem was du für ein Laufwerk hast selbst die 1000mb/min zu langsam sind.
Daher solltest du zu allererst eine Diagnosesoftware vom Laufwerkshersteller besorgen und mit einem neuen Band testen ob das Laufwerk überhaupt noch in Ordnung ist.
Wenn das Backup zu langsam ist, dann liegt das sehr häufig an der Datenstruktur.
Wenn man sehr viele sehr kleine Dateien hat, dann können die Festplatten die Daten nicht schnell genug lesen.
Die Diagnosesoftware bietet i.d.R. auch einen Performancetest, um zu prüfen ob es nicht beim Datentransport einen Flaschenhals gibt.
Wenn die Performance OK generell ist, dann solltest du darüber nachdenken eine Backup to Disk to Tape Strategie zu nutzen.
Bei uns läuft das Backup 2 Disk über das Gigabit Netz mit 1600-1900mb/min, und dann das Copy to Tape mit mind. 4000mb/min (mit einem IBM LTO3FH-Laufwerk in einer Library).
K.