Sicherung Windows 2012 Failover-Cluster - Hyper-V
Sinnvolle Sicherung eines Clusters mit Hyper-V unter Verwendung von Windows Server Backup / wbadmin
Hallo zusammen,
ich arbeite gerade an einer Testumgebung mit einem Failover-Cluster unter Windows 2012.
Nun geht es um die Sicherung, die Server-Sicherung / wbadmin bringt unter 2012 ja einige Neuerungen mit sich.
Hierbei stellen sich mir einige Fragen, bei denen ihr mir vielleicht weiterhelfen könnt.
Szenario:
Failover-Cluster (2012) mit zwei Nodes, derzeit wird auf dem Cluster als Rolle nur Hyper-V ausgeführt (4VMs), was sich aber ggf. ändern kann (evtl. noch Fileserver, DHCP, etc. geplant).
Die VMs liegen auf einem CSV auf einer QNAP-NAS(Pro) mit iSCSI.
Ziel ist es, den kompletten Cluster zu sichern, ohne Ausfall der VMs und unabhängig davon, wo sich die VMs gerade befinden.
Hierzu soll das integrierte wbadmin genutzt werden, DPM kommt aktuell nicht in Frage.
Sicherungsziel ist eine Freigabe auf einem dedizierten Backup-Server, wo die Sicherungen quasi "online" liegen sollen und regelmäßig auf ein lokal angeschlossenes RDX oder LTO gezogen werden (mit Backup-Exec, unabhängig von der Laufzeit der "primären" Sicherung).
Wenn ich nun den wbadmin-Assistent auf einem Node starte (zum Testen, später wird gescripted), sehe ich nun zwei Möglichkeiten:
1.) Ich kann den Server selbst, inkl. der gerade auf dem Server laufenden(!) VMs und das Quorum sichern.
Das CSV selbst kann ich nicht mit wählen (was ja bezüglich der VMs auch "doppelt gemoppelt" wäre, später (s.o.) aber sinnvoller sein könnte).
Prinzipiell wäre dies zunächst ja hinreichend, wenn dies auf beiden Nodes konfiguriert wäre.
Fraglich ist nur, ob die VMs in der Sicherung dann auch immer entsprechend berücksichtigt werden, wenn diese zwischen den Knoten verschoben werden (?).
Eher problematisch sehe ich jedoch zwei Punkte:
- Was ist, wenn das CSV mal mehr Daten als die VMs enthält (z.B. Fileserver, etc.) - die werden dann nicht gesichert... (?)
- Wenn die VMs zwischen den Knoten verschoben werden, werden diese mal mit dem einem, mal mit dem anderen Knoten gesichert (hoffentlich - siehe oben). Dadurch "blähen" sich die Sicherungsdateien ziemlich auf und belegen mehr Speicher auf dem Backup-Server als nötig (wie ja auch schon mit wbadmin unter 2008 R2)
2.) Alternativ kann ich nur das CSV selber sichern. Dabei werden die VMs in den Status "Sicherung wird ausgeführt" versetzt.
Dies erscheint zunächst sinnvoller, da dann ja alle Daten des CSVs mitgenommen werden und die VMs nicht evtl. doppelt agelegt werden.
Man könnte also als Job dies auf einem Node durchführen und auf jedem Node dann nochmal den "Rest" (also den jeweiligen Server, ohne Hyper-V und CSV) - dann sollte man doch alles haben, oder?
Fraglich ist für mich hier, ob die VMs auch korrekt gesichert werden (so "sicher" wie per Child-Snapshot in der o.g. Lösung), es ist auch Exchange und SQL auf den VMs im Einsatz...
Ebenso fraglich sind für mich die Recovery-Optionen (dich ich wegen des doch hohen Aufwands noch nicht getestet habe).
Desaster-Fall (kompletter Cluster ist zerstört): Kann ich mit dieser Sicherung die VMs auch lauffähig wiederherstellen ohne den kompletten Cluster zu rekonstruieren?
(Ist ja meistens so: Server bereit stellen, Sicherung liegt dateibasiert vor, Einlesen der Sicherung und Starten der VMs sollte auf diesem Einzelgerät, ohne Cluster etc. möglich sein!)
Vielleicht gibt es ja jemanden, der hiermit schon Erfahrung hat und ein paar Tipps geben kann.
Schöne Grüße,
Jan
Hallo zusammen,
ich arbeite gerade an einer Testumgebung mit einem Failover-Cluster unter Windows 2012.
Nun geht es um die Sicherung, die Server-Sicherung / wbadmin bringt unter 2012 ja einige Neuerungen mit sich.
Hierbei stellen sich mir einige Fragen, bei denen ihr mir vielleicht weiterhelfen könnt.
Szenario:
Failover-Cluster (2012) mit zwei Nodes, derzeit wird auf dem Cluster als Rolle nur Hyper-V ausgeführt (4VMs), was sich aber ggf. ändern kann (evtl. noch Fileserver, DHCP, etc. geplant).
Die VMs liegen auf einem CSV auf einer QNAP-NAS(Pro) mit iSCSI.
Ziel ist es, den kompletten Cluster zu sichern, ohne Ausfall der VMs und unabhängig davon, wo sich die VMs gerade befinden.
Hierzu soll das integrierte wbadmin genutzt werden, DPM kommt aktuell nicht in Frage.
Sicherungsziel ist eine Freigabe auf einem dedizierten Backup-Server, wo die Sicherungen quasi "online" liegen sollen und regelmäßig auf ein lokal angeschlossenes RDX oder LTO gezogen werden (mit Backup-Exec, unabhängig von der Laufzeit der "primären" Sicherung).
Wenn ich nun den wbadmin-Assistent auf einem Node starte (zum Testen, später wird gescripted), sehe ich nun zwei Möglichkeiten:
1.) Ich kann den Server selbst, inkl. der gerade auf dem Server laufenden(!) VMs und das Quorum sichern.
Das CSV selbst kann ich nicht mit wählen (was ja bezüglich der VMs auch "doppelt gemoppelt" wäre, später (s.o.) aber sinnvoller sein könnte).
Prinzipiell wäre dies zunächst ja hinreichend, wenn dies auf beiden Nodes konfiguriert wäre.
Fraglich ist nur, ob die VMs in der Sicherung dann auch immer entsprechend berücksichtigt werden, wenn diese zwischen den Knoten verschoben werden (?).
Eher problematisch sehe ich jedoch zwei Punkte:
- Was ist, wenn das CSV mal mehr Daten als die VMs enthält (z.B. Fileserver, etc.) - die werden dann nicht gesichert... (?)
- Wenn die VMs zwischen den Knoten verschoben werden, werden diese mal mit dem einem, mal mit dem anderen Knoten gesichert (hoffentlich - siehe oben). Dadurch "blähen" sich die Sicherungsdateien ziemlich auf und belegen mehr Speicher auf dem Backup-Server als nötig (wie ja auch schon mit wbadmin unter 2008 R2)
2.) Alternativ kann ich nur das CSV selber sichern. Dabei werden die VMs in den Status "Sicherung wird ausgeführt" versetzt.
Dies erscheint zunächst sinnvoller, da dann ja alle Daten des CSVs mitgenommen werden und die VMs nicht evtl. doppelt agelegt werden.
Man könnte also als Job dies auf einem Node durchführen und auf jedem Node dann nochmal den "Rest" (also den jeweiligen Server, ohne Hyper-V und CSV) - dann sollte man doch alles haben, oder?
Fraglich ist für mich hier, ob die VMs auch korrekt gesichert werden (so "sicher" wie per Child-Snapshot in der o.g. Lösung), es ist auch Exchange und SQL auf den VMs im Einsatz...
Ebenso fraglich sind für mich die Recovery-Optionen (dich ich wegen des doch hohen Aufwands noch nicht getestet habe).
Desaster-Fall (kompletter Cluster ist zerstört): Kann ich mit dieser Sicherung die VMs auch lauffähig wiederherstellen ohne den kompletten Cluster zu rekonstruieren?
(Ist ja meistens so: Server bereit stellen, Sicherung liegt dateibasiert vor, Einlesen der Sicherung und Starten der VMs sollte auf diesem Einzelgerät, ohne Cluster etc. möglich sein!)
Vielleicht gibt es ja jemanden, der hiermit schon Erfahrung hat und ein paar Tipps geben kann.
Schöne Grüße,
Jan
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 204248
Url: https://administrator.de/contentid/204248
Ausgedruckt am: 22.11.2024 um 03:11 Uhr
11 Kommentare
Neuester Kommentar
Hallo,
ich denke ich würde nur die Software anpassen und dreifach sichern oder speichern!
- Backup Software mit Desaster Recovery Lösung im Angebot und gut ist es.
- Mit Schattenkopien arbeiten
- Auf ein NAS sichern und von dort auf ein RDX Medium sichern und es sicher lagern
Dann hast Du die Daten auf dem Server, auf dem NAS und auf dem RDX Medium oder den RDX Medien.
Bau Dir ein Test System, sichere es und dann lass es "knallen"
und sichere es zurück dann weißt Du genau was geht und was nicht!
Und die meiste Software gibt es wohl auch zum 30 tägigen Test, aber Du weist dann wenigstens was funktioniert und was nicht funktioniert, was finde ich am wichtigsten ist.
Gruß
Dobby
ich denke ich würde nur die Software anpassen und dreifach sichern oder speichern!
- Backup Software mit Desaster Recovery Lösung im Angebot und gut ist es.
- Mit Schattenkopien arbeiten
- Auf ein NAS sichern und von dort auf ein RDX Medium sichern und es sicher lagern
Dann hast Du die Daten auf dem Server, auf dem NAS und auf dem RDX Medium oder den RDX Medien.
Ebenso fraglich sind für mich die Recovery-Optionen (dich ich wegen des doch hohen Aufwands noch nicht getestet habe).
Immer nur mit Kopien arbeiten! Was kann Dir da schon passieren.Bau Dir ein Test System, sichere es und dann lass es "knallen"
und sichere es zurück dann weißt Du genau was geht und was nicht!
Und die meiste Software gibt es wohl auch zum 30 tägigen Test, aber Du weist dann wenigstens was funktioniert und was nicht funktioniert, was finde ich am wichtigsten ist.
Gruß
Dobby
Zitat von @jcvmaster:
Hallo 24,
da habe sich zwei Posts überschnitten.
Aber ja, natürlich.
Die VMs liegen alle auf einem CSV (Cluster Shared Volume).
In meinem Fall einer QNAP, die als SAN (also ISCSI-Target) konfirguriert ist.
So können alle Nodes des Clusters (mit Persistent3-Reservierung) auf die gleichen Daten zugreifen.
Hallo 24,
da habe sich zwei Posts überschnitten.
Aber ja, natürlich.
Die VMs liegen alle auf einem CSV (Cluster Shared Volume).
In meinem Fall einer QNAP, die als SAN (also ISCSI-Target) konfirguriert ist.
So können alle Nodes des Clusters (mit Persistent3-Reservierung) auf die gleichen Daten zugreifen.
Du hast den Sinn eines Clusters nicht begriffen - die VMs liegen unterschiedlich - also nicht auf einem *physikalischen* Gerät!!!
das Quorum muß dann auch clusterfähig sein - oder entsprechend abgesichert sein - und eine QNAP ist kein SAN, nur weil es iSCSI kann...
Gruß
24
Das Problem bei der Geschichte ist wenn dir dein NAS ausfällt ist der Cluster trotzdem tot, was ja ein Cluster eigentlich verhindern soll. Für ne Testumgebung natürlich kein Problem.
Nö, es ist ein NAS.
Eine QNAP-PRO (bitte nicht mit Home-Modellen verwechseln) ist meines Erachtens schon eine SAN.
Nö, es ist ein NAS.
Für Testzwecke und 4-5 VMs mehr als ausreichend, mit MPIO habe ich mehr als 120 MB/s im SEQ-Zugriff (RAID 10 mit 4x 2 TB
Enterprise SATA) und redundant (RAID und MPIO)...
Natürlich kann eine IBM-Büchse noch deutlich mehr, technisch ist da aber KEIN Unterschied...
So ein richtiges SAN ist noch mehr auf Ausfallsicherheit getrimmt und selbst da geht man oft auf Redundanz und stellt sich zwei hin.Enterprise SATA) und redundant (RAID und MPIO)...
Natürlich kann eine IBM-Büchse noch deutlich mehr, technisch ist da aber KEIN Unterschied...
Zitat von @2hard4you:
> Zitat von @jcvmaster:
> ----
> Hallo 24,
> da habe sich zwei Posts überschnitten.
>
> Aber ja, natürlich.
> Die VMs liegen alle auf einem CSV (Cluster Shared Volume).
> In meinem Fall einer QNAP, die als SAN (also ISCSI-Target) konfirguriert ist.
> So können alle Nodes des Clusters (mit Persistent3-Reservierung) auf die gleichen Daten zugreifen.
Du hast den Sinn eines Clusters nicht begriffen - die VMs liegen unterschiedlich - also nicht auf einem *physikalischen*
Gerät!!!
das Quorum muß dann auch clusterfähig sein - oder entsprechend abgesichert sein - und eine QNAP ist kein SAN, nur weil
es iSCSI kann...
Gruß
24
> Zitat von @jcvmaster:
> ----
> Hallo 24,
> da habe sich zwei Posts überschnitten.
>
> Aber ja, natürlich.
> Die VMs liegen alle auf einem CSV (Cluster Shared Volume).
> In meinem Fall einer QNAP, die als SAN (also ISCSI-Target) konfirguriert ist.
> So können alle Nodes des Clusters (mit Persistent3-Reservierung) auf die gleichen Daten zugreifen.
Du hast den Sinn eines Clusters nicht begriffen - die VMs liegen unterschiedlich - also nicht auf einem *physikalischen*
Gerät!!!
das Quorum muß dann auch clusterfähig sein - oder entsprechend abgesichert sein - und eine QNAP ist kein SAN, nur weil
es iSCSI kann...
Gruß
24
Hi
Also ich sehe das auch so. Eine QNAP ist eine NAS aber warum nicht 2 NAS aufstellen und mit DFS Replizieren ?
Erfahrung mit Cluster hab ich keine also steinigt mich nicht wenn das blödsin ist war nur mein erster Gedanke.
LG Andy