Windows Server 2022 Komplettsicherung. Welches Medium?
Hi zusammen,
bekanntlich unterstützt Windows Server 2022 die LTO-Lösung nicht mehr.
Was sagt die Praxis (ich betone: die Praxis. Denn die zählt am Ende)?
Was geht old-school-sicher: Magnetbänder auf Umwegen, NAS, externe Festplatte, die Cloud?
Kurze Infos zur Domäne: 2 Domänencontroller, 1 Memberserver, ca. 70 Clients/Knoten, Datenmenge zu sichern: <3TB,
bei dem Wort "Cloud" verdreht die Geschäftsleitung regelmäßig die Augen.
Gruß
bekanntlich unterstützt Windows Server 2022 die LTO-Lösung nicht mehr.
Was sagt die Praxis (ich betone: die Praxis. Denn die zählt am Ende)?
Was geht old-school-sicher: Magnetbänder auf Umwegen, NAS, externe Festplatte, die Cloud?
Kurze Infos zur Domäne: 2 Domänencontroller, 1 Memberserver, ca. 70 Clients/Knoten, Datenmenge zu sichern: <3TB,
bei dem Wort "Cloud" verdreht die Geschäftsleitung regelmäßig die Augen.
Gruß
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 673335
Url: https://administrator.de/forum/windows-server-2022-backup-673335.html
Ausgedruckt am: 17.06.2025 um 07:06 Uhr
57 Kommentare
Neuester Kommentar
Moin,
wir nutzen bei nahezu allen Kunden Synology NAS mit Active Backup for Business (Hyper-V/PCs).
DS723+ mit 2*8 TB (ich nehme gern Ironwolf Pro), zusätzlich mindestens 2 8 TB USB Laufwerke auf die die gesicherten Daten nochmal mit Hyper Backup raufkopiert werden. Diese werden regelmäßig gesichert und außer Haus gelagert.
Grüße
wir nutzen bei nahezu allen Kunden Synology NAS mit Active Backup for Business (Hyper-V/PCs).
DS723+ mit 2*8 TB (ich nehme gern Ironwolf Pro), zusätzlich mindestens 2 8 TB USB Laufwerke auf die die gesicherten Daten nochmal mit Hyper Backup raufkopiert werden. Diese werden regelmäßig gesichert und außer Haus gelagert.
Grüße
Wir sichern auch von Veeam auf Tape.
obwohl uns das ein neuer IT Berater mehr und mehr Ausreden möchte. Tapes seien nicht robust und sicher genug. Und die Wiederherstellung würde in vielen Fällen nicht klappen. Ich halte das für ein Gerücht.
Er meint, wir sollen besser in die Cloud oder auf immutable Storage sichern.
obwohl uns das ein neuer IT Berater mehr und mehr Ausreden möchte. Tapes seien nicht robust und sicher genug. Und die Wiederherstellung würde in vielen Fällen nicht klappen. Ich halte das für ein Gerücht.
Er meint, wir sollen besser in die Cloud oder auf immutable Storage sichern.
Morschen.
+1 für Veeam auf Disk und dann anschließend auf Tape.
Wir sichern damit alles bis einschließlich Server 2025.
Da würde ich "mithalten"
Wenn das regelmäßig testet, dann hat man auch gutes Gefühl dabei
Gruß
Marc
+1 für Veeam auf Disk und dann anschließend auf Tape.
Wir sichern damit alles bis einschließlich Server 2025.
Zitat von @mossox:
obwohl uns das ein neuer IT Berater mehr und mehr Ausreden möchte. Tapes seien nicht robust und sicher genug. Und die Wiederherstellung würde in vielen Fällen nicht klappen. Ich halte das für ein Gerücht.
obwohl uns das ein neuer IT Berater mehr und mehr Ausreden möchte. Tapes seien nicht robust und sicher genug. Und die Wiederherstellung würde in vielen Fällen nicht klappen. Ich halte das für ein Gerücht.
Da würde ich "mithalten"
Wenn das regelmäßig testet, dann hat man auch gutes Gefühl dabei
Gruß
Marc
Ich nutze schon ewig Veeam, 3-2-1 Regel + Generationenprinzip.
In kleinen Umgebungen würde ich es noch* so machen, aber, auf Grund der Veeam Preise, würde ich mit Proxmox virtualisieren und mit Proxmox Backup die Sicherung machen.
*Veeam CE kostenlos bis 10 Instanzen, läuft auf W11, bei einer NAS ist die Software an die Hardware gebunden, d.h. mit Veeam CE ist man etwas flexibler. Active Backup for Business von Synology ist natürlich eine feine Sache, kostenlos, aber eben nur mit der Hardware, und simple in der Einrichtung.
In kleinen Umgebungen würde ich es noch* so machen, aber, auf Grund der Veeam Preise, würde ich mit Proxmox virtualisieren und mit Proxmox Backup die Sicherung machen.
*Veeam CE kostenlos bis 10 Instanzen, läuft auf W11, bei einer NAS ist die Software an die Hardware gebunden, d.h. mit Veeam CE ist man etwas flexibler. Active Backup for Business von Synology ist natürlich eine feine Sache, kostenlos, aber eben nur mit der Hardware, und simple in der Einrichtung.
Tapes seien nicht robust und sicher genug. Und die Wiederherstellung würde in vielen Fällen nicht klappen.
Unsinn, die Tapes liegen im Tresor und Restore sollte man regelmäßig machen um das Backup zu prüfen, Routine für die IT.bei dem Wort "Cloud" verdreht die Geschäftsleitung regelmäßig die Augen.
Verständlich: "Cloud ist der PC von jemand anderem.", "die Daten sind gecloud".Eine externes Sicherungsmedium könnte aber auch die Fritzbox bei der GL zu Hause sein.
https://fritz.com/ratgeber/der-eigene-cloud-speicher-mit-fritzbox/
Moin,
wir nutzen (noch) Veeam BR Essentials Universal mit 30 Workloads. Gekauft 2021 inkl. 5 Jahre Support. Mittlerweile ist das Produkt in die Veeam Data Plattform gewandert und kostet für die gleiche Anzahl Workloads und Zeit 30% mehr. Wer weiß wie sich der Preis und das Produkt zum Ablauf unserer Laufzeit noch ändern wird.
Für überschaubare IT-Umgebungen kann ich aktuell aber auch Nakivo empfehlen. Haben es in einer Tocherfirma eingesetzt. Es deckt nahezu alle Features von Veeam ab, kostet aber nur einen Bruchteil davon.
wir nutzen (noch) Veeam BR Essentials Universal mit 30 Workloads. Gekauft 2021 inkl. 5 Jahre Support. Mittlerweile ist das Produkt in die Veeam Data Plattform gewandert und kostet für die gleiche Anzahl Workloads und Zeit 30% mehr. Wer weiß wie sich der Preis und das Produkt zum Ablauf unserer Laufzeit noch ändern wird.
Für überschaubare IT-Umgebungen kann ich aktuell aber auch Nakivo empfehlen. Haben es in einer Tocherfirma eingesetzt. Es deckt nahezu alle Features von Veeam ab, kostet aber nur einen Bruchteil davon.
Wir haben einen Backup-Server mit 60 TB HDDs auf denen ca. 3 Monate Datensicherungen liegen. Dann gibt es externe HDDs auf denen im Großvater-Vater-Sohn-Prinzip Datensicherungen gespeichert werden.
Ich persönlich bin auch kein Fan von Tapes aller Art.
Begründung:
Tape ist angeblich 30 Jahre haltbar - aber nur bei richtiger Lagerung und wenn es mind. einmal im Jahr umgespult wird, sonst gibt es Durchmagnetisierungseffekte.
Bänder halten relativ wenig Lese-/Schreibvorgänge aus, weil es ja eine mechanische Beanspruchung gibt. Und bitte nicht mit "das läuft auf einem Luftpolster" kommen. Warum gibt es dann Reinigungstapes, die man regelmäßig nutzen muss!? Wäre das Luftpolster so perfekt, wäre das nicht nötig.
Bandlaufwerke sind nur über einen gewissen Zeitraum kompatibel. Wenn Du Dir heute ein neues Bandlaufwerk kaufst, wird das mit den Sicherungen von vor 8 Jahren knifflig, die nochmal lesen zu können, weil man eben kein passendes Laufwerk dafür hat. Man kann natürlich alle Laufwerke der letzten 30 Jahre im Keller aufbewahren und hoffen, dass die neuen Server noch eine passende Schnittstelle haben. Oder man bewahrt auch die alten Server auf.
Und aus Erfahrung kann ich sagen, dass selbst uralte IDE-Festplatten meistens noch problemlos lesbar sind. Ich hab noch einen Laptop mit Win 3.11. Den krame ich immer mal als "Gag" raus, wenn jemand sowas sehen will. Läuft noch problemlos.
Aber ab einer gewissen Menge an zu sichernden Daten kommt man um Tapes nicht rum, das ist auch klar. Aber so lange es geht, würde ich immer HDDs wählen.
Ich persönlich bin auch kein Fan von Tapes aller Art.
Begründung:
Tape ist angeblich 30 Jahre haltbar - aber nur bei richtiger Lagerung und wenn es mind. einmal im Jahr umgespult wird, sonst gibt es Durchmagnetisierungseffekte.
Bänder halten relativ wenig Lese-/Schreibvorgänge aus, weil es ja eine mechanische Beanspruchung gibt. Und bitte nicht mit "das läuft auf einem Luftpolster" kommen. Warum gibt es dann Reinigungstapes, die man regelmäßig nutzen muss!? Wäre das Luftpolster so perfekt, wäre das nicht nötig.
Bandlaufwerke sind nur über einen gewissen Zeitraum kompatibel. Wenn Du Dir heute ein neues Bandlaufwerk kaufst, wird das mit den Sicherungen von vor 8 Jahren knifflig, die nochmal lesen zu können, weil man eben kein passendes Laufwerk dafür hat. Man kann natürlich alle Laufwerke der letzten 30 Jahre im Keller aufbewahren und hoffen, dass die neuen Server noch eine passende Schnittstelle haben. Oder man bewahrt auch die alten Server auf.
Und aus Erfahrung kann ich sagen, dass selbst uralte IDE-Festplatten meistens noch problemlos lesbar sind. Ich hab noch einen Laptop mit Win 3.11. Den krame ich immer mal als "Gag" raus, wenn jemand sowas sehen will. Läuft noch problemlos.
Aber ab einer gewissen Menge an zu sichernden Daten kommt man um Tapes nicht rum, das ist auch klar. Aber so lange es geht, würde ich immer HDDs wählen.
Zitat von @mossox:
Wir sichern auch von Veeam auf Tape.
obwohl uns das ein neuer IT Berater mehr und mehr Ausreden möchte.
Tjoa....wer neu ist muss was bewegen, sonst macht er ja nur dasselbe wie immer.Wir sichern auch von Veeam auf Tape.
obwohl uns das ein neuer IT Berater mehr und mehr Ausreden möchte.
LTO ist, wenn sie sicher gelagert werden, immer noch eine der robustesten Sicherungsmedien. Die halten ja 20+ Jahre. Knackpunkt ist da halt die richtige Lagerung. Temperiert, Luftfeuchte, usw.
Eine automatische Fehlerkorrektur gibts auch. Und ab LTO-7 ist die Wiederherstellung doch extremst zuverlässig.
Aber halt je nachdem auch extremst langsam.
Vor meiner Zeit hat die GF die Tapes wohl abgelehnt, weil die Anschaffung zu teuer war. Nuja, jetzt gibts eben Sicherungen auf mehrere NAS.
Ich sehe keinen Zwang oder Vorteil zusätzlich auf Tape zu sichern. Nur auf Tape schon mal gar nicht. Wie hier schon erwähnt ist eine 3-2-1 Backup-Strategie sinnvoll. Also mindestens drei Kopien auf zwei verschiedenen Medien und eine davon extern. Dabei sind die zwei verschiedene Medien nicht zwangsläufig Disk und Tape. Das kann auch ein SAN und ein NAS sein oder zwei unterschiedliche NAS. Darüber hinaus auch externe Festplatten und auch die Cloud.
Cloud-Only sehe ich auch als unpassend an. Wenn, dass als Ergänzung, quasi die "1" in der Regel.
Wir sichern auch nach dieser Regel. Haupt-Backup lokal auf einem Linux-Repo, eine Kopie auf ein NAS in einem anderen Standort inkl. GFS und dazu noch letzte 30 Tage in ein Cloud-S3-Storage.
Da alles bereits in Veeam verschlüsselt ist und das S3-Storage zusätzlich auch noch, sehe ich hier keine Gefahr. Dies dient nur als DR-Repository, also wenn das SAN, das lokale Backup und Kopie "weg" oder kompromittiert.
@mossox €35k für was?
Cloud-Only sehe ich auch als unpassend an. Wenn, dass als Ergänzung, quasi die "1" in der Regel.
Wir sichern auch nach dieser Regel. Haupt-Backup lokal auf einem Linux-Repo, eine Kopie auf ein NAS in einem anderen Standort inkl. GFS und dazu noch letzte 30 Tage in ein Cloud-S3-Storage.
Da alles bereits in Veeam verschlüsselt ist und das S3-Storage zusätzlich auch noch, sehe ich hier keine Gefahr. Dies dient nur als DR-Repository, also wenn das SAN, das lokale Backup und Kopie "weg" oder kompromittiert.
@mossox €35k für was?
@DerMaddin:
Für eine Art Appliance mit immutable Storage/HDDs, die dann als Repo in Veeam eingebunden werden soll.
Für eine Art Appliance mit immutable Storage/HDDs, die dann als Repo in Veeam eingebunden werden soll.
Zitat von @nachgefragt:
*Veeam CE kostenlos bis 10 Instanzen, läuft auf W11, bei einer NAS ist die Software an die Hardware gebunden, d.h. mit Veeam CE ist man etwas flexibler. Active Backup for Business von Synology ist natürlich eine feine Sache, kostenlos, aber eben nur mit der Hardware, und simple in der Einrichtung.
Veeam CE ist kostenlos, darf aber nicht von Dritten installiert und gewartet werden, was den Einsatz in kommerziellen Umgebungen eigentlich ausschließt.
@mossox
Unsere "Appliance" ist ein älterer Server voll gepackt mit SAS-HDDs aus insgesamt drei alten Servern. Darauf läuft Ubuntu 22.04 LTS. Das Repository ist verschlüsselt und immutable. Abgesichert zudem mit 2FA und der Veeam-Dienst-User ist der einzige mit Write/Read auf das Repository.
Die HW hat im Grunde nichts gekostet, da schon vorhanden. Aber selbst wenn man einen einfachen Server mit HDDs oder selbst SSD kauft, dann reden wir hier von max ~€10k, also z.B. ein einfacher Xeon 8-Kerner mit 32 GB RAM und 16x 1.92TB SSD. Wenn nicht erforderlich, dann reichen da SATA oder M.2 SATA SSDs vollkommen aus.
Unsere Appliance ist nur als Repo in Veeam, die Backup-Jobs werden in einer dedizierten VM verarbeitet. Diese hat 8 vCPUs und 16 GB RAM und kommt nicht an ihre Grenzen. Maximal 4 parallele Tasks werden ausgeführt.
Klar ein Vollbackup benötigt mehr Power aber danach ist es idR inkrementell. In unserem Fall kommen wöchentliche synthetische Vollbackups dazu, die Veeam irgendwie "errechnet". Nur die jeweiligen GFS-Punkte sind volle Backups.
Unsere "Appliance" ist ein älterer Server voll gepackt mit SAS-HDDs aus insgesamt drei alten Servern. Darauf läuft Ubuntu 22.04 LTS. Das Repository ist verschlüsselt und immutable. Abgesichert zudem mit 2FA und der Veeam-Dienst-User ist der einzige mit Write/Read auf das Repository.
Die HW hat im Grunde nichts gekostet, da schon vorhanden. Aber selbst wenn man einen einfachen Server mit HDDs oder selbst SSD kauft, dann reden wir hier von max ~€10k, also z.B. ein einfacher Xeon 8-Kerner mit 32 GB RAM und 16x 1.92TB SSD. Wenn nicht erforderlich, dann reichen da SATA oder M.2 SATA SSDs vollkommen aus.
Unsere Appliance ist nur als Repo in Veeam, die Backup-Jobs werden in einer dedizierten VM verarbeitet. Diese hat 8 vCPUs und 16 GB RAM und kommt nicht an ihre Grenzen. Maximal 4 parallele Tasks werden ausgeführt.
Klar ein Vollbackup benötigt mehr Power aber danach ist es idR inkrementell. In unserem Fall kommen wöchentliche synthetische Vollbackups dazu, die Veeam irgendwie "errechnet". Nur die jeweiligen GFS-Punkte sind volle Backups.
Danke, @DerMaddin.
Ich hatte dabei auch meine Zweifel.
Aber es ist leider so, dass mit der Angst gespielt wird.
Was alles passieren kann, was das dann bedeutet und kostet... usw.
Ich werde das mal so weitergeben, damit wir alles nochmal neu durchdenken.
Das Angebot haben wir erst mal nur dahinstehen gelassen.
Ich hatte dabei auch meine Zweifel.
Aber es ist leider so, dass mit der Angst gespielt wird.
Was alles passieren kann, was das dann bedeutet und kostet... usw.
Ich werde das mal so weitergeben, damit wir alles nochmal neu durchdenken.
Das Angebot haben wir erst mal nur dahinstehen gelassen.
So ein immutable Storage kann man sich auch auf Consumer-Hardwarebasis selber bauen. Macht die Hardware schlapp, stellt man sich einfach zwei hin. Ist halt nur die Frage, wie lange man seine Backups vorhalten will und wie schwerwiegend jetzt ein Verlust des 2ten Backups durch Hardware-Versagen wäre. Ich würde dann einfach wieder auf neuer Hardware von Null anfangen. Ein normales Backup hätte ich auch noch zur Hand aber ich halte Backups auch nur 30 Tage, nicht Jahre vor.
+1 @ukulele-7
Ein Backup-Repo sollte nie allein vorhanden sein. Immer zwei oder mehr davon. Lieber 2-3 günstige, von mir aus auch Consumer HW oder ein zwei NAS gehen auch, als ein überteuertes Etwas, dass evtl. noch einen Support-Vertrag nach sich zieht.
Fällt ein Repo aus, hat man ein weiteres. Fällt der Backup-Server (VM, HW) aus, so kann man schnell irgendwo wieder aufsetzen. Klar die Keys und Passwörter sollte man irgendwo offline als Ausdruck haben.
Ein Backup-Repo sollte nie allein vorhanden sein. Immer zwei oder mehr davon. Lieber 2-3 günstige, von mir aus auch Consumer HW oder ein zwei NAS gehen auch, als ein überteuertes Etwas, dass evtl. noch einen Support-Vertrag nach sich zieht.
Fällt ein Repo aus, hat man ein weiteres. Fällt der Backup-Server (VM, HW) aus, so kann man schnell irgendwo wieder aufsetzen. Klar die Keys und Passwörter sollte man irgendwo offline als Ausdruck haben.
Zitat von @mossox:
Seh ich es richtig, dass man immutable Speicher im Grunde auch mit einem NAS aus dem Fertigregal hinbekommt?
z.B. QNAP?
Seh ich es richtig, dass man immutable Speicher im Grunde auch mit einem NAS aus dem Fertigregal hinbekommt?
z.B. QNAP?
Ja, das geht idR aber nur, wenn das NAS als iSCSI-Ziel für ein Linux-Repo mit XFS gemapped ist. Also z.B. einen alten Thin-Client mit Ubuntu aufsetzen, Veeam Paket drauf, iSCSI Ziele hinzufügen etc. und fertig. Eine direkte Nutzung als Immutable-Repo geht nicht.
Moin @napo69
ich weiß nicht ob das Feature Windows Sicherung jemals LTO Sicherungen unterstützt hatte. ich denke das war nie der fall.
Grundsätzlich ist die Bandsicherung immer die beste wähl, da es auch eine offline-Sicherung ist.
Leider sind entsprechende wirklich gut funktionierende Programme (Veeam, Veritas, etc. ) sehr teuer geworden und das kostenlose Bacula eine Wissenschaft für sich.
Ich hab inzwischen div. Programme ausprobiert. Es läuft leider darauf hinaus entweder sehr viel Geld für eine Software auszugeben, oder ein Studium für Bacula anzufangen. Ohne dem ist es nicht lauffähig installierbar.
Kreuzberger
bekanntlich unterstützt Windows Server 2022 die LTO-Lösung nicht mehr.
ich weiß nicht ob das Feature Windows Sicherung jemals LTO Sicherungen unterstützt hatte. ich denke das war nie der fall.
Grundsätzlich ist die Bandsicherung immer die beste wähl, da es auch eine offline-Sicherung ist.
Leider sind entsprechende wirklich gut funktionierende Programme (Veeam, Veritas, etc. ) sehr teuer geworden und das kostenlose Bacula eine Wissenschaft für sich.
Ich hab inzwischen div. Programme ausprobiert. Es läuft leider darauf hinaus entweder sehr viel Geld für eine Software auszugeben, oder ein Studium für Bacula anzufangen. Ohne dem ist es nicht lauffähig installierbar.
Kreuzberger
Das schöne ist, das bei Veeam keine Kosten für beliebig viele immutable Repos entstehen, zumindest war das so, als ich mich damit befasst habe. Wollte (will eigentlich immer noch) meine Bandsicherung damit ersetzen.
Du brauchst halt nur ein gewöhnliches Ubuntu, das geht auf einer QNAP glaube ich nicht. Zumindest wäre das eventuell mit Frickelei verbunden und ist sowieso komplett unnötig, wenn man nicht grade ein altes Gerät nehmen will. Die NAS-Hardware ist meist viel schwächer als das, was man in einem gewöhnlichen Client PC vorfindet. Dazu halt NAS Platten verbauen und fertig, eventuell noch SMART Werte unter Linux auslesen und reporten. Hotswap und 19'' Gehäuse sind das, was sowas dann teuer macht. Ich war dann so frei und habe mir ein Cube-Gehäuse mit Fenster in den Serveraum gestellt. Das hat so wenig gekostet, das läuft unter Zubehör. Wenn wir damit mal nicht mehr zufrieden sind, gibt es halt was größeres und das wandert in mein Homeoffice
Du brauchst halt nur ein gewöhnliches Ubuntu, das geht auf einer QNAP glaube ich nicht. Zumindest wäre das eventuell mit Frickelei verbunden und ist sowieso komplett unnötig, wenn man nicht grade ein altes Gerät nehmen will. Die NAS-Hardware ist meist viel schwächer als das, was man in einem gewöhnlichen Client PC vorfindet. Dazu halt NAS Platten verbauen und fertig, eventuell noch SMART Werte unter Linux auslesen und reporten. Hotswap und 19'' Gehäuse sind das, was sowas dann teuer macht. Ich war dann so frei und habe mir ein Cube-Gehäuse mit Fenster in den Serveraum gestellt. Das hat so wenig gekostet, das läuft unter Zubehör. Wenn wir damit mal nicht mehr zufrieden sind, gibt es halt was größeres und das wandert in mein Homeoffice
@ukulele-7
Bei Veeam sind die Einschränkungen was die Kostenlos-Version angeht inzwischen so weit, dass man es weitgehend als unbrauchbar einstufen kann.
Wenn es im System-Backups geht sehe ich eher eine USB-Stick mit ACRONIS drauf und mache ein Image. Das bedeutet zwar, dass man den betreffenden Server neu starten muss um vom Stick zu booten, aber das ist eine recht sichere Variante.
Schliesslich sollte man mal darüber nachdenken, wie man möglichst einfach und schnell ein System-Backup zurückholen kann.
Ein Backup for Business auf eine SYNOLOGY-NAS ist zwar kuhl, aber wie kommt eine komplette Systemwiederherstellung wieder in den Server?
Mit dem ACRONIS Stick und der Festplatte mit dem Sicherungs-Image geht das recht einfach und schnell.
Kreuzberger
Bei Veeam sind die Einschränkungen was die Kostenlos-Version angeht inzwischen so weit, dass man es weitgehend als unbrauchbar einstufen kann.
Wenn es im System-Backups geht sehe ich eher eine USB-Stick mit ACRONIS drauf und mache ein Image. Das bedeutet zwar, dass man den betreffenden Server neu starten muss um vom Stick zu booten, aber das ist eine recht sichere Variante.
Schliesslich sollte man mal darüber nachdenken, wie man möglichst einfach und schnell ein System-Backup zurückholen kann.
Ein Backup for Business auf eine SYNOLOGY-NAS ist zwar kuhl, aber wie kommt eine komplette Systemwiederherstellung wieder in den Server?
Mit dem ACRONIS Stick und der Festplatte mit dem Sicherungs-Image geht das recht einfach und schnell.
Kreuzberger
Zitat von @kreuzberger:
Ein Backup for Business auf eine SYNOLOGY-NAS ist zwar kuhl, aber wie kommt eine komplette Systemwiederherstellung wieder in den Server?
Ein Backup for Business auf eine SYNOLOGY-NAS ist zwar kuhl, aber wie kommt eine komplette Systemwiederherstellung wieder in den Server?
Das kommt auf den "Server" an.
In größeren Firmen/Umgebungen ist es sicher nicht ein Bare-Metal-Server sondern eher eine virtuelle Infrastruktur wie Hyper-V, VMware, Proxmox etc. Damit man flexibel in der Ressourcenverteilung, Wartung und auch Redundanz ist, wird es dann auch eher ein Cluster aus zwei, drei und mehr Hosts.
Ein Backup ist dann eher zur Sicherung der Daten und/oder einer VM vorgesehen. Fällt eine oder mehrere VMs aus, so ist das unproblematisch mit dem Recovery. Fällt ein Host aus in einem Cluster, dann ist es auch kein Problem, denn HA startet die ausgefallenen VMs auf anderen Hosts neu.
Für den Fall, dass die ganze Server-Infrastruktur "tot" ist, haben wir einen DR-Plan. Da würde ein bootbarer USB-Stick und eine externe HDD nicht weiter helfen.
@DerMaddin
Nicht jeder hat eben eine so idealisiert fürs Backup erdachte Umgebung wie du se beschreibst. Es gibt auch Leute, die nur 1 - 2 Server ohne Virtualisierung haben.
Kreuzberger
Nicht jeder hat eben eine so idealisiert fürs Backup erdachte Umgebung wie du se beschreibst. Es gibt auch Leute, die nur 1 - 2 Server ohne Virtualisierung haben.
Kreuzberger
Darum auch "das kommt darauf an"...
Wer sind "Leute"? Eine Privatperson vielleicht, aber die benötigen keinen Server. Kleine Firmen kommen auch mit Cloud-Diensten zurecht oder ein NAS. Ein Bare-Metall-Server hat idR eine bestimmte Ausstattung. Fällt die ganze Kiste aus, dann ist eine Wiederherstellung auf einem neuen Server, evtl. vom anderen Hersteller und mit anderen Komponenten komplexer und länger.
Alles eine Frage welche RPO und RTO man sich selbst auferlegt.
Ich habe nur Erfahrungen mit größeren KMUs (100+ MA und deutlich mehr), daher ist meine Ansicht darüber eine andere aber hier sind auch andere Vorgaben aus dem Business an die IT als ein 5-Mann-Betrieb.
Wer sind "Leute"? Eine Privatperson vielleicht, aber die benötigen keinen Server. Kleine Firmen kommen auch mit Cloud-Diensten zurecht oder ein NAS. Ein Bare-Metall-Server hat idR eine bestimmte Ausstattung. Fällt die ganze Kiste aus, dann ist eine Wiederherstellung auf einem neuen Server, evtl. vom anderen Hersteller und mit anderen Komponenten komplexer und länger.
Alles eine Frage welche RPO und RTO man sich selbst auferlegt.
Ich habe nur Erfahrungen mit größeren KMUs (100+ MA und deutlich mehr), daher ist meine Ansicht darüber eine andere aber hier sind auch andere Vorgaben aus dem Business an die IT als ein 5-Mann-Betrieb.
Moin
Was wären die Gründe denn??
Wir sichern inzwischen bei den meisten Kunden in die Cloud. Das komt dann natürlich auf die Datenmenge an. Ansonsten gibt es aber nichts Entspannteres, als das Sichern in die Cloud. In der Standardkonfig ist mein Backup maximal 4 Stunden alt. Wenn es um alte Backups geht, habe ich über mehrere Jahre immer noch pro Monat ein Backup vorliegen. Das in Verbindung mit einem lokalen Datenspeicher für schnelle Wiederherstellung funktioniert perfekt.
Ich persönlich bin froh, dass ich nur noch wenige Kunden habe, wo es das ganze Rumgetüdel mit Tapes und Festplatten gibt.
Die Daten sind AES-256 verschlüsselt. Wer also mit "Cloud = unsicher" argumentiert, der sollte dann auch sicher gehn und den Stecker zum Internet ziehen. Schluss mit Emails etc.
Nicht wirklich aber doch ein wenig "Off-Topic"... Hatte ich vor kurzem: Kundin sagt, das wäre ihr zu unsicher. Später stellt man fest: Auf Ihrem Mailpostfach ist als Passwort "manfred73" gesetzt. Das wäre ihr Sohn mit dem Geburtsjahr. Das könne sie sich merken.
Gruß
Was wären die Gründe denn??
Wir sichern inzwischen bei den meisten Kunden in die Cloud. Das komt dann natürlich auf die Datenmenge an. Ansonsten gibt es aber nichts Entspannteres, als das Sichern in die Cloud. In der Standardkonfig ist mein Backup maximal 4 Stunden alt. Wenn es um alte Backups geht, habe ich über mehrere Jahre immer noch pro Monat ein Backup vorliegen. Das in Verbindung mit einem lokalen Datenspeicher für schnelle Wiederherstellung funktioniert perfekt.
Ich persönlich bin froh, dass ich nur noch wenige Kunden habe, wo es das ganze Rumgetüdel mit Tapes und Festplatten gibt.
Die Daten sind AES-256 verschlüsselt. Wer also mit "Cloud = unsicher" argumentiert, der sollte dann auch sicher gehn und den Stecker zum Internet ziehen. Schluss mit Emails etc.
Nicht wirklich aber doch ein wenig "Off-Topic"... Hatte ich vor kurzem: Kundin sagt, das wäre ihr zu unsicher. Später stellt man fest: Auf Ihrem Mailpostfach ist als Passwort "manfred73" gesetzt. Das wäre ihr Sohn mit dem Geburtsjahr. Das könne sie sich merken.
Gruß
Was wäre das Problem bei der Kopie einer internen Platte? Ich habe die früher immer gescannt, um die SN zu dokumentieren wenn so ein Ding getauscht wurde. Habe natürlich das Label gescannt, nicht die Unterseite aber könnte ein Laserscanner der Elektronik wirklich etwas anhaben oder worauf zielst du ab?
Hubert.N 12.06.2025 aktualisiert um 16:35:33 Uhr
Moin
Zitat von @mossox:
Und Cloud Backups kommen für uns aus mehreren Gründen nicht in Betracht.
Was wären die Gründe denn??
Moin
Zitat von @mossox:
Und Cloud Backups kommen für uns aus mehreren Gründen nicht in Betracht.
Was wären die Gründe denn??
Warum muss er sich für seine Meinung rechtfertigen? Warum muß er die Gründe nennen?
Zitat von @Penny.Cilin:
Warum muss er sich für seine Meinung rechtfertigen? Warum muß er die Gründe nennen?
Weil ich vlt. selber etwas nicht bedacht habe?Warum muss er sich für seine Meinung rechtfertigen? Warum muß er die Gründe nennen?
Jeder hat seine eigene Meinung und das ist auch gut so. TO hat scheinbar selbst keine Vorurteile oder Bedenken bei Cloud, sondern nur die Geschäftsführung. Da ist dringend eine kleine Schulung nötig.
Es gibt zwar keine Infos zu der Infrastruktur der Firma aber ich bin sicher, dass mindestens ein Cloud-Dienst genutzt wird. Cloud in Bezug auf Backup ist oft nur als Speicherort (hier S3) zu verstehen. Die Backup-Sets sind idealerweise AES256 verschlüsselt und werden dann zum S3-Bucket übertragen. Das Bucket bzw. das ganze S3-Storage ist selbst auch noch verschlüsselt.
In einem 3-2-1 Szenario ist ein Cloud S3-Storage die günstige und einfachere Möglichkeit die "1" abzubilden.
Es gibt zwar keine Infos zu der Infrastruktur der Firma aber ich bin sicher, dass mindestens ein Cloud-Dienst genutzt wird. Cloud in Bezug auf Backup ist oft nur als Speicherort (hier S3) zu verstehen. Die Backup-Sets sind idealerweise AES256 verschlüsselt und werden dann zum S3-Bucket übertragen. Das Bucket bzw. das ganze S3-Storage ist selbst auch noch verschlüsselt.
In einem 3-2-1 Szenario ist ein Cloud S3-Storage die günstige und einfachere Möglichkeit die "1" abzubilden.
Da ist dringend eine kleine Schulung nötig.
Ich denke die Schulung wie man mit anderem Meinungen umgeht ist da an anderer stelle nötig. Ich finde sowas schon echt übergriffig, wenn man einfach so von aussen einer Geschäftsführung die Welt erklären will. Die GF hat entschieden, dann ist das da so.
Was Meinung dazu angeht, ob man eine Cloud als Backup-Ziel nutzen sollte: Auf gar keinen Fall. Die Kontrolle über die Daten ist nie gegeben. Ob die Daten ausspioniert werden könnten trotz super Verschlüsselung oder wegen anderer umstände nicht verfügbar sein könnten ist nun mal nicht von de Rand zu weisen. Ich gehe da eher nach dem Prinzip: Hat man seine Daten selbst, dann weiß man auch was man hat: Verlässlichkeit.
Ab einer nicht näher definierbaren Größenordnung ist ein Cloud-Backup eh unvorstellbar.
In einem 3-2-1 Szenario ist ein Cloud S3-Storage die günstige und einfachere Möglichkeit die "1" abzubilden.
Falsch. Die Günstigste ist, wenn man. die Sicherungsdatenträger mit nach Hause oder in eine andere Filiale nimmt. Schon vor 30 Jahren hatten wir in einem internen täglichen Botensystem Backups je zu anderen Filialen verbracht.
Kreuzberger
Hat man seine Daten selbst, dann weiß man auch was man hat: Verlässlichkeit.
Bis halt die Hardware die Grätsche macht. Defekte Datenträger sind ja jetzt nix neues. Man kann sich natürlich auch ein redundantes Spiegeluniversum basteln.Aber: Eine Cloud ist ja auch nix anderes, als Hardware an einem anderen Ort. Und selbst dort kann man völlige Datenhoheit erlangen. Von daher....
Also ganz nach Bömmel:
Aha, heute krieje mer de Klaut. Also, wat is en Klaut? Da stelle mehr uns janz dumm. Und da sage mer so: En Klaut, dat is ene jroße schwarze Schachtel, der hat hinten un vorn e Loch. Dat eine Loch, dat is de Füllung. Und dat andere Loch, dat krieje mer später.
@kreuzberger
Die GF des TO "verdreht die Augen" - das ist keine Meinung, das ist eine grundsätzliche und vermutlich unmotivierte Ablehnung. IdR ist die GF nicht IT affin und kennt nicht die Fakten.
Cloud als Backup-Ziel "auf gar keinen Fall"? Warum? Ich habe nicht empfohlen das Backup NUR in der Cloud abzulegen. Als Offsite-Ziel ist es ideal und wenn man möchte, kann man auch mehrfach Kopien bei unterschiedlichen S3-Anbietern ablegen.
Deine Paranoia muss übelst groß sein, dass du denkst oder annimmst, dass man die einfache bzw. doppelte Verschlüsselung der Backup-Sets knacken kann.
Deine Methode die Tapes nach Haus zu nehmen, ist schon oft ein Verstoß gegen Datenschutz & Sicherheit. Backup auf Tapes kann man machen, muss man aber nicht. Ist zwar günstig und haltbar aber auch langsam, nicht sofort verfügbar und bedarf einer entsprechenden Verwaltung und Lagerung. Tape-Backup allein ist selbst nach der ISO 27001 und DSGVO nicht ausreichend.
Und dann erinnere ich mich auch an die regelmässigen Backup-Restore-Tests. Was für ein Aufwand, nur um den Auditoren gerecht zu werden. Nee, danke. Muss ich nicht haben.
Die GF des TO "verdreht die Augen" - das ist keine Meinung, das ist eine grundsätzliche und vermutlich unmotivierte Ablehnung. IdR ist die GF nicht IT affin und kennt nicht die Fakten.
Cloud als Backup-Ziel "auf gar keinen Fall"? Warum? Ich habe nicht empfohlen das Backup NUR in der Cloud abzulegen. Als Offsite-Ziel ist es ideal und wenn man möchte, kann man auch mehrfach Kopien bei unterschiedlichen S3-Anbietern ablegen.
Deine Paranoia muss übelst groß sein, dass du denkst oder annimmst, dass man die einfache bzw. doppelte Verschlüsselung der Backup-Sets knacken kann.
Deine Methode die Tapes nach Haus zu nehmen, ist schon oft ein Verstoß gegen Datenschutz & Sicherheit. Backup auf Tapes kann man machen, muss man aber nicht. Ist zwar günstig und haltbar aber auch langsam, nicht sofort verfügbar und bedarf einer entsprechenden Verwaltung und Lagerung. Tape-Backup allein ist selbst nach der ISO 27001 und DSGVO nicht ausreichend.
Und dann erinnere ich mich auch an die regelmässigen Backup-Restore-Tests. Was für ein Aufwand, nur um den Auditoren gerecht zu werden. Nee, danke. Muss ich nicht haben.
Zitat von @kpunkt:
Und genau daher eben eine kleine Schulung um beizubringen, dass Cloud eben NICHT nur Microsoft/Google/Amazon ist.
Cloud ist viel mehr.
Und genau daher eben eine kleine Schulung um beizubringen, dass Cloud eben NICHT nur Microsoft/Google/Amazon ist.
Cloud ist viel mehr.
+1 Full Ack
Scheinbar selbst ITler wie kreuzberger wissen nicht was Cloud ist
Zitat von @kreuzberger:
Es ist doch egal wie die Klaut heisst, es ist entscheidend, dass die Verlässlichkeit nicht in der eigenen Hand liegt.
Kreuzberger
Es ist doch egal wie die Klaut heisst, es ist entscheidend, dass die Verlässlichkeit nicht in der eigenen Hand liegt.
Kreuzberger
Wow - also ein redundantes RZ eines S3-Anbieters, und ich rede hier explizit nicht von Google, AWS, Azure, dass über 3 oder mehr Standorte repliziert ist, ist nicht verlässlich genug? Dafür aber eine komplexe mechanische Tape-Library und empfindliche Magnetbänder.
Ich habe zw. 2007 und 2019 in drei Unternehmen mit DDS/DAT und LTO 3 bis LTO 7 zu tun gehabt. Die Libraries von klein mit 1 Tray bis 4 Trays, HPE, Dell, Fujitsu, IBM...
Die Anzahl von Störungen, Fehlern, mechanischen und elektronischen Defekten ist lang. Mindestens einmal die Woche Fehler im Backup wg. irgendwas in der Library oder dem Tape.
Mich würde ja eher interessieren von welchen Datenmengen die ganzen Cloud-Verfechter reden. Die meisten Cloud-Angebote sind so teuer, das lohnt sich einfach nicht.
Für kleine und mittlere Sicherungen reichen dann Festplatten mit auswärtiger Lagerung (Schließfach, Chef nimmt mit nach Hause, andere Filiale ...)
Und große Sicherungen müssen dann eben auf LTO laufen und die werden dann natürlich auch auswärtig gelagert.
Aber 10 TB Online-Speicher kosten doch sicher 4 - 5 k Euro im Jahr. Und das ist ja eher eine kleine bis mittlere Datenmenge.
Grade mal ein Beispiel rausgesucht: https://www.heise.de/download/specials/Die-10-besten-Cloud-Speicher-3149 ...
Für kleine und mittlere Sicherungen reichen dann Festplatten mit auswärtiger Lagerung (Schließfach, Chef nimmt mit nach Hause, andere Filiale ...)
Und große Sicherungen müssen dann eben auf LTO laufen und die werden dann natürlich auch auswärtig gelagert.
Aber 10 TB Online-Speicher kosten doch sicher 4 - 5 k Euro im Jahr. Und das ist ja eher eine kleine bis mittlere Datenmenge.
Grade mal ein Beispiel rausgesucht: https://www.heise.de/download/specials/Die-10-besten-Cloud-Speicher-3149 ...
Zitat von @mpanzi:
Mich würde ja eher interessieren von welchen Datenmengen die ganzen Cloud-Verfechter reden. Die meisten Cloud-Angebote sind so teuer, das lohnt sich einfach nicht.
Mich würde ja eher interessieren von welchen Datenmengen die ganzen Cloud-Verfechter reden. Die meisten Cloud-Angebote sind so teuer, das lohnt sich einfach nicht.
Heise hat Cloud-Speicher verglichen, die nicht S3 fähigh sind. Das sind nur "einfache" Cloud-Speicher.
Wir nutzen Wasabi als S3-Storage für Offsite-Backups. Aktuell sind es 7,35 TB im aktiven Speicher sowie 1,25 TB im Papierkorb. Zusammen also ~8,5 TB. Die letzte Rechnung war $64. Der Preis ist $6.99 pro TB/Monat. Dabei keine Egress-Kosten oder API-Calls.
Ich hab nur das erstbeste rausgesucht, was ich finden konnte.
Also 7 Euro/TB/Monat. Bei 10 TB sind das 70 Euro/Monat = 840,- Euro pro Jahr. Für läppische 10 TB, die viele kleine Handwerksbetriebe locker haben, weil sie viele Arbeiten mit Fotos dokumentieren.
Und wie sieht es mit der Historie aus? Wie läuft das mit dem Vater-Sohn-Prinzip bei Cloud? Dann muss ich meine ganzen alten Daten immer weiter mitschleppen, dann wird es bald eng mit 10 TB ... oder auf eine lokale HDD runterladen und die archivieren - wie ich das mit HDDs von Anfang an mache.
Ich finde Cloud ja nicht schlecht, nicht falsch verstehen. Ich halte die für zuverlässig und - bei entsprechendem Anbieter - auch sicher. Aber von den Kosten her nicht gerechtfertigt.
Also 7 Euro/TB/Monat. Bei 10 TB sind das 70 Euro/Monat = 840,- Euro pro Jahr. Für läppische 10 TB, die viele kleine Handwerksbetriebe locker haben, weil sie viele Arbeiten mit Fotos dokumentieren.
Und wie sieht es mit der Historie aus? Wie läuft das mit dem Vater-Sohn-Prinzip bei Cloud? Dann muss ich meine ganzen alten Daten immer weiter mitschleppen, dann wird es bald eng mit 10 TB ... oder auf eine lokale HDD runterladen und die archivieren - wie ich das mit HDDs von Anfang an mache.
Ich finde Cloud ja nicht schlecht, nicht falsch verstehen. Ich halte die für zuverlässig und - bei entsprechendem Anbieter - auch sicher. Aber von den Kosten her nicht gerechtfertigt.
@mpanzi
Die Kosten sind auch im direkten Vergleich zu Tape sehr niedrig. Eine Library allein reicht oft nicht aus, die muss an einen Server angeschlossen werden via iSCSI oder direkt über FC. Die kostet auch gebraucht einige Tausend Euro. Dazu einen Satz Bänder. Wenn man es konform umsetzen möchte, müssen die Tapes in einem anderen Brandabschnitt gelagert werden in einem Schrank/Safe der eine entsprechende Schutzklasse hat. Kostet wieder was. Dazu noch die Prozesse für Tape-Rotation.
Thema GFS bei S3-Cloud. Ganz einfach: gibt es nicht. S3 ist nur ein Speicherort. GFS macht die Backup-Software wie z.B. Veeam. Da werden dann je nach Richtlinie einzelne Backup-Punkte geflagged mit W, M oder Y für Woche, Monat, Jahr und entsprechend lange im Backup-Satz als unlöschbar/veränderbar gehalten.
Unsere Cloud-Kopien werden allerdings nur max. 30 Tage aufbewahrt und dann gelöscht bzw. überschrieben. Cloud dient als vierte Kopie der Daten, quasi nur als allerletzter Ort für DR, wenn der ganze Standort in einem Loch verschwindet.
Die Kosten sind auch im direkten Vergleich zu Tape sehr niedrig. Eine Library allein reicht oft nicht aus, die muss an einen Server angeschlossen werden via iSCSI oder direkt über FC. Die kostet auch gebraucht einige Tausend Euro. Dazu einen Satz Bänder. Wenn man es konform umsetzen möchte, müssen die Tapes in einem anderen Brandabschnitt gelagert werden in einem Schrank/Safe der eine entsprechende Schutzklasse hat. Kostet wieder was. Dazu noch die Prozesse für Tape-Rotation.
Thema GFS bei S3-Cloud. Ganz einfach: gibt es nicht. S3 ist nur ein Speicherort. GFS macht die Backup-Software wie z.B. Veeam. Da werden dann je nach Richtlinie einzelne Backup-Punkte geflagged mit W, M oder Y für Woche, Monat, Jahr und entsprechend lange im Backup-Satz als unlöschbar/veränderbar gehalten.
Unsere Cloud-Kopien werden allerdings nur max. 30 Tage aufbewahrt und dann gelöscht bzw. überschrieben. Cloud dient als vierte Kopie der Daten, quasi nur als allerletzter Ort für DR, wenn der ganze Standort in einem Loch verschwindet.
Wie schon gesagt. Bei 10 TB würde ich noch kein LTO in Betracht ziehen, sondern mit ext. HDDs arbeiten. Da sind die 840,- Euro/Jahr ziemlich viel.
Bei 100 TB wäre eine LTO sicher besser, da wäre dann der Preis für die Cloud bei 8.400,- Euro - jedes Jahr. Nach 5 Jahren sind das 42.000 Euro - da gibts schon ne Klasse Library für.
Bei 100 TB wäre eine LTO sicher besser, da wäre dann der Preis für die Cloud bei 8.400,- Euro - jedes Jahr. Nach 5 Jahren sind das 42.000 Euro - da gibts schon ne Klasse Library für.
Wie soll man die anders machen, wenn man mal von der Klaut absieht??
Hier und da mache ich das, indem ich ein SYNOLOGY mit ActiveBackupforBusiness sich automatische an- und ausschalten lasse und dann nur den Backupjob durchführen lasse, sonst ist es eben aus.
Ist nicht so richtig OfflineBackup, aber so halbwegs.
Kreuzberger
ich hab meine private Domain bei wint.global und am Wochenende gesehen, die bieten als oCloud Hosting Paket kostenlos 5 GB Cloud Speicher an (unabhängig vom Domain-Paket).
"Mit OCloud sind Sie und Ihre Daten auf der sicheren Seite, denn all Ihre Daten werden verschlüsselt gespeichert."
Hhhhhhmmmmmmmm...
"Mit OCloud sind Sie und Ihre Daten auf der sicheren Seite, denn all Ihre Daten werden verschlüsselt gespeichert."
Hhhhhhmmmmmmmm...
@mpanzi ein Backup-Volumen von 100 TB ist schon beachtlich. In der Regel werden die Daten dedupliziert und komprimiert, so dass am Ende oft ein Ratio von 1:5 oder mehr durchaus möglich ist. Bei uns z.B. ~20 Server VMs in einem Backup-Job sind brutto 7,54 TB aber das Backup-Set nur eine Größe von 940 GB. Hier ist laut Veeam ein Dedpu-Wert von 4.8x und bei Kompression 1.7x. Also insgesamt 1:8.1. Über alle Backup-Sets ist es "nur" ~1:5.3
Bei 100 TB Backup reden wir da von mindestens 400 TB und mehr auf der Server Seite. Das ist dann kein KMU mehr. Ich habe vor längerer Zeit für ein europäischen Konzern gearbeitet, das RZ war dabei in Deutschland. vSphere Cluster mit 8 produktiven Host und 4 Test/Entwicklungs Hosts, zwei redundante SAN. Ungefähr 140 produktive VMs und ca. 30 Test VMs. Backup Server hatte dazu ein eigenes SAN für die Zwischenspeicherung bevor es auf LTO 6 ging. Tägliche Sicherungen umfassten bis zu 15 LTO Bänder. Also ohne Dedup und Compress ~37 TB.
Wie bereits geschrieben, Cloud als Backup-Ziel ist manchmal sinnvoll. Wenn die Datenmenge aber sehr groß ist, dann ist der Flaschenhals das WAN.
Bei 100 TB Backup reden wir da von mindestens 400 TB und mehr auf der Server Seite. Das ist dann kein KMU mehr. Ich habe vor längerer Zeit für ein europäischen Konzern gearbeitet, das RZ war dabei in Deutschland. vSphere Cluster mit 8 produktiven Host und 4 Test/Entwicklungs Hosts, zwei redundante SAN. Ungefähr 140 produktive VMs und ca. 30 Test VMs. Backup Server hatte dazu ein eigenes SAN für die Zwischenspeicherung bevor es auf LTO 6 ging. Tägliche Sicherungen umfassten bis zu 15 LTO Bänder. Also ohne Dedup und Compress ~37 TB.
Wie bereits geschrieben, Cloud als Backup-Ziel ist manchmal sinnvoll. Wenn die Datenmenge aber sehr groß ist, dann ist der Flaschenhals das WAN.