149680
15.08.2022
4288
7
0
Richtige Backup Strategie
Hallo Community,
ich bin aktuell am überlegen wie ich meinen kleinen aber feinen Homeserver (ubuntu) am besten backupen und im fehlerfall restoren kann.
Ich sehe für mich aktuell zwei Usecases:
1. HDD ist defekt und muss getauscht werden
In diesem Fall ist es aus meiner Sicht am einfachsten eine komplette Sicherung des Servers zu haben. Im Restorefall Ubuntu neu aufsetzen und einfach das Backup zurückspielen. Im einfachsten FAll liegen die Daten auf einer externen HDD die entsprechend auf dem neuen System gemountet werden kann. Hier habe ich rsync ins Auge gefasst, weiß aber nicht ob ich eine Art Timeline abbilden kann nach dem Motto, ich kann 4 WOchen zurück, nach 4 WOchen wird immer das dann zu alte Backup gelöscht
2. Einzelne Sicherung meiner Docker Volumes
Hier ist mehr der Case, dass ich mal wieder etwas kaputt gespielt habe aber insb. auch meine Nextcloud daten möchte ich in diesem Case separat sichern um z.B.: auf unabsichtig gelöschte Daten zurückzugreifen oder eben wie gesagt nur einzelne Volumes wiederherstellen zu können und nicht das ganze System. Da ich Webinterfaces und Docler Container ganz schick finde habe ich hier Duplicati ins Auge gefasst. Machbar? Alternativen?
Danke für euer Feedback.
ich bin aktuell am überlegen wie ich meinen kleinen aber feinen Homeserver (ubuntu) am besten backupen und im fehlerfall restoren kann.
Ich sehe für mich aktuell zwei Usecases:
1. HDD ist defekt und muss getauscht werden
In diesem Fall ist es aus meiner Sicht am einfachsten eine komplette Sicherung des Servers zu haben. Im Restorefall Ubuntu neu aufsetzen und einfach das Backup zurückspielen. Im einfachsten FAll liegen die Daten auf einer externen HDD die entsprechend auf dem neuen System gemountet werden kann. Hier habe ich rsync ins Auge gefasst, weiß aber nicht ob ich eine Art Timeline abbilden kann nach dem Motto, ich kann 4 WOchen zurück, nach 4 WOchen wird immer das dann zu alte Backup gelöscht
2. Einzelne Sicherung meiner Docker Volumes
Hier ist mehr der Case, dass ich mal wieder etwas kaputt gespielt habe aber insb. auch meine Nextcloud daten möchte ich in diesem Case separat sichern um z.B.: auf unabsichtig gelöschte Daten zurückzugreifen oder eben wie gesagt nur einzelne Volumes wiederherstellen zu können und nicht das ganze System. Da ich Webinterfaces und Docler Container ganz schick finde habe ich hier Duplicati ins Auge gefasst. Machbar? Alternativen?
Danke für euer Feedback.
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 3658931929
Url: https://administrator.de/contentid/3658931929
Ausgedruckt am: 22.11.2024 um 18:11 Uhr
7 Kommentare
Neuester Kommentar
Nabend.
Ich sichere auch Linux Server mit dem kostenlosen Veeam Agent, wenn es keine VMs sind.
Das funktioniert zuverlässig.
Auch ein einfaches dd Image kann dir den Hintern retten.
Eine RSync Sicherung der Daten für eine schnelle Wiederherstellung schadet auf jeden Fall nicht.
Also entweder ein paar externe SSD/HDD im Wechsel anstöpseln oder ein Einsteiger-NAS von QNAP oder Synology anschaffen.
Gruß
Marc
Ich sichere auch Linux Server mit dem kostenlosen Veeam Agent, wenn es keine VMs sind.
Das funktioniert zuverlässig.
Auch ein einfaches dd Image kann dir den Hintern retten.
Eine RSync Sicherung der Daten für eine schnelle Wiederherstellung schadet auf jeden Fall nicht.
Also entweder ein paar externe SSD/HDD im Wechsel anstöpseln oder ein Einsteiger-NAS von QNAP oder Synology anschaffen.
Gruß
Marc
Kannst dir ja mal borgbackup anschauen: https://www.borgbackup.org/
Gibt bei ubuntuusers ein Skript, das du als Grundlage für dein Backup verwenden kannst.
Damit kannst du deine Daten dedupliziert auf eine externe Festplatte sichern und bei Bedarf einzelne Dateien oder ganze System zurücksichern.
Gibt bei ubuntuusers ein Skript, das du als Grundlage für dein Backup verwenden kannst.
Damit kannst du deine Daten dedupliziert auf eine externe Festplatte sichern und bei Bedarf einzelne Dateien oder ganze System zurücksichern.
Borg Backup ist gut, weil es viel redundante Daten spart. Nimm das, wenn Backup-Größe ein Thema ist oder du ein System haben willst, was einfach funktioniert. Kenne es selber allerdings nur von der Theorie.
Veeam Backup hab ich mir mal für Windows angeschaut, war mega-überladen. Macht bei einem einzelnen Rechner mMn wenig Sinn.
Ein dd image ist super, außer die Platte läuft gerade. Bei ner Systemfestplatte würd ich die Finger davonlassen, bei ner reinen Datenplatte solltest du halt grad keine offenen Dateien haben. Der große Nachteil ist, dass du die ganze Partition sichern musst, egal wie viel davon ungenutzt ist.
Ich setze auf rsnapshot. Ich erzähl dir mal wie ich das genau mache und du schaust, was davon zu dir passt.
Mein Backupstrategie schützt mich, wenn eine einzelne Festplatte von heute auf morgen kaputt geht (oder ich Daten aus Versehen lösche, oder eine Ransomware alle Daten verschlüsselt). Ein *pre-run* Bash Script schaltet per curl eine Shelly Plug S WLAN-Steckdose ein, wodurch eine externe Festplatte hochfährt. Das Script entschlüsselt die Festplatte, mounted sie und rsync legt los. Es speichert ein Set aus Verzeichnissen (include-filelist) mit Ausnahme einiger Unterorder (exclude-filelist) komplett auf die Backup-Festplatte. Dann läuft das *post-run* Script, was sich um das unmounten, auswerfen und komplette ausschalten der Festplatte kümmert. Damit ist die Festplatte vom System wieder vollständig getrennt.
rsnapshot arbeitet mit Hardlinks. Heißt: wenn bspw. in meiner rsnapshot config steht:
dann kann ich jederzeit ein Backup der letzten 7 Tage wiederherstellen. Wenn ich weiter zurückwill, habe ich nur die letzten 4 Wochen und noch weiter zurück 6 Monate (https://de.wikipedia.org/wiki/Generationenprinzip). Also 17 einzelne, vollwertige Backups. Du musst also nicht wie bei inkrementeller oder differenzieller Datensicherung erst das vollständige Backup einspielen.
rsnapshot und die Scripte empfehle ich dir, wenn du volle Kontrolle willst. Bsp. lasse ich mich auch per Mail und Telegram-Bot benachrichtigen, wenn etwas schiefgelaufen ist.
rsnapshot richtest du einmal in der config ein, dann läuft es automatisch und du hast ab einem gewissen Zeitpunkt immer deine (in diesem Beispiel) 17 Backups. Das älteste Backup wird gelöscht. Musst dafür selber die cronjobs erstellen. Und ob du die Zyklen daily, weekly, monthly oder alpha, beta, gamma nennst, ist egal. Mir genügen bspw. weekly und monthly Backups. Durch die Flexibilität mit Cronjobs kannst du deine daily Backups auch z.B. nur 3 mal die Woche laufen lassen.
Da fällt mir ein, ich muss nochmal prüfen, wie das mit den Berechtigungen auf der Backupfestplatte ist. Nur der rsync Prozess sollte Schreibberechtigungen haben. Denn wenn theoretisch in dem Moment, wo sie eingehängt ist, eine Ransomware laufen würde...
Ich glaub ich hab genug geschrieben, bei Fragen gerne mehr.
Veeam Backup hab ich mir mal für Windows angeschaut, war mega-überladen. Macht bei einem einzelnen Rechner mMn wenig Sinn.
Ein dd image ist super, außer die Platte läuft gerade. Bei ner Systemfestplatte würd ich die Finger davonlassen, bei ner reinen Datenplatte solltest du halt grad keine offenen Dateien haben. Der große Nachteil ist, dass du die ganze Partition sichern musst, egal wie viel davon ungenutzt ist.
Ich setze auf rsnapshot. Ich erzähl dir mal wie ich das genau mache und du schaust, was davon zu dir passt.
Mein Backupstrategie schützt mich, wenn eine einzelne Festplatte von heute auf morgen kaputt geht (oder ich Daten aus Versehen lösche, oder eine Ransomware alle Daten verschlüsselt). Ein *pre-run* Bash Script schaltet per curl eine Shelly Plug S WLAN-Steckdose ein, wodurch eine externe Festplatte hochfährt. Das Script entschlüsselt die Festplatte, mounted sie und rsync legt los. Es speichert ein Set aus Verzeichnissen (include-filelist) mit Ausnahme einiger Unterorder (exclude-filelist) komplett auf die Backup-Festplatte. Dann läuft das *post-run* Script, was sich um das unmounten, auswerfen und komplette ausschalten der Festplatte kümmert. Damit ist die Festplatte vom System wieder vollständig getrennt.
rsnapshot arbeitet mit Hardlinks. Heißt: wenn bspw. in meiner rsnapshot config steht:
daily 7
weekly 4
monthly 6
dann kann ich jederzeit ein Backup der letzten 7 Tage wiederherstellen. Wenn ich weiter zurückwill, habe ich nur die letzten 4 Wochen und noch weiter zurück 6 Monate (https://de.wikipedia.org/wiki/Generationenprinzip). Also 17 einzelne, vollwertige Backups. Du musst also nicht wie bei inkrementeller oder differenzieller Datensicherung erst das vollständige Backup einspielen.
rsnapshot und die Scripte empfehle ich dir, wenn du volle Kontrolle willst. Bsp. lasse ich mich auch per Mail und Telegram-Bot benachrichtigen, wenn etwas schiefgelaufen ist.
rsnapshot richtest du einmal in der config ein, dann läuft es automatisch und du hast ab einem gewissen Zeitpunkt immer deine (in diesem Beispiel) 17 Backups. Das älteste Backup wird gelöscht. Musst dafür selber die cronjobs erstellen. Und ob du die Zyklen daily, weekly, monthly oder alpha, beta, gamma nennst, ist egal. Mir genügen bspw. weekly und monthly Backups. Durch die Flexibilität mit Cronjobs kannst du deine daily Backups auch z.B. nur 3 mal die Woche laufen lassen.
Da fällt mir ein, ich muss nochmal prüfen, wie das mit den Berechtigungen auf der Backupfestplatte ist. Nur der rsync Prozess sollte Schreibberechtigungen haben. Denn wenn theoretisch in dem Moment, wo sie eingehängt ist, eine Ransomware laufen würde...
Ich glaub ich hab genug geschrieben, bei Fragen gerne mehr.
Wie sähe es denn mit RAID an der Stelle aus? Einen Hardware Controller hast du ja wahrscheinlich nicht an Board, aber Software RAID ist besser zum HDD Ausfallschutz als LVM.
Es klingt in jedem Fall nach mehr Arbeit als es am Ende gebracht hätte mit unsicherem Ausgang:
https://superuser.com/questions/880628/lvm-recovery-with-a-failing-disk
Wäre eventuell TrueNAS oder Proxmox mit ZFS eine Variante, wie du etwas besser unterwegs sein könntest.
Für ein Homelab / Heimserver wäre da mit Sicherheit das ein oder andere zu lernen als Abfallprodukt
Gruß
Marc
Es klingt in jedem Fall nach mehr Arbeit als es am Ende gebracht hätte mit unsicherem Ausgang:
https://superuser.com/questions/880628/lvm-recovery-with-a-failing-disk
Wäre eventuell TrueNAS oder Proxmox mit ZFS eine Variante, wie du etwas besser unterwegs sein könntest.
Für ein Homelab / Heimserver wäre da mit Sicherheit das ein oder andere zu lernen als Abfallprodukt
Gruß
Marc