Backup in die Cloud
Hallo zusammen,
wir planen unsere Daten zusätzlich dauerhaft in die Cloud zu sichern, weil es immer mühsamer wird, das externe Lagern von Sicherungsfestplatten sicherzustellen.
Wer hat schon Erfahrungen damit gemacht, etwas größere Datenmengen (ca. 20 TB) auszulagern?
Mit welchen Schwierigkeiten muss man rechnen? Welche Software macht so etwas zuverlässig im Hintergrund?
Welche Kosten enstehen?
Auf den ersten Blick scheint z. B. Amazon Glacier sehr günstig zu sein (0,013$/GB/Monat). Wer hat Erfahrungen mit Amazon, Microsoft oder anderen Anbietern in diesem Umfeld?
Wir wären für jeden Input dankbar.
wir planen unsere Daten zusätzlich dauerhaft in die Cloud zu sichern, weil es immer mühsamer wird, das externe Lagern von Sicherungsfestplatten sicherzustellen.
Wer hat schon Erfahrungen damit gemacht, etwas größere Datenmengen (ca. 20 TB) auszulagern?
Mit welchen Schwierigkeiten muss man rechnen? Welche Software macht so etwas zuverlässig im Hintergrund?
Welche Kosten enstehen?
Auf den ersten Blick scheint z. B. Amazon Glacier sehr günstig zu sein (0,013$/GB/Monat). Wer hat Erfahrungen mit Amazon, Microsoft oder anderen Anbietern in diesem Umfeld?
Wir wären für jeden Input dankbar.
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 258313
Url: https://administrator.de/forum/backup-in-die-cloud-258313.html
Ausgedruckt am: 24.12.2024 um 01:12 Uhr
13 Kommentare
Neuester Kommentar
Hi,
kann mich @SlainteMhath nur Anschließen.
Wir haben unsere LTO's im Bankschließfach.
Schneller, Sicherer, Datenschutz eingehalten
Gruß
kann mich @SlainteMhath nur Anschließen.
Wir haben unsere LTO's im Bankschließfach.
Schneller, Sicherer, Datenschutz eingehalten
Gruß
Moin.
Da ja mittlerweile alles, was "außerhäusig" betrieben wird, als "Cloud" bezeichnet wird - erst mal entwirren.
Amazon Glacier, Microsoft Azure & Co. sind tatsächlich Cloud-Dienste, die du prinzipiell von überall erreichen kannst - einerseits schön und praktisch, andererseits nicht mit dem deutschen Datenschutz vereinbar, weil die Daten Deutschland verlassen bzw. du das nicht verhindern oder gar deren Lagerort bestimmen kannst.
Es gibt aber sehr wohl seriöse Anbieter, die ein "Außer-Haus-Backup" anbieten, bei dem die Daten innerhalb Deutschlands bleiben, bei der Sicherung verschlüsselt werden (den Schlüssel behältst du) und bei denen auch der Transportweg selbst verschlüsselt ist; teilweise kannst du dir sogar aussuchen, ins welches Datacenter deine Daten gesichert werden und hast sogar die Option, dein Backup im Datacenter nochmals zu klonen (z.B. auf weiteren Storage in einem anderen Brandabschnitt).
Ich habe früher selbst mit einem Anbieter zusammengearbeitet, der die Software von Asigra eingesetzt hat - Marktführer in dem Bereich und zwar zu recht: Schnell, effizient, Retention-Policies nach meinen Wünschen, Agents für alle erdenklichen Backup-Quellen usw. Hat aber seinen Preis, mit 0,013$/GB wirst du da sicherlich nicht wegkommen (wobei der Preis pro GB natürlich mit wachsender Gesamtmenge der Daten fällt).
Was die Restore-Time betrifft:
Die Datacenter sind i.d.R. mit 10Gbit/s. oder mehr (redundant) angebunden, der Download von Daten kann also in Abhängigkeit der eigenen Internetanbindung vor Ort tatsächlich schneller sein wie das Hantieren mit Tapes/Platten. Selbst wenn keine Internetanbindung vor Ort besteht, kann der Anbieter die Daten innerhalb kürzester Zeit auf ne Platte kopieren (natürlich immer noch verschlüsselt) und per Kurier zu dir schicken/zur Abholung bereitstellen - auch einen solchen Fall habe ich schon hinter mir, hat seinerzeit prima geklappt.
Umgekehrt klappt das bei sehr großen Datenbeständen auch für das Initial-Backup, die Erst-Sicherung kann also auf Platten zum Dienstleister gebracht/von ihm abgeholt werden und über die Internet-Leitung laufen dann nur noch inkrementelle Backups; hier könntest du sogar ein Always-Incremental-Forever-Szenario realisieren, ebenso eine (revisionssichere) Langzeitarchivierung usw. Wie schon erwähnt, hat das seinen Preis, aber es funktioniert und erfüllt alle Standards, sowohl die der Banken als auch die der Datenschützer.
In meinem Fall hat ein solches Szenario das vorher dezentrale, lokale Backup verschiedener Standorte vollständig abgelöst: Keine Tapes und/oder Wechselplatten mehr, volle Kontrolle über eine zentrale Backup-Konsole über _alle!_ Backup-Jobs usw.
*Just my 5 Cent*
Cheers,
jsysde
Da ja mittlerweile alles, was "außerhäusig" betrieben wird, als "Cloud" bezeichnet wird - erst mal entwirren.
Amazon Glacier, Microsoft Azure & Co. sind tatsächlich Cloud-Dienste, die du prinzipiell von überall erreichen kannst - einerseits schön und praktisch, andererseits nicht mit dem deutschen Datenschutz vereinbar, weil die Daten Deutschland verlassen bzw. du das nicht verhindern oder gar deren Lagerort bestimmen kannst.
Es gibt aber sehr wohl seriöse Anbieter, die ein "Außer-Haus-Backup" anbieten, bei dem die Daten innerhalb Deutschlands bleiben, bei der Sicherung verschlüsselt werden (den Schlüssel behältst du) und bei denen auch der Transportweg selbst verschlüsselt ist; teilweise kannst du dir sogar aussuchen, ins welches Datacenter deine Daten gesichert werden und hast sogar die Option, dein Backup im Datacenter nochmals zu klonen (z.B. auf weiteren Storage in einem anderen Brandabschnitt).
Ich habe früher selbst mit einem Anbieter zusammengearbeitet, der die Software von Asigra eingesetzt hat - Marktführer in dem Bereich und zwar zu recht: Schnell, effizient, Retention-Policies nach meinen Wünschen, Agents für alle erdenklichen Backup-Quellen usw. Hat aber seinen Preis, mit 0,013$/GB wirst du da sicherlich nicht wegkommen (wobei der Preis pro GB natürlich mit wachsender Gesamtmenge der Daten fällt).
Was die Restore-Time betrifft:
Die Datacenter sind i.d.R. mit 10Gbit/s. oder mehr (redundant) angebunden, der Download von Daten kann also in Abhängigkeit der eigenen Internetanbindung vor Ort tatsächlich schneller sein wie das Hantieren mit Tapes/Platten. Selbst wenn keine Internetanbindung vor Ort besteht, kann der Anbieter die Daten innerhalb kürzester Zeit auf ne Platte kopieren (natürlich immer noch verschlüsselt) und per Kurier zu dir schicken/zur Abholung bereitstellen - auch einen solchen Fall habe ich schon hinter mir, hat seinerzeit prima geklappt.
Umgekehrt klappt das bei sehr großen Datenbeständen auch für das Initial-Backup, die Erst-Sicherung kann also auf Platten zum Dienstleister gebracht/von ihm abgeholt werden und über die Internet-Leitung laufen dann nur noch inkrementelle Backups; hier könntest du sogar ein Always-Incremental-Forever-Szenario realisieren, ebenso eine (revisionssichere) Langzeitarchivierung usw. Wie schon erwähnt, hat das seinen Preis, aber es funktioniert und erfüllt alle Standards, sowohl die der Banken als auch die der Datenschützer.
In meinem Fall hat ein solches Szenario das vorher dezentrale, lokale Backup verschiedener Standorte vollständig abgelöst: Keine Tapes und/oder Wechselplatten mehr, volle Kontrolle über eine zentrale Backup-Konsole über _alle!_ Backup-Jobs usw.
*Just my 5 Cent*
Cheers,
jsysde
@SlainteMhath:
Was hat du denn da für eine Verbindung?
Was hat du denn da für eine Verbindung?
@killtec
Das ist eine 10G Darkfibre Verbindung vom Rosa Riesen.
Das ist eine 10G Darkfibre Verbindung vom Rosa Riesen.
Guten Abend,
alsooo 20TB ist nicht viel heutzutage...
Es hängt grundsätzlich vom Datenwachstum und der Anzahl der Wiederherstellungen ab. Meist scheitert solch ein Projekt an der Uploadgeschwindigkeit. Denn da langen ISP inzwischen richtig zu. Ihr solltet intern erst einmal definieren, wie lange ein Stillstand dauern darf bzw. ein Disaster-Recovery eurer Umgebung. Damit merkt ihr schnell wo es hin geht.
Wollt mir mit der "Cloud"-Sicherung nur euren Datenbestand sichern oder auch ein Hot-Standby Rechenzentrum? Heißt bei Ausfall Storage 1 übernimmt Storage 2 ohne längere Unterbrechungen. Wir machen es ähnlich wie @SlainteMhath. Wir spiegeln in Echtzeit die Daten auf Storage 1 und 2. Bei Problemen oder sogar Ausfall übernimmt Storage 2 ansatzlos die Arbeiten.
Gruß,
Dani
alsooo 20TB ist nicht viel heutzutage...
Es hängt grundsätzlich vom Datenwachstum und der Anzahl der Wiederherstellungen ab. Meist scheitert solch ein Projekt an der Uploadgeschwindigkeit. Denn da langen ISP inzwischen richtig zu. Ihr solltet intern erst einmal definieren, wie lange ein Stillstand dauern darf bzw. ein Disaster-Recovery eurer Umgebung. Damit merkt ihr schnell wo es hin geht.
Wollt mir mit der "Cloud"-Sicherung nur euren Datenbestand sichern oder auch ein Hot-Standby Rechenzentrum? Heißt bei Ausfall Storage 1 übernimmt Storage 2 ohne längere Unterbrechungen. Wir machen es ähnlich wie @SlainteMhath. Wir spiegeln in Echtzeit die Daten auf Storage 1 und 2. Bei Problemen oder sogar Ausfall übernimmt Storage 2 ansatzlos die Arbeiten.
Gruß,
Dani