Ausfallsicherung eines Windows Server 2012-Groupshares
Guten Tag - und frohes Neues allerseits!
In den letzten, ruhigeren Tagen hatte ich Gelegenheit, das Notfallkonzept für unseren Fileserver zu überdenken.
Ausgangssituation:
Einschränkungen bisheriges Notfallkonzept:
Der Notfallplan soll auch umgesetzt werden können, wenn Admin verdienterweise einmal in Urlaub ist. Ich habe zwar eine bebilderte Anleitung erstellt, der unbedarfte Anwender dürfte dennoch hier und dort auf Probleme stoßen, die man selbst nicht für möglich halten würde. Kurzum: Das Verfahren ist insgesamt zu kompliziert. Hinzu kommt, dass wir aufgrund steigender Datenmenge demnächst zu RAID 5 wechseln müssen - wo unser schönes Notfallkonzept mit dem Festplattenausbau ohnehin nicht mehr funktioniert.
Überlegungen neues Notfallkonzept:
Der Datenbestand des Fileservers sollte idealerweise kontinuierlich auf ein Zweitsystem synchronisiert werden, welches im Falle eines Fileserver-Crashes übergangsweise in Betrieb genommen wird.
Wie ließe sich eine solche Synchronisierung auf ein Zweitsystem am besten realisieren?
Wie ist die „Best Practice“ für die Ausfallsicherung eines profanen Fileservers in einer Arbeitsgruppen-Umgebung? Wer hat mit der einen oder anderen Prozedur gute Erfahrungen gemacht?
Über Vorschläge aus der Community würde ich mich freuen!
Grüße in die Runde
Oliver
In den letzten, ruhigeren Tagen hatte ich Gelegenheit, das Notfallkonzept für unseren Fileserver zu überdenken.
Ausgangssituation:
- 20 Windows 10-PC
- Arbeitsgruppe
- Windows Server 2012, Software-RAID (Spiegelung 2 x 12 TB), Groupshare rund 10 TB
- Notfallplan für Serverausfall ohne Aussicht auf schnelle Wiederherstellung: Eine der RAID-Festplatten ausbauen und in einen Windows 10-Ersatz-PC einbauen, User einrichten (bereits vorbereitet), Freigabe einrichten, Ersatz-PC mit Rechnername und IP des Fileservers ausstatten => Bis zu 20 User können für die Zeit der Serverreparatur arbeiten und gehen dem Admin nicht auf die Nerven.
Einschränkungen bisheriges Notfallkonzept:
Der Notfallplan soll auch umgesetzt werden können, wenn Admin verdienterweise einmal in Urlaub ist. Ich habe zwar eine bebilderte Anleitung erstellt, der unbedarfte Anwender dürfte dennoch hier und dort auf Probleme stoßen, die man selbst nicht für möglich halten würde. Kurzum: Das Verfahren ist insgesamt zu kompliziert. Hinzu kommt, dass wir aufgrund steigender Datenmenge demnächst zu RAID 5 wechseln müssen - wo unser schönes Notfallkonzept mit dem Festplattenausbau ohnehin nicht mehr funktioniert.
Überlegungen neues Notfallkonzept:
Der Datenbestand des Fileservers sollte idealerweise kontinuierlich auf ein Zweitsystem synchronisiert werden, welches im Falle eines Fileserver-Crashes übergangsweise in Betrieb genommen wird.
Wie ließe sich eine solche Synchronisierung auf ein Zweitsystem am besten realisieren?
- Robocopy /mir in regelmäßigen Abständen? ... Die normale Datensicherung (nachts) über 10 TB dauert bei uns rund 45 Minuten. Falls wir mehrmals tagsüber sichern, würde die Betriebs-Performance unseres Fileservers wohl deutlich leiden. Außerdem wäre der Datenbestand immer „alt“ - und offene Dateien würden nicht mitgesichert.
- Windows Server-DFS-Replikation? ... Scheidet bei uns aus, weil keine Domäne/AD.
- AOMEI Backup Server? ... Habe ich keine Erfahrungen mit.
- Windows Failover Cluster? ... Habe ich ebenfalls keine Erfahrungen mit. Klingt teuer (2. Server-Betriebssystem erforderlich) und zunächst einmal kompliziert. AD obligatorisch?
- … ?
Wie ist die „Best Practice“ für die Ausfallsicherung eines profanen Fileservers in einer Arbeitsgruppen-Umgebung? Wer hat mit der einen oder anderen Prozedur gute Erfahrungen gemacht?
Über Vorschläge aus der Community würde ich mich freuen!
Grüße in die Runde
Oliver
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 637104
Url: https://administrator.de/forum/ausfallsicherung-eines-windows-server-2012-groupshares-637104.html
Ausgedruckt am: 07.04.2025 um 07:04 Uhr
31 Kommentare
Neuester Kommentar
Natürlich bedeutet eine "Ausfallsicherheit" zu bekommen das du nicht aktiv benötigte Resourcen laufen zu lassen.
Die brauchst du aber nicht zwecks dem AD alleine sondern schon zwecks dem Fileserver.
Denn sonst könntest du gleich sagen bei Ausfall stelle ich die Datensicher wieder her.
Ist eben immer ein Frage was der Ausfall kostet. Denn wenn 20 Leute mal 1-2 Stunden nicht arbeiten könnten geht das richtig in's Geld.
Das AD verhilft dir aber den Administrativen Aufwand zu minimieren bei erhöhter Sicherheit, wenn man es denn richtig macht.
Die Cals brauchst du natürlich nicht doppelt. Etwas zu einfach zu halten ist auch nicht die beste Lösung.
Beim DFS Ausfall sollte der Failover für dich "transparent" sein. Sprich im besten Fall merkst der Anwender nicht mal das was passiert ist.
Das mit deiner Robocopy Sicherung. Wie sind denn Trojaner, Feuer, Wasser oder Überspannungsschäden Abgesichert?
Die brauchst du aber nicht zwecks dem AD alleine sondern schon zwecks dem Fileserver.
Denn sonst könntest du gleich sagen bei Ausfall stelle ich die Datensicher wieder her.
Ist eben immer ein Frage was der Ausfall kostet. Denn wenn 20 Leute mal 1-2 Stunden nicht arbeiten könnten geht das richtig in's Geld.
Das AD verhilft dir aber den Administrativen Aufwand zu minimieren bei erhöhter Sicherheit, wenn man es denn richtig macht.
Die Cals brauchst du natürlich nicht doppelt. Etwas zu einfach zu halten ist auch nicht die beste Lösung.
Beim DFS Ausfall sollte der Failover für dich "transparent" sein. Sprich im besten Fall merkst der Anwender nicht mal das was passiert ist.
Das mit deiner Robocopy Sicherung. Wie sind denn Trojaner, Feuer, Wasser oder Überspannungsschäden Abgesichert?
Zitat von @robocop:
Hmmja - Domäne vs. Arbeitsgruppe: Wir wollen zunächst bei der Arbeitsgruppe bleiben, um den Aufbau so simpel wir möglich zu halten.
Hmmja - Domäne vs. Arbeitsgruppe: Wir wollen zunächst bei der Arbeitsgruppe bleiben, um den Aufbau so simpel wir möglich zu halten.
Leuchtet mir nicht ein. Es sei denn, es soll notfalls auch der Hausmeister oder die Putzfrau administrieren können.
Statt GPOs wird mal das ein oder andere Skript auf den Computern ausgeführt.
Und den Überblick darüber behält wer? Du? Deine Vertretung? Bei GPOs kannst Du zentral an einem Ort im Überblick, was wo angewendet wird.
Ansonsten kann ich zum Thema AD die Argumente von @wiesi200 nochmals unterstreichen.
* Da bei uns der Pfad zum Groupshare in einigen Anwendungen fest verdrahtet ist: Kann ich den Notfallserver, auf den per DFS synchronisiert wurde, mit dem Freigabenamen sowie den Netzdaten des (ausgefallenen) Fileservers versehen?
Bei einem Domänenbasieren DFS-Namespace wird der FQDN der Domäne (z.B. contoso.com) und dort die jeweilige Freigabe angesteuert. Hier ist es wichtig, dass sowohl Domänencontroller, DNS-Server, als auch DFS-Server redundant vorhanden sind. Der Namespace verweist auf das synchron gehaltene Verzeichnis (gleiche Freigabe auf mehreren Servern). Bei einen Server-Ausfall geht eigentlich alles ganz von allein, bzw. die Benutzer arbeiten dann auf dem noch laufenden weiter. Umbenannt werden muss da nichts.
Gruß
Alex
Zum Thema AD: Hier sehe ich ehrlich gesagt nicht wo die komplexität nennenswert erhöht wird. Du bist ja offentsichtlich schon vom Fileserver abhängig - damit hast du also schon gewisse Anforderungen. Wenn du jetzt also nen AD nutzt kommt da ggf. noch etwas DNS hinzu - ok. Dafür hast du es aber eben auch zentral verwaltet - sei es benutzerkonten oder generelle Einstellungen für die Clients. Du kannst auch mit lokalen Profilen arbeiten - aber spätestens wenn nen Rechner mal abschmiert werden es die Benutzer üblicherweise danken wenn man sagt "ok, neuer Rechner aber deine Daten sind gleich wieder da".
Ob du danach DFS nutzt ist eine andere Frage - du könntest natürlich auch sowas eben per RSYNC machen oder sogar per (eigenen) Cloud-Storage (z.B. Synology - und da halt den Ordner der Cloudstation als Freigabe machen). Hier würde ich aber ehrlich gesagt erst mal für ein RICHTIGES Backup sorgen (und nen Sync ist kein Backup!). Denn mittlerweile hätte ich mehr Angst davor das einer der Anwender mal wieder fröhlich auf die Mail-Exen rumhämmert und plötzlich der Server verschlüsselt ist als das die Hardware kaputt geht. Bei einer Verschlüsselung würde dir aber ja nen Sync nicht helfen da dein "Backup" ja auch verschlüsselt wäre.
Ob du danach DFS nutzt ist eine andere Frage - du könntest natürlich auch sowas eben per RSYNC machen oder sogar per (eigenen) Cloud-Storage (z.B. Synology - und da halt den Ordner der Cloudstation als Freigabe machen). Hier würde ich aber ehrlich gesagt erst mal für ein RICHTIGES Backup sorgen (und nen Sync ist kein Backup!). Denn mittlerweile hätte ich mehr Angst davor das einer der Anwender mal wieder fröhlich auf die Mail-Exen rumhämmert und plötzlich der Server verschlüsselt ist als das die Hardware kaputt geht. Bei einer Verschlüsselung würde dir aber ja nen Sync nicht helfen da dein "Backup" ja auch verschlüsselt wäre.
Hi,
an Lizenzkosten kommst du so nicht vorbei.
Wenn ich dein Text richtig lese dann würde ich erstmal den Fileserver Richtung virtueller Welt migrieren.
In dem Zug solltest dann zwei Mal Blech haben auf welchen hypervisoren daheim sind.
1.) Hyper-V ( ja hier braucht man eine windows Lizenz aber sehr wahrscheinlich benötigst du eh nur die Standard was nicht die Welt kostet) gibt's VM replika kostenlos dazu. Autofailover möglich. Sprich Server kaputt replika startet.
2.) VMware. Da du meiner Ansicht nach eh nicht an einem Backup vorbei kommst solltest du Mal Veeam anschauen. Auch hier gibt es replika in der Backup Software. Server pfutsch anderer starten und fertig.
Schlussendlich kommst um Lizenzen und Blech nicht Rum.
Ob ne Syno vllt. Replika kann weiß ich nicht.
Oder halt eine Acronis Cyber Infrastructure.
Immer im Hinterkopf behalten:
Kein Backup kein Mitleid.
Gruß
an Lizenzkosten kommst du so nicht vorbei.
Wenn ich dein Text richtig lese dann würde ich erstmal den Fileserver Richtung virtueller Welt migrieren.
In dem Zug solltest dann zwei Mal Blech haben auf welchen hypervisoren daheim sind.
1.) Hyper-V ( ja hier braucht man eine windows Lizenz aber sehr wahrscheinlich benötigst du eh nur die Standard was nicht die Welt kostet) gibt's VM replika kostenlos dazu. Autofailover möglich. Sprich Server kaputt replika startet.
2.) VMware. Da du meiner Ansicht nach eh nicht an einem Backup vorbei kommst solltest du Mal Veeam anschauen. Auch hier gibt es replika in der Backup Software. Server pfutsch anderer starten und fertig.
Schlussendlich kommst um Lizenzen und Blech nicht Rum.
Ob ne Syno vllt. Replika kann weiß ich nicht.
Oder halt eine Acronis Cyber Infrastructure.
Immer im Hinterkopf behalten:
Kein Backup kein Mitleid.
Gruß
Hi,
@wiesi200: sorry wenn ich falsch liege aber muss man die laufende VM nicht lizenzieren? Oder greift hier das 90 Tage Recht?
@wiesi200: sorry wenn ich falsch liege aber muss man die laufende VM nicht lizenzieren? Oder greift hier das 90 Tage Recht?
Da bei uns der Pfad zum Groupshare in einigen Anwendungen fest verdrahtet ist: Kann ich den Notfallserver, auf den per DFS synchronisiert wurde, mit dem Freigabenamen sowie den Netzdaten des (ausgefallenen) Fileservers versehen?
Du solltest die Anwendungen, wenn ihr denn DFS einführt, auf den DFS-Pfad umbiegen, damit das Konstrukt funktioniert. Ansonsten müsstest du den aktuellen Pfad zum Share als DFS-Freigabe einrichten und die Shares umbennen bzw. mit bisschen DNS das ganze zurecht biegen. Mach es also einmal richtig und du hast deine Ruhe, sprich:
- AD einrichten
- DFS einrichten
- Namespace erstellen
- Ordner im Namespace anlegen, Verlinkungen zu den Filern einrichten und Replikation aktivieren
- Dann die Systeme und Anwendungen entsprechend anpassen.
Wenn die verdrahteten Share-Pfade so kompliziert verdrahtet wurden, könntest du die alten Share-Pfade als DNS-Eintrag hinterlegen und auf den DFS-Server umlenken (CNAME).
Dir ist aber schon bewusst wieviele Risiken es gibt - und ganz nebenbei das auch die Versicherung dir da nicht viel bringt? Ok - nehmen wir den ganz einfachen Fall - du hast wirklich nen Trojaner gefangen UND die Versicherung prüft nich mal ob dein Schutz ausreichend war oder nicht (nennt sich kleingedrucktes). Ok, der Schaden wird ersetzt - bis du dann merkst das deine Kunden weglaufen weil die das Vertrauen verloren haben bzw. eure Dienstleistung (was immer ihr macht) nicht oder zu spät erbracht wurde. Also nein, die Versicherung beruhigt nicht, die ist nur ne Augenwischerei. Du kannst genausogut nen Duftbäumchen aufhängen und sagen das dich der Lavendelgeruch im Serverraum beruhigt.
Da sind die externen Datenträger in jedem Fall schon mal besser - und das ganze mit dem NAS ja auch (je nachdem welche Strategie ihr da so habt). Dann hast du aber ja auch schon die Ausfallsicherung - im Zweifel gibts eben den Zugriff aufs NAS und gut ist.
Da sind die externen Datenträger in jedem Fall schon mal besser - und das ganze mit dem NAS ja auch (je nachdem welche Strategie ihr da so habt). Dann hast du aber ja auch schon die Ausfallsicherung - im Zweifel gibts eben den Zugriff aufs NAS und gut ist.
Ich habe eher das Gefühl, dass du dir die Einrichtung einer AD-Struktur noch nicht zutraust und es deshalb ablehnst. Die ganzen Probleme, die du in diesem Thema aufgezählt hast, hättest du mit einer AD-Struktur lösen können. Angefangen bei dem Share und aufgehört beim einzelnen Client.
Gut, musst du natürlich nicht, aber dementsprechend sind deine Möglichkeiten eben eingeschränkt. Am Ende entscheidest du dich selbst. Ich persönlich bin ein fauler Admin. ALso nehme ich mir lieber anfangs bisschen Zeit, lese mich in Sachen ein und habe es später einfacher.
Gut, musst du natürlich nicht, aber dementsprechend sind deine Möglichkeiten eben eingeschränkt. Am Ende entscheidest du dich selbst. Ich persönlich bin ein fauler Admin. ALso nehme ich mir lieber anfangs bisschen Zeit, lese mich in Sachen ein und habe es später einfacher.
Also - fangen wir mal mit den Profilen an. Jetzt kommst du mitm Ersatz-Rechner - da is aber ja nix drauf (also vom Benutzer). GENAU da kommt das Profil ja ins Spiel: Benutzer meldet sich an, Profil wird am neuen Rechner geladen, sieht genauso aus wie vorher. Da gehts ja grad darum das am CLIENT was wegsemmelt - ob jetzt Netzteil oder ob da einfach ne Cola gepflegt übers Mainboard süffelt is egal ;).
Beim NAS dasselbe - die Idee wäre ja nicht alles aufm NAS zu haben sondern das NAS als Cloud-Server zu nutzen. D.h. Daten die geändert werden würde der Cloud-Service automatisch zum NAS syncen. Fällt dir das NAS aus - so what, is ja noch lokal aufm Server... Fällt der Server aus - ok, is alles aufm NAS. Fällt beides aus - naja, dann is nen Sch... Tag und ich würde eh nen Jobwechsel in Betracht ziehen :D
Und ja - das nennt sich bei Synology "CloudStation", gibt es aber bei fast jedem Hersteller... EIGENTLICH zwar für was anderes, aber sollte auch für sowas gehen... Nur bitte nochmal bedenken: Das ganze wäre nen Workaround für wenig Geld, eine vernünftige oder professionelle Lösung würde anders aussehen, dann aber eben auch Lizenzen und Hardware erfordern.
Beim NAS dasselbe - die Idee wäre ja nicht alles aufm NAS zu haben sondern das NAS als Cloud-Server zu nutzen. D.h. Daten die geändert werden würde der Cloud-Service automatisch zum NAS syncen. Fällt dir das NAS aus - so what, is ja noch lokal aufm Server... Fällt der Server aus - ok, is alles aufm NAS. Fällt beides aus - naja, dann is nen Sch... Tag und ich würde eh nen Jobwechsel in Betracht ziehen :D
Und ja - das nennt sich bei Synology "CloudStation", gibt es aber bei fast jedem Hersteller... EIGENTLICH zwar für was anderes, aber sollte auch für sowas gehen... Nur bitte nochmal bedenken: Das ganze wäre nen Workaround für wenig Geld, eine vernünftige oder professionelle Lösung würde anders aussehen, dann aber eben auch Lizenzen und Hardware erfordern.
Zitat von @Daemmerung:
Ich habe eher das Gefühl, dass du dir die Einrichtung einer AD-Struktur noch nicht zutraust und es deshalb ablehnst. Die ganzen Probleme, die du in diesem Thema aufgezählt hast, hättest du mit einer AD-Struktur lösen können. Angefangen bei dem Share und aufgehört beim einzelnen Client.
Gut, musst du natürlich nicht, aber dementsprechend sind deine Möglichkeiten eben eingeschränkt. Am Ende entscheidest du dich selbst. Ich persönlich bin ein fauler Admin. ALso nehme ich mir lieber anfangs bisschen Zeit, lese mich in Sachen ein und habe es später einfacher.
Ich habe eher das Gefühl, dass du dir die Einrichtung einer AD-Struktur noch nicht zutraust und es deshalb ablehnst. Die ganzen Probleme, die du in diesem Thema aufgezählt hast, hättest du mit einer AD-Struktur lösen können. Angefangen bei dem Share und aufgehört beim einzelnen Client.
Gut, musst du natürlich nicht, aber dementsprechend sind deine Möglichkeiten eben eingeschränkt. Am Ende entscheidest du dich selbst. Ich persönlich bin ein fauler Admin. ALso nehme ich mir lieber anfangs bisschen Zeit, lese mich in Sachen ein und habe es später einfacher.
Woran erkennt man einen guten Admin? Er sitzt im Office und liest nen Buch/Comic oder guckt Netflix... :D Denn wenn der gut ist läuft ja alles und er hat nix zu tun (und is nur dafür da wenns doch mal schief geht ;))
Hallo,
das ist dein Server nur virtuell.
Sprich an der Freigabetechnik ändert sich nichts für dich außer am Unterbau.
Aber was für dich vllt. besser wäre ist vielleicht jovianDSS von open-E. Ist Software defined Storage und genau für deine Einsatzzwecke + Snapshots + Mirroring etc. Kein Windows mehr nötig.
das ist dein Server nur virtuell.
Sprich an der Freigabetechnik ändert sich nichts für dich außer am Unterbau.
Aber was für dich vllt. besser wäre ist vielleicht jovianDSS von open-E. Ist Software defined Storage und genau für deine Einsatzzwecke + Snapshots + Mirroring etc. Kein Windows mehr nötig.
Zitat von @robocop:
Wir brauchten bei insgesamt 21 Rechnern bisher keinen DNS-Server, insofern haben wir aktuell keine Möglichkeit der Namensumlenkung. Aber guter Tipp, danke!
Wir brauchten bei insgesamt 21 Rechnern bisher keinen DNS-Server, insofern haben wir aktuell keine Möglichkeit der Namensumlenkung. Aber guter Tipp, danke!
Lass uns doch mal ehrlich sein. Du sagst das brauchen wir nicht und das macht es nur komplizierter usw.
Auch wenn es sich gemein anhört. Ich glaub du selber kannst nicht mehr oder traust es dir einfach nicht zu. Da du bei der Firma "Externer Dienstleister" bist was auch aus deinen anderen zwei Fragen hervorgeht tut mir dein Kunde eher leid.
Mein Tipp ist immer noch, mach es vernünftig. Das läuft dann und du musst dir keine Sorgen machen wenn du mal Urlaub hast.
Aber bei so Flickschusterwerk bin ich jetzt nicht dabei. Somit klinke ich mich hier aus, denn meine Vorschläge würdest du alle ablehnen.
Na dann gut.
du brauchst 2 Server. Da kommst du nicht drum rum wenn du einen Failover haben willst.
Variante 1:
Man könnte überlegen ob der Essentials für dich in Frage kommt. Die Benutzergrenze liegt hier bei 25, was mit persönlich zu knapp ist.
Aber "angeblich" kann man neuerdings 2 von denen betreiben. Diese stellen das AD und den Fileserver breit und könnten sich replizieren.
Müsste man aber noch genau prüfen.
Variante 2:
2 Hyper-V Server. Je nach Lizensierung kann man da drauf 2 Virtuelle Standard Instanzen betreiben mit Replica. 1x AD 1x Fileserver.
Oder 2 Hyper-V Core mit einem Essentials als Replica
Variante 3:
2 Hyper-V mit jeweils 2 Virtuellen Instanzen Hier AD und Fileserver getrennt. Fileserver Sync kann dann mit DFS und vielleicht Storage Space Replica laufen. Storage Space Replica ist recht neu und Erfahrungen fehlen mir. Hätte aber gewisse Vorteile, währ also zu Prüfen.
Gedanklich kann man da auch etwas mischen.
Zusätzlich:
Sicherung würd ich Richtung Bandlaufwerk gehen.
Dann kann man sich noch Gedanken machen über Daten Dedublizierung. Ganz toll währ noch ein eigener Backuprechner, der sich die Daten per Agent zieht. (mehr Schutz vor Verschlüsselungstrojaner) - Backup2Disc2Tape
Printserver Rolle kann man noch überlegen.
Hardware Raid.
Aber das währen dann die Sahnehäubchen, findet sich sicher noch mehr.
Sind aber jetzt auf die Gedanken auf die schnelle bei Läuft ein richtiger Hyper-V Cluster mit Redundanten SAN. Sprich meine Umgebung ist etwas größer.
Man müsste sich aber alles etwas genauer ansehen, welche Daten es sind, wie gearbeitet wird . Mich wunder z.b. das Datenbanken hier keine Rolle Spiel.
du brauchst 2 Server. Da kommst du nicht drum rum wenn du einen Failover haben willst.
Variante 1:
Man könnte überlegen ob der Essentials für dich in Frage kommt. Die Benutzergrenze liegt hier bei 25, was mit persönlich zu knapp ist.
Aber "angeblich" kann man neuerdings 2 von denen betreiben. Diese stellen das AD und den Fileserver breit und könnten sich replizieren.
Müsste man aber noch genau prüfen.
Variante 2:
2 Hyper-V Server. Je nach Lizensierung kann man da drauf 2 Virtuelle Standard Instanzen betreiben mit Replica. 1x AD 1x Fileserver.
Oder 2 Hyper-V Core mit einem Essentials als Replica
Variante 3:
2 Hyper-V mit jeweils 2 Virtuellen Instanzen Hier AD und Fileserver getrennt. Fileserver Sync kann dann mit DFS und vielleicht Storage Space Replica laufen. Storage Space Replica ist recht neu und Erfahrungen fehlen mir. Hätte aber gewisse Vorteile, währ also zu Prüfen.
Gedanklich kann man da auch etwas mischen.
Zusätzlich:
Sicherung würd ich Richtung Bandlaufwerk gehen.
Dann kann man sich noch Gedanken machen über Daten Dedublizierung. Ganz toll währ noch ein eigener Backuprechner, der sich die Daten per Agent zieht. (mehr Schutz vor Verschlüsselungstrojaner) - Backup2Disc2Tape
Printserver Rolle kann man noch überlegen.
Hardware Raid.
Aber das währen dann die Sahnehäubchen, findet sich sicher noch mehr.
Sind aber jetzt auf die Gedanken auf die schnelle bei Läuft ein richtiger Hyper-V Cluster mit Redundanten SAN. Sprich meine Umgebung ist etwas größer.
Man müsste sich aber alles etwas genauer ansehen, welche Daten es sind, wie gearbeitet wird . Mich wunder z.b. das Datenbanken hier keine Rolle Spiel.
DFS Arbeitet über LAN und hier ist auch je nach Arbeitsweise deines Kunden eine Schwäche zu sehen. Es gibt einen Zeitverzug. Das Problem hättest aber auch bei Robocopy. Wenn dein Kunde aus dem 10 TB Datenbestand immer nur vereinzelte Dateien verändert ist das nicht so das Problem.
Sollte er aber Aktiv mit einem kleinen Datenbestand arbeiten und diese den Ganzen Tag offen haben während der Rest ein Archiv darstellt währ's jetzt nicht so optimal. Hier der Gedanke mit dem Storage Space Replica. Problem der Standard Server kann das nur mit Partitionen bis zu 2 TB. Hier müsste man dann die Dateien aufteilen. Dann hat du eine Partition von Archiv Dateien die sich langsam repliziert und eine Partition von Aktiv Dateien die sich sehr Schnell repliziert.
Das Ganze passiert hier auch über aber min. 10 Gb InfiniBand gäb's Theoretisch auch noch. Gibt es gebraucht günstig. Selbst hab ich noch nicht damit gearbeitet.
Die Pull Sicherung über nen richtigen Backup Client erfolgt ja eben nicht über SMB und da es noch ne Pull Sicherung ist kannst du das per Firewall relativ gut absichern das man nicht von deinen Produktiv Servern auf das Backup System kommt. Tape hat noch den Vorteil das zwar das Laufwerk teuer ist die Datenträger vergleichsweise günstig und sehr robust. Zudem kann man das Idiotensicher aufbauen. Bei ist da nur noch wie Kasten wechseln beim Videorekorder. Altes Band in die Hülse neues in's Laufwerk und gut ist. Zumal die Bändern nicht wie ein Normaler Wechseldatenträger angesprochen werden können sondern über eine Passende Software.
Aber wie schon geschrieben, das sind dann noch die Feinheiten über die man sich mal Gedanken machen kann.
Gibt natürlich noch genügen andere Lösungen.
Läuft dann unter Software Defined Storage. Ein Beispiel wurde dir ja schon genannt.
Unter Linux gäb's auch Lösungen.
Mir ist bewusst das es von mir nicht nett war, vielleicht rüttelt es wach.
Sollte er aber Aktiv mit einem kleinen Datenbestand arbeiten und diese den Ganzen Tag offen haben während der Rest ein Archiv darstellt währ's jetzt nicht so optimal. Hier der Gedanke mit dem Storage Space Replica. Problem der Standard Server kann das nur mit Partitionen bis zu 2 TB. Hier müsste man dann die Dateien aufteilen. Dann hat du eine Partition von Archiv Dateien die sich langsam repliziert und eine Partition von Aktiv Dateien die sich sehr Schnell repliziert.
Das Ganze passiert hier auch über aber min. 10 Gb InfiniBand gäb's Theoretisch auch noch. Gibt es gebraucht günstig. Selbst hab ich noch nicht damit gearbeitet.
Die Pull Sicherung über nen richtigen Backup Client erfolgt ja eben nicht über SMB und da es noch ne Pull Sicherung ist kannst du das per Firewall relativ gut absichern das man nicht von deinen Produktiv Servern auf das Backup System kommt. Tape hat noch den Vorteil das zwar das Laufwerk teuer ist die Datenträger vergleichsweise günstig und sehr robust. Zudem kann man das Idiotensicher aufbauen. Bei ist da nur noch wie Kasten wechseln beim Videorekorder. Altes Band in die Hülse neues in's Laufwerk und gut ist. Zumal die Bändern nicht wie ein Normaler Wechseldatenträger angesprochen werden können sondern über eine Passende Software.
Aber wie schon geschrieben, das sind dann noch die Feinheiten über die man sich mal Gedanken machen kann.
Gibt natürlich noch genügen andere Lösungen.
Läuft dann unter Software Defined Storage. Ein Beispiel wurde dir ja schon genannt.
Unter Linux gäb's auch Lösungen.
Mir ist bewusst das es von mir nicht nett war, vielleicht rüttelt es wach.
Zitat von @Fabezz:
Hi,
bevor man hier aber noch weiter darüber nachdenkt sollte man generell erstmal wissen was genau schon am Start ist und was ggf. als Budget zur Verfügung steht. Dann könnte man ein Konzept erarbeiten.
Grüße
Das und wie schon geschrieben, um welche Daten handelt es sich. Wie Arbeitet der Kunde. Zudem welche genauen Anforderungen an die Ausfallsicherheit hat der Kunde usw. Wie sieht die Zukunft aus.Hi,
bevor man hier aber noch weiter darüber nachdenkt sollte man generell erstmal wissen was genau schon am Start ist und was ggf. als Budget zur Verfügung steht. Dann könnte man ein Konzept erarbeiten.
Grüße
Wobei jetzt die HyperV Replica Lösung mit einem Essentials von den Kosten her sehr überschaubar ist. "Günstiger" wird's nur mit Linux.
Und Doppelte Hardware braucht mann wenn man den so etwas überhaupt will. Da hilft alles drehen und wenden nix.
Mal eine blöde Frage: Wie sollte sich DFS sonst replizieren, wenn nicht über LAN?
Ob die Dateien geöffnet sind oder nicht, spielen nur bedingt eine Rolle. Mit einer gewissen Latenz werden die Daten von a nach b repliziert. Sollte die geöffnete Datei also auf dem DFS-Ordner gespeichert sein, dann wird sie auch repliziert, ganz egal, ob sie gerade geöffnet ist oder nicht. Wenn man regelmäßig speichert, werden dann auch die Änderungen neu repliziert.
Ob die Dateien geöffnet sind oder nicht, spielen nur bedingt eine Rolle. Mit einer gewissen Latenz werden die Daten von a nach b repliziert. Sollte die geöffnete Datei also auf dem DFS-Ordner gespeichert sein, dann wird sie auch repliziert, ganz egal, ob sie gerade geöffnet ist oder nicht. Wenn man regelmäßig speichert, werden dann auch die Änderungen neu repliziert.