wusa88
Goto Top

Anregung Datensicherung

Hallo zusammen,

ich habe eine allgemeine Frage zur Datensicherung.
Ich suche keine Software oder sonstiges, ich bin auf der Suche bzw. suche Anregungen wie ich unsere Datensicherung verbessern könnte.

Aktuell haben wir ca. 30-35 Server die kontrolliert werden.

Wir behelfen uns schon seit langem, mit einer einfache Liste die täglich abzuarbeiten ist.
Es fängt bei simplen Sachen wie den LEDs der HDDs an, bis hin zu den Logdateien, ob die Datenbank sauber gesichert wurde und ob diese auch sauber auf das RDX geschrieben wurde. Natürlich wird noch viel mehr kontrolliert, aber das nur mal als Anhaltspunkt.

Wir haben eine simple Liste, die jeden Tag enthält und von dem Mitarbeiter der die Datensicherung macht, wir der Tag abgehakt wenn alles in Ordnung ist.
Am Ende vom Monat ist die Liste voll und es wird eine Liste mit dem neuen Monat erstellt und es geht wieder von vorne los.
Bisher sind wir gut gefahren mit der Methode.

Mich würd einfach mal interessieren, ob und wie ihr die Datensicherung macht und wie diese Kontrolliert wird.
Mail verschicken bei Event XY machen wir bei verschiedenen NAS Systemen schon. Bei den Servern will ich das aber vermeiden.

Danke für den Input

Content-ID: 6198384080

Url: https://administrator.de/contentid/6198384080

Ausgedruckt am: 24.11.2024 um 04:11 Uhr

maretz
maretz 03.03.2023 um 08:49:17 Uhr
Goto Top
Nun - für Hardware gibt es ja zB. SNMP-Traps (oder abfragen per SNMP). Alternativ kannst du dir ja auch einfach nen Monitoring-Tool dafür bauen (bzw. falls nicht bereits von haus aus unterstützt). Manuell würde ich sowas heute nicht mehr machen weil die Chance viel zu hoch ist das Mitarbeiter XYZ beigeht und sagt "war ja alles OK" ohne wirklich zu schauen. Und grad bei Festplatten o.ä. Hardware kann der ja auch glaubhaft sagen das die eben ggf. 10 Sek. nachdem er gegangen ist kaputt gegangen is.
WoenK0
WoenK0 03.03.2023 um 08:49:35 Uhr
Goto Top
Wenn kein Emailversand gewünscht ist würde ich es übers Monitoring machen.
wusa88
wusa88 03.03.2023 um 08:52:37 Uhr
Goto Top
Das Risiko, dass etwas nach der Datensicherung passiert, ist mit bekannt.
Die nächste Frage ist, wenn man das ganze über ein Tool macht, muss das auch kontrolliert werden.

Dass ein Mitarbeiter sagt, "war ja alles Ok" und es war nicht ok, dann kann man gezielt auf diesen zugehen.

Monitoring Tool sehe ich in unserer Serverlandschaft schwierig. Einige Server sind in der DMZ. Andere Server sind in einigen Ländern.
em-pie
em-pie 03.03.2023 um 09:03:33 Uhr
Goto Top
Moin,

wie oben schon gesagt: manuelle Checklisten sind Mist. Spätestens, wenn Mitarbeiter A im Urlaub und B krank ist, fällt das ja auf die Füße, weil Mitarbeiter C nicht im "Daily-Business" die Dinge checkt.
Zitat von @wusa88:
Das Risiko, dass etwas nach der Datensicherung passiert, ist mit bekannt.
Die nächste Frage ist, wenn man das ganze über ein Tool macht, muss das auch kontrolliert werden.
Ja, aber dann meldet sich das Tool. Man definiert einen Soll-Zustand. Wird davon abgewichen, gibt es eine Mail/ SMS/ ... Zusätzlich kann man Im Brüo des Support-Teams nen großen Bildschirm aufhängen, der den Status anzeigt:
Bestenfalls ist alles grün ggf. sind manche Orange und aktiv werden muss man, wenn plötzlich etwas rotes erscheint (HDD-Reserve wurde angerissen, RAM + CPUs laufen schon seit 10 Minuten auf Maximum, SMART-Werte einer Disk im Storage werfen Fehler, Dienst XY ist beendet und deshalb kann keiner mehr arbeiten, ...)


Dass ein Mitarbeiter sagt, "war ja alles Ok" und es war nicht ok, dann kann man gezielt auf diesen zugehen.
Und wie willst du das beweisen: müssen die Kollegen beim Rundgang die Uhrzeiten protokollieren, an denen die die Systeme visuell gecheckt haben?

Monitoring Tool sehe ich in unserer Serverlandschaft schwierig. Einige Server sind in der DMZ. Andere Server sind in einigen Ländern.
Warum? LAN -> DMZ ist doch OK. kritisch ist doch DMZ -> LAN
Ggf. ein Subsystem des Monitoring-Tools in die DMZ stellen. das Hauptsystem holt dann die Infos gebündelt ab, um nicht alle 30 Server, je 20 Dienste in der DMZ selbst abfragen zu müssen.
monstermania
Lösung monstermania 03.03.2023 um 09:05:38 Uhr
Goto Top
Zitat von @wusa88:
Monitoring Tool sehe ich in unserer Serverlandschaft schwierig. Einige Server sind in der DMZ. Andere Server sind in einigen Ländern.

Wir haben > 130 Standorte, die wir monitoren. (> 400 Server, > 200 Switche, diverse NAS, Klimanlagen, USV, usw.)
Wir nutzen dafür Zabbix.

PS: Meldungen gibt es nur, wenn etwas nicht funktioniert. face-wink
wusa88
wusa88 03.03.2023 um 09:10:14 Uhr
Goto Top
wie oben schon gesagt: manuelle Checklisten sind Mist. Spätestens, wenn Mitarbeiter A im Urlaub und B krank ist, fällt das ja auf die Füße, weil Mitarbeiter C nicht im "Daily-Business" die Dinge checkt.
Das gibt es in unserem Fall nicht, da alle Mitarbeiter wöchentlich durchgewechselt werden, die Datensicherung zu machen, damit hier keiner den Faden verliert.

Ja, aber dann meldet sich das Tool. Man definiert einen Soll-Zustand. Wird davon abgewichen, gibt es eine Mail/ SMS/ ... Zusätzlich kann man Im Brüo des Support-Teams nen großen Bildschirm aufhängen, der den Status anzeigt:
Guter Ansatz mit dem großen Bildschirm das würde mir gefallen.
Bestenfalls ist alles grün ggf. sind manche Orange und aktiv werden muss man, wenn plötzlich etwas rotes erscheint (HDD-Reserve wurde angerissen, RAM + CPUs laufen schon seit 10 Minuten auf Maximum, SMART-Werte einer Disk im Storage werfen Fehler, Dienst XY ist beendet und deshalb kann keiner mehr arbeiten, ...)


Dass ein Mitarbeiter sagt, "war ja alles Ok" und es war nicht ok, dann kann man gezielt auf diesen zugehen.
Und wie willst du das beweisen: müssen die Kollegen beim Rundgang die Uhrzeiten protokollieren, an denen die die Systeme visuell gecheckt haben?
Nein Uhrzeit wird nicht protokolliert. Aber die erste Amtshandlung bei Arbeitsbeginn ist, die Datensicherung zu machen. Hier gibt es kein Wenn und Aber. Keinerlei Ausnahme. Erst Datensicherung dann alles andere.

Warum? LAN -> DMZ ist doch OK. kritisch ist doch DMZ -> LAN
Ggf. ein Subsystem des Monitoring-Tools in die DMZ stellen. das Hauptsystem holt dann die Infos gebündelt ab, um nicht alle 30 Server, je 20 Dienste in der DMZ selbst abfragen zu müssen.

Ok das klingt soweit eigentlich gut, obwohl ich eigentlich kein separates System haben wollte.
Welche Vorschläge hättet ihr für ein Monitoring System.
Das sowas bei uns noch nie im Einsatz war, würde ich gerne erstmal kostenlos starten um die ersten Eindrücke zu sammeln.
em-pie
Lösung em-pie 03.03.2023 um 09:21:50 Uhr
Goto Top
Ok das klingt soweit eigentlich gut, obwohl ich eigentlich kein separates System haben wollte.
Welche Vorschläge hättet ihr für ein Monitoring System.
Das sowas bei uns noch nie im Einsatz war, würde ich gerne erstmal kostenlos starten um die ersten Eindrücke zu sammeln.
Beispielsweise:
Wir nutzen dafür Zabbix.
Das ist in der initialen Einrichtung recht komfortabel und läuft unter jedem Linux.
Wir nutzen Nagios - kleine Debian VM und gut. Wird vermutlich auch auf einem Raspi laufen (nicht getestet)

Nagios kannst du aufteilen: https://assets.nagios.com/downloads/general/docs/Distributed_Monitoring_ ...
Zabbix auch https://www.zabbix.com/distributed_monitoring

Neben diesen Systemen gibt es noch PRTG, Icinga, Check_MK, ...

Alle kann man (kostenlos) testen...
wusa88
wusa88 03.03.2023 um 09:29:28 Uhr
Goto Top
Perfekt, Danke.

Dann werde ich mir bei einer ruhigen Minute mal die 2 System ansehen und einfach mal eins testen.
2423392070
2423392070 03.03.2023 um 09:34:37 Uhr
Goto Top
Wir haben ein logisches Blocksystem über mindestens zwei Nodes als Cluster. In den Clustern liegen verschiedene Dateisysteme von unzähligen Systemen.
Die Blöcke werden per iSCSI nach Mitteldeutschland synchronisiert, dort depupliziert und komprimiert. Die LUNs werden zu toten Daten auf Spindeln.

Wir haben Snapshots bis auf 300 Sekunden und je nach Delta ist der Snapshot wenige Sekunden später synchron mit der Off-Site.

Das zurückspielen der LUNs geht auch in Sekunden bis Minuten.

Das Schema wird mit der jetzigen Anschaffungsorgie auf alle Regionen außer China ausgerollt.

IP-based Backup war nicht effizient und so ist der Großteil auf das Storage verlagert worden.
maretz
maretz 03.03.2023 um 09:54:34 Uhr
Goto Top
Zitat von @wusa88:

Das Risiko, dass etwas nach der Datensicherung passiert, ist mit bekannt.
Die nächste Frage ist, wenn man das ganze über ein Tool macht, muss das auch kontrolliert werden.

Dass ein Mitarbeiter sagt, "war ja alles Ok" und es war nicht ok, dann kann man gezielt auf diesen zugehen.

Monitoring Tool sehe ich in unserer Serverlandschaft schwierig. Einige Server sind in der DMZ. Andere Server sind in einigen Ländern.

Und DAS ist bei dir schwer? Meine Server schwimmen durch die Gegend - und Monitoring is kein Problem.. Im zweifel über Zabbix-Agent/Zabbix-Proxy und fertig...
wusa88
wusa88 03.03.2023 um 09:57:58 Uhr
Goto Top
Das war nur ein Beispiel.
Wir haben verschiedene Netze von DMZ bis komplett abgekoppelt. Auch einige Netzte sind nur intern und keinerlei physische Verbindung zu anderen Netzwerken.
2423392070
2423392070 03.03.2023 um 10:02:31 Uhr
Goto Top
Zitat von @wusa88:

Das war nur ein Beispiel.
Wir haben verschiedene Netze von DMZ bis komplett abgekoppelt. Auch einige Netzte sind nur intern und keinerlei physische Verbindung zu anderen Netzwerken.

Und einen bunten Kräutergarten an Storage?
Looser27
Looser27 03.03.2023 um 10:05:14 Uhr
Goto Top
Moin,

für Nagios und die Grundkonfiguration habe ich mal was vorbereitet:

Ubuntu 14.04. LTS Server - Nagios installieren und einrichten

Läuft auch auf neueren Ubuntu-Versionen .

Gruß

Looser
nachgefragt
nachgefragt 03.03.2023 aktualisiert um 10:44:33 Uhr
Goto Top
Wir nutzen seit ein paar Monaten Zabbix und Observium auf Ubuntu Server (für absolute Linux Einsteiger machbar), davor PRTG.
Alternative für PRTG für Windows Server - IT Monitoring

  • Observium für alles was per SNMP geht, weil es einfach perfekt dafür ist. Für z.B. Festplattenverschleißmeldungen,... bedarf es keine ILO Lizenz mehr,... .
  • Zabbix per Agent für Windows Systeme, damit auch Dienste überwacht werden können.
  • Wenn die Datensicherung nicht klappt meldet sich die Software (z.B. Veeam) von selbst.
em-pie
em-pie 03.03.2023 aktualisiert um 10:47:08 Uhr
Goto Top
Wenn die Datensicherung nicht klappt meldet sich die Software (z.B. Veeam) von selbst.
Das bei uns im übrigen auch, denn an den VEEAM-Server kommt keiner, außerhalb des ihm zugewiesenen VLANs, dran. Somit muss man sich vor der (virtuellen) Konsole befinden, um die Kiste administrieren zu können.

https://bp.veeam.com/vbr/Security/infrastructure_hardening.html
maretz
maretz 03.03.2023 um 12:20:01 Uhr
Goto Top
Zitat von @wusa88:

Das war nur ein Beispiel.
Wir haben verschiedene Netze von DMZ bis komplett abgekoppelt. Auch einige Netzte sind nur intern und keinerlei physische Verbindung zu anderen Netzwerken.

nun - wenn du ein system hast was komplett offline ist gehts da halt nur manuell... wenn du aber schon mal 75% automatiseren kannst is ja auch schon was weg... Und ein komplett abgekapseltes System ist ja dann doch eher selten, idR. hast du es ja nur so gekapselt das eben nich alles rankommt. Damit kannst du aber natürlich dann auch nen Monitoring zulassen - eben zumindest per SNMP auf der Hardware...

Die Sache ist doch einfach: Du fragst nach Vorstellungen wie man das besser machen kann.. Die Antworten hast du hier - wenn du sagst das du das bei dir nicht kannst (oder willst) ist das ja auch OK. Es kann ja sein das du auch die manuelle Version bevorzugst weil so eben die Leute beschäftigt sind und auch nen bisserl Bewegung haben. Ob das dann "optimal" ist kannst eben nur du beurteilen.
tech-flare
tech-flare 03.03.2023 aktualisiert um 20:58:32 Uhr
Goto Top
Also ich verstehe das Problem nicht.


Monitoring aufbauen und weg mit den manuellen Kosten.

Ich kann dir zabbix empfehlen, aber es gibt natürlich viele weitere.

Und da spielt es keine Rolle, ob DMZ oder sonst was.

Zumal… wirklich richtig abgekapselt? Kein Routing? Kein Internet Zugriff? Wirklich gar nichts? Dann kannst du zumindest über IRMC/IPMI/iDRAC die Hardware vom Blech Monitoren.

Unsere vmhost mit 1500 Server stehen auch weltweit verteilt und wir haben auch ein Monitoring und einigen Kollegen hier haben vermutlich noch viel größere Umgebungen.

Ps.: selbst bei 10 VM zu Hause lohnt sich ein Monitoring