linux09
Goto Top

Logserver Logs ausrechnen

Hallo Zusammen,

Ich bin gerade dabei einen zentralen Logserver für meine Firma einzurichten (würde sagen kleines bis mittleres Unternehmen). 200 Server, 300 Netzwerkkomponenten. Alle gerade genannten Komponenten sollen an den zentralen Logserver gehangen werden. Die Logs sollen für 6 Monate vorgehalten werden. Ich mache es mir glaube ich gerade zu kompliziert wie ich das ausrechnen kann. Bei den Windows Servern gibt es eine Ereignisanzeige. Dort würde ich alle Files nach den letzten 24 Stunden filtern und mir dann die Größe des Ordners anschauen. Ein Kollege sagte mir ich sollte den ganzen Logordner über Tage beobachten und dann den Durchschnitt davon nehmen, jedoch ist das meiner Meinung nach für einen Zeitraum von 6 Monaten nicht aussagekräftig. Nun kommen wir zum schwierigen Teil. Nämlich den Linux Servern. Würdet ihr dort ebenfalls in den Logordner schauen und den Durchschnitt nehmen? Bin noch in der Ausbildung und bekomme von meinem Chef und meinen Kollegen nicht wirklich Hilfe was das Thema anbelangt.

Mit freundlichen Grüßen

Leonie

Content-ID: 5011716800

Url: https://administrator.de/contentid/5011716800

Printed on: December 3, 2024 at 08:12 o'clock

maretz
maretz Dec 18, 2022 at 21:00:05 (UTC)
Goto Top
Du wirst es nicht anders können als deine Server anzusehen. Dabei solltest du aber - zumindest bei Linux als Logserver - im Kopf haben das man via Logrotate natürlich die Files auch automatisch kompremieren kann. Und das ist bei Text-Files natülich recht effektiv.

Die andere Sache wäre für mich: In Zeiten von TByte-Platten würde mich das beim reinen Logserver weniger sorgen ;)
StefanKittel
StefanKittel Dec 18, 2022 at 21:06:45 (UTC)
Goto Top
Hallo,

unter Linux ist es doch einfacher.
Einfach die der Log-Dateien kopieren, auf einen 1 Woche/Tag reduzieren und die Dateigröße anschauen.

Bevor Du das Rad neu erfindest schaut mal nach ELK-Stack.

Stefan
Linux09
Linux09 Dec 18, 2022 at 21:12:58 (UTC)
Goto Top
Blöde Frage, aber kann ich mir dann die ausgegebenen Logs in eine txt datei speichern und die Dateigröße anschauen oder wie meinst du das? Beschäftige mich Momentan nur noch damit, und sehe den Wald vor lauter Bäumen nicht mehr.
StefanKittel
StefanKittel Dec 18, 2022 updated at 21:39:03 (UTC)
Goto Top
Hallo,
Ja, denn Logs unter Linux sind in 99% aller Fälle reine Textdateien.

z.B. /var/log/syslog
Dec 18 00:00:11 server2201 systemd[1]: logrotate.service: Deactivated successfully.
Dec 18 00:00:11 server2201 systemd[1]: Finished Rotate log files.
Dec 18 00:00:11 server2201 systemd[1]: logrotate.service: Consumed 3.370s CPU time.
Dec 18 00:00:12 server2201 postfix/smtpd[2133839]: disconnect from unknown[141.98.0.0] ehlo=1 auth=0/1 quit=1 commands=2/3
Dec 18 00:00:17 server2201 postfix/smtpd[2134088]: warning: hostname poppopprision.com does not resolve to address 141.98.0.0
Dec 18 00:00:17 server2201 postfix/smtpd[2134088]: connect from unknown[141.98.0.0]

Schau auch mal bei rsyslog nach
Linux09
Linux09 Dec 18, 2022 at 21:22:34 (UTC)
Goto Top
Dankeschön,das bringt mich bei linux sehr viel weiter.
manuel-r
manuel-r Dec 18, 2022 at 21:57:11 (UTC)
Goto Top
Ich würde das ganze pragmatisch angehen.
Ein Unternehmen das 200 Server betreibt ist mit sehr hoher Wahrscheinlichkeit virtualisiert und hat auch entsprechenden Storage. Also würde ich dem Logserver einfach mal bspw 100 GB Storage verpassen und die Platte ans Monitoring hängen. Wenn der Platz knapp wird dann erweitern.
Nach sechs Monaten hast du den Platzbedarf der notwendig war. Dann würde ich mir Gedanken machen ob in dem Zeitraum evtl außergewöhnlich viel oder wenig geloggt wurde und daran dann den für die Zukunft notwendigen Platz plus Reserve fest machen.

Manuel
Cloudrakete
Cloudrakete Dec 18, 2022 at 22:30:18 (UTC)
Goto Top
Ich habe mal sowas ähnliches mit LogAnalytics in Azure und Windows VMs gemacht. Ich meine alleine Event Logs (Warning/Critical) hat ca. 300-400mb pro Monat und Server ausgemacht.

Je nach Menge und Art der Events deiner Server könnten diese 3-400MB deine Ausgangslage sein.
Mystery-at-min
Mystery-at-min Dec 18, 2022 at 23:24:06 (UTC)
Goto Top
300-400M je Server? Scheint mir extrem viel zu sein für Warning, Critical, kann's sein, dass das irgendwie alles nicht ganz rund lief?
maretz
maretz Dec 19, 2022 at 06:49:33 (UTC)
Goto Top
Was mir nur noch am Rande einfällt: Bevor du jetzt losrennst mit "Ey, cheffe, ich hab da ne Idee, kost auch nich viel" (is ja unter Linux wirklich kostenlos möglich) mach dir Gedanken um etwas was viel wichtiger als der Storage ist:

WOFÜR das ganze? Wer guckt da drauf (und nicht die ersten 2 Wochen wo es noch neu ist und man denkt "oh geil, was da alles für zeilen laufen" sondern eben regelmässig? Welche Informationen WILLST du wissen?

Das eine ist ja die Installation - die geht recht schnell und kost auch ausser Zeit nicht viel. Wenn du aber die Frage nach dem Wer/Was/Warum nicht vorher vollständig beantwortet hast wirst du vermutlich in dieselben Probleme rennen wie du sie bei anderen Monitoring-Systemen hast: Man neigt dazu jeden Kram überwachen zu wollen und stellt am Ende fest das keiner sich für die 10.000 Werte die da auftreten interessiert und man erst beim Ausfall drauf guckt um zu sehen dass das Monitoring schon 2+ Wochen am heulen war. Mit dem Unterschied: Das MONITORING kann noch halbwegs aktiv handeln (Mail senden,...) - der Logserver kann das nicht weils auch nicht seine Aufgabe ist (du kannst natürlich die Logfiles als Mail senden - die dann per Regel automatisch abgelegt werden und keiner reinguckt - also auch nur Platzverschwendung).

Diese Punkte sollten also ganz oben auf deiner Liste fürs klären stehen. Natürlich: die ersten 2-4 Wochen guckst du nämlich selbst drauf weils "spannend" ist. Dann kommt irgendwann ein neues Projekt und diese Server landen in der Versenkung bis irgendwann in 3-4 Jahren sich jemand fragt wofür diese VM / dieser Server eigentlich war und warum der soviel HDD-Platz reserviert bekommen hat...
2423392070
2423392070 Dec 19, 2022 at 07:04:53 (UTC)
Goto Top
Storage ist günstiger als den Aufwand den du betreibst.

Außerdem ist es schwer zu "rechnen" ohne zu wissen, wie die Datenbank (Datentypen usw) die Daten speichert.

Stichwort: Unterschied z. B. datetime und datetime2 bei massenhafter Verwendung
Dirmhirn
Dirmhirn Dec 19, 2022 at 22:41:19 (UTC)
Goto Top
Habt ihr Audit events aktiv bei Windows? Unsere haupt DCs kommen auf 3-5gb pro Tag.
Bei Windows hast du standardmäßig ein Limit von 25(?) Mb pro logfile/Kategorie und dann werden die ältesten Events überschrieben. Das logfile ist dann klein, aber du siehst nur paar Stunden/Tage...
Archivierung kannst aktivieren, aber pass auf, dass dir C: nicht volläuft.

SQL Server hatte mal ein Konfig Problem und hat 500gb logs geschrieben...

Will nicht behaupten das ist normal, nur als Beispiele.
Franz-Josef-II
Franz-Josef-II Dec 20, 2022 at 13:55:04 (UTC)
Goto Top
Zitat von @maretz:
WOFÜR das ganze?

Absolut korrekt.
Linux09
Linux09 Dec 24, 2022 at 21:05:30 (UTC)
Goto Top
Das ganze soll als Projekt dienen, damit wir mal eines unserer offenen Sicherheitsziele erfüllen können und dementsprechend die Stadtverwaltung sicherer wird.
maretz
maretz Dec 25, 2022 at 06:28:59 (UTC)
Goto Top
Zitat von @Linux09:

Das ganze soll als Projekt dienen, damit wir mal eines unserer offenen Sicherheitsziele erfüllen können und dementsprechend die Stadtverwaltung sicherer wird.

Das wird aber so nix. Solang du eben nicht sagen kannst wer für den Server verantwortlich ist und wer die Logs (und wie) auswertet hast du einfach nur die Sicherheit reduziert. Du hast einen weiteren Server mit offenen Ports, eine weitere Software die mit hohen Rechten läuft (der Log-Daemon) und gesammelte Daten über div. Systeme die jedem Angreifer helfen würden.

Ich frage mal andersrum: Was bringt dir das dickste Türschloss mit noch 5 weiteren Ketten vor der Tür wenn niemals jemand guckt ob noch alles heile ist? Ich bin weder Einbrecher noch handwerklich besonders geschickt - aber wenn man mir verspricht das niemals jemand guckt und ich somit unbegrenzt Zeit habe komme selbst ich dann in jedes Gebäude rein... ERST wenn eben zwischendurch (zB 1x/Tag) jemand guckt würde ja was auffallen - und DANN wirds blöd für mich ;).

Von daher: Die SICHERHEIT erhöhst du mit dem Prozess, nicht mit einem zusätzlichen Server... Oder anders: Kläre erst das organisatorische, DANN das WIE. Es kann ja am Ende sogar rauskommen das du rausfindest das deine Idee nicht schlecht ist, aber so nicht umsetzbar ist. Einfaches Beispiel: Du loggst einfach mal alles - dann KANN das eben auch in die Arbeitszeitüberwachung gehen (wenn du zB. meine Anmeldezeiten am Server protokollierst). Das ist technisch kein Problem, sollte aber durchaus mit den entsprechenden Fachleuten erstmal diskutiert werden ob das erlaubt ist. Denn eine solch kleine Sache kann dafür sorgen das am Ende DU am Ar... bist weil du illegal Daten gesammelt hast...
StefanKittel
StefanKittel Dec 26, 2022 at 11:42:11 (UTC)
Goto Top
Moin,

ein zentrales Loggin ist die Basis für nachträgliche Auswertungen und ein Echtzeitmonitoring.
Sonst ist es nur ein Datengrab.

Ich habe für verschiedene Web-Projekte ein detailiersten Logging auf Basis eines ELK-Stacks für die letzten 14 Tage.
Damit erstelle ich wöchentlich analysen und schaue mir Auffälligkeiten an.

Dazu gibt es ein aktives Monitoring was bei Störungen und Auffälligkeiten sofort Alarm schläge.

Stefa
Dirmhirn
Dirmhirn Dec 26, 2022 at 16:29:14 (UTC)
Goto Top
Dazu gibt es ein aktives Monitoring was bei Störungen und Auffälligkeiten sofort Alarm schläge.

Mit was machst du das? Wir hatten da früher MS ATA, aber das ist am Auslaufen oder schon EoL. Außerdem waren die Alerts oft nicht so hilfreich (ev. auch zu wenig Erfahrung unsererseits...)

Sg Dirm
StefanKittel
StefanKittel Dec 26, 2022 at 20:54:15 (UTC)
Goto Top
Zitat von @Dirmhirn:
Dazu gibt es ein aktives Monitoring was bei Störungen und Auffälligkeiten sofort Alarm schläge.
Mit was machst du das?
Mein Hosting ist primär für Linux-Webserver. Dort nutze ich StatusCake, Site24x7 und eine eigene Software.
Beim IT Bereich das RMM von N-Able (ex Solarwinds, ex GFI MAXX) und eine eigene Software.

Stefan