blaub33r3
Goto Top

Analyse: Windows FileServer wird regelmäßig außer Gefehl gesetzt

Guten Tag liebe Community,

habe ein Problem, dass nun doch immer häufiger ein FileServer von uns regelmäßig nicht mehr richtig funktioniert.

Wir vermuten, dass ein unbekannter Prozess - Zeitweise - richtig stark entweder in der Prozessorauslastung und/oder den Arbeitsspeicher belastet.

Man merkt es bis nur noch daran, dass der Zugriff auf den Fileserver auf seine Datenfreigaben nicht mehr korrekt funktioniert(es lädt teilweise garnicht oder braucht mehrere Minuten)

Können wir diesen Prozess mit "perfmon" versuchen zu erfassen? Mit welchen Parametern würde ich arbeiten? Hab ihr Seiten, die mir vielleicht sogar eine Schrittweise Anleitung erklären würden? Mir fällt es schwer im Moment ohne richtiges Wissen diesen Prozess zu um zingeln.

VG Dani

Content-ID: 663170

Url: https://administrator.de/forum/analyse-windows-fileserver-wird-regelmaessig-ausser-gefehl-gesetzt-663170.html

Ausgedruckt am: 25.12.2024 um 16:12 Uhr

Ex0r2k16
Lösung Ex0r2k16 15.03.2021 aktualisiert um 13:21:06 Uhr
Goto Top
Hey Dani,

was sagt denn euer Monitoring (falls vorhanden)? Startet ihr dann den ganzen Server neu oder reicht der Dateifreigabe Dienst? Welche Windows Server Version läuft da? Wie viele IOPs auf dem Storage? Was für ein Storage?

/edit:
Virtualisiert? Falls ja: Wie ?

Fragen über Fragen....

VG
Ex0r
blaub33r3
blaub33r3 15.03.2021 um 14:31:22 Uhr
Goto Top
Also ich möchte Perfmon einstellen, dass der Prozess, der die Seiteneingabe/s (Die Rate, mit der Seiten vom Datenträger gelesen werden - in unserem Screenshot "Auslagerung/Sekunde") regelmäßig auf 8000 schießt, feststellt.
Dann kann ich z.B. Rückschließen, dass es sich um einen Backupdienst (z.B. genutzten VolumenSchattenDienst oder oder oder) handelt.

Das ist meine Strategie um diesem irrigen Gag auf die Schliche zu kommen!

Ist meine Strategie nachvollziehbar und sinnvoll?

Weitere Infos:
Wir müssen immer den ganzen Server (Microsoft Windows Server 2012 R2 Datacenter Edition, 64-bit (build 9600)) neustarten. RDP funktioniert noch, der Taskmgr lässt sich nicht mehr öffnen, und auch Neustarten selbst wird nur noch iniitialisiert, jedoch muss man virt. den Stecker ziehen, weil das System zu nichts mehr in der Lage ist.
Das System meldet auch oft im Vorfeld keine Probleme ans Dashboard.

Es handelt sich um eine alte VMWare Umgebung.
speicherausnutzung
Ex0r2k16
Ex0r2k16 15.03.2021 um 14:39:51 Uhr
Goto Top
sorry ich bin kein Perfmon Experte. Ich würde erst mal zusehen, dass ich die Abstürze verhindere. Kannst du temporär den RAM anheben? Hat der ESXi Host selbst noch genügen RAM Puffer? Wie viel RAM hat der Host? Deine Beschreibung klingt irgendwie so danach, als ob dem Host die Puste ausgeht.

Hast du nichts auffälliges im System Eventlog von der VM? Scheint ja sehr periodisch zu sein. Das bestimmt irgend nen abgedrehter Task, der da los läuft.
blaub33r3
blaub33r3 15.03.2021 um 15:10:41 Uhr
Goto Top
Den Ram haben wir von 8GB auf 16GB angehoben. => Keine Besserung
Der ESXI hat noch genug RAM , der hat weit über 100GB '
Im Systemlog hat man nichts genünftiges finden können.
blaub33r3
blaub33r3 15.03.2021 um 15:19:45 Uhr
Goto Top
Wieviel Puffer sollte der EXSI selbst haben?
Ex0r2k16
Ex0r2k16 15.03.2021 um 15:32:55 Uhr
Goto Top
Zitat von @blaub33r3:

Wieviel Puffer sollte der EXSI selbst haben?

So genau kann ich dir das nicht sagen. Steht bestimmt irgendwo bei Vmware. Aber ich würde glaube ich mal so mit 2-4GB rechnen je nach Host. Ist ein Shared Storage im Einsatz? Oder benutzt du interne Platten? Welche ESXi Version ist im Einsatz? Custom Image?

Seit wann habt ihr das Problem? Was für ein Virenscanner läuft da?
erikro
erikro 15.03.2021 um 15:45:39 Uhr
Goto Top
Moin,

Zitat von @Ex0r2k16:
sorry ich bin kein Perfmon Experte.

Braucht man hier auch nicht zu sein. Die Informationen wurden ja schon vom TO geliefert.

Ich würde erst mal zusehen, dass ich die Abstürze verhindere.

Da stürzt nichts ab. Es wird nur langsamer als eine Schildkröte mit Gehbehinderung. face-wink

Kannst du temporär den RAM anheben?

Das wäre die Lösung.

Hat der ESXi Host selbst noch genügen RAM Puffer?

Nein, hat er nicht. Der Host hat 12Gig (Graph 2 des TO).

Wie viel RAM hat der Host? Deine Beschreibung klingt irgendwie so danach, als ob dem Host die Puste ausgeht.

Das klingt nicht nur so, sondern ist so. Der Fileserver hat 4Gig Arbeitsspeicher (Graph 2). Er nutzt bis zu 8Gig (Graph 1). Deshalb muss er auslagern wie blöd (Graph 3). Die Auslagerungsdatei wird zu 40% im Durchschnitt genutzt (Graph 4). Dass dann ein Fileserver nur noch sehr, sehr langsam reagiert, ist kein Wunder. Auslagern ist bei einem Server tödlich für die Performance.

Hast du nichts auffälliges im System Eventlog von der VM? Scheint ja sehr periodisch zu sein. Das bestimmt irgend nen abgedrehter Task, der da los läuft.

Nö, das ist das vollkommen normale Verhalten eines Fileservers, der unter Speichermangel leidet. Lösung: Mehr Speicher reinstopfen.

hth

Erik
Ex0r2k16
Ex0r2k16 15.03.2021 aktualisiert um 16:42:38 Uhr
Goto Top
Zitat von @erikro:

Moin,

Zitat von @Ex0r2k16:
sorry ich bin kein Perfmon Experte.

Braucht man hier auch nicht zu sein. Die Informationen wurden ja schon vom TO geliefert.

Ich würde erst mal zusehen, dass ich die Abstürze verhindere.

Da stürzt nichts ab. Es wird nur langsamer als eine Schildkröte mit Gehbehinderung. face-wink

Kannst du temporär den RAM anheben?

Das wäre die Lösung.

Hat der ESXi Host selbst noch genügen RAM Puffer?

Nein, hat er nicht. Der Host hat 12Gig (Graph 2 des TO).

Wie viel RAM hat der Host? Deine Beschreibung klingt irgendwie so danach, als ob dem Host die Puste ausgeht.

Das klingt nicht nur so, sondern ist so. Der Fileserver hat 4Gig Arbeitsspeicher (Graph 2). [...]

Argh. Glaub ich brauch ne neue Brille. Habs nicht gesehen. Thx. Da hab ich ja den richtigen Riecher gehabt :D
cykes
cykes 16.03.2021 um 06:43:41 Uhr
Goto Top
Moin,
Zitat von @blaub33r3:
Wieviel Puffer sollte der EXSI selbst haben?
Pauschal kann man das nicht beantworten, dazu wären ein paar mehr Informationen nötig:
  • Welche ESXI-Version ist das genau?
  • Welche Lizenz läuft auf dem Host?
[und die weiteren Rückfragen, die die Kollegen bereits zum Storage usw. gestellt haben]
Der ESXI hat noch genug RAM , der hat weit über 100GB
Auf dem Host läuft doch sicher nicht nur der Fileserver!? Wie ist der (Host-)RAM auf die VMs verteilt? Wie sieht es mit Snapshots der Fileserver-VM aus, hängen da noch Generationen von Snapshots fest (bspw. von fehlgeschlagenen Backups)?

Gruß

cykes
blaub33r3
blaub33r3 29.03.2021 um 16:34:47 Uhr
Goto Top
Hallo zusammen, ich war leider erkrankt und habs jetzt erst geschafft weiter Infos zu beschaffen:

Info zum Problembetroffen Server
Windows Server 2012 R2 DataCenter
2x2,4Ghz Intel Xeon
16GB RAM
64bit


Auf dem ESXI laufen 11 VMs
Das ESXi läuft mit Version 6.0.0 aktuell.
Arbeitsspeicher ist aktuell mit 49% ausgelastet => Host hat also selbst genügend Resserve!
Arbeitsspeichergröße 262015,50MB

VM 1 - 16465 MB
VM 2 - 8173 MB
VM 3 - 16464 MB
VM 4 - 16389 MB (ProblemMaschine)
VM 5 - 6391 MB
VM 6 - 7141 MB
VM 7 - 16458 MB
VM 8 - 8240 MB
VM 9 - 8259 MB
VM 10 - 4134 MB
VM 11 - 16461 MB

VM4 = FileServer, der die heftigen Spikes (Seiten/Sekunde - Spikes) hat und danach seinen Geist abgibt.
(man muss virtuellen seinen Stecker ziehen)

Über Perfmon habe ich mich nun etwas schlau gemacht und den Parameter gefunden. Aber dann ist mir klar geworden,
dass ich die Werte ja vom Monitor eigentlich schon habe, und ich eben wissen müsste, WELCHER Prozess hier Daten
zwischen dem Arbeitsspeicher und der Auslagerungsdatei hin und her scheffelt.

ESXI1
ESXI2

Wo werden die VMs gespeichert?
Datastore_File => 1,57 TB / 1,69 TB

VM 1
176,20 GB / 176,20 GB
VM 4
1,4 TB von 3,4 TB

Wieso gibt es hier so eine krasse diverse bei der Speicherplatzbelegung einer VM ? Wofür braucht man so viel TB. Habe nun erfahren, es gibt auch VM bis 64 TB
Aber das sind doch nur die Rahmendaten der VM in dem das virt. Betriebssystem drinne liegt. Die Stelle habe ich noch nicht ganz verstanden.

Die VM4 hat 4 Festplatten, die auf folgende DataStores liegen
(Speichertyp: Thick-ProvsionLazy-Zeroed)

vHDD1 -> 60 GB Datastore_File
vHDD2 -> 1,322 GB Datastore_File
vHDD3 -> 1 TB Datastore_Y
vHDD4 -> 1 TB Datastore_Z

vHDD1 und vHDD2 ergeben fast zusammen das, die VM4 im DataStore_File unter verwendeten Speicherplatz anzeigt.

VMWare vSphere Essentials Plus für ESX1 / ESX2 ist im Einsatz.
VMWare vCenter Server 6 Essentials für das VCenter ist im Einsatz.

Snapshotsfehler sind nicht zu erkennen, wird erstellt innerhalb von 3min und dann wieder "entfernt"

Hoffe wir kommen der Sache damit näher face-smile
VG Dani

P.S. die virtuelle Auslagerungsdatei erscheint mir zu knapp bemessen, zu XP Zeiten hieß es mal 3x Größer der physische Ram müsse es sein.
Kann es sein, dass das hier auch zu Problemen kommen könnte?
arbeitsspeicher
Ex0r2k16
Ex0r2k16 29.03.2021 um 16:43:24 Uhr
Goto Top
Ohne mich da jetzt durchzukämpfen haben wir dir doch die Lösung bereits gesagt. Zu wenig RAM im Host und auf der VM!

Auch: 11 (Windows??) VMs auf nem 16GB Host? Wer kam denn auf die Idee? Überprovisionierung hin oder her, das ist eindeutig viel zu viel! Es sei denn es sind kleine Linux Installationen mit 512MB RAM.
cykes
cykes 29.03.2021 um 17:14:12 Uhr
Goto Top
Zitat von @Ex0r2k16:
Auch: 11 (Windows??) VMs auf nem 16GB Host?
Das hast Du jetzt falsch verstanden, der TE hat sich aber auch maximal umständlich ausgedrückt.
Nicht der Host hat 16GB RAM, sondern die Filerserver VM.

Ich habe mir mal die Mühe gemacht und überschlgsweise (nicht exakt) die einzelnen VMs aufaddiert und komme auf ~140 GB provisioniertes RAM auf 11 VMs + Host verteilt. Der Host hat 256 GB RAM zur Verfügung.
Also, wie oben bereits gesagt, einfach mal der Fileserver VM bspw. 32GB oder mehr RAM zuweisen.

Gruß

cykes
erikro
erikro 29.03.2021 um 19:07:56 Uhr
Goto Top
Moin,

wie schon vermutet, ist das Ganze falsch konfiguriert.

Zitat von @blaub33r3:

Auf dem ESXI laufen 11 VMs
Das ESXi läuft mit Version 6.0.0 aktuell.
Arbeitsspeicher ist aktuell mit 49% ausgelastet => Host hat also selbst genügend Resserve!
Arbeitsspeichergröße 262015,50MB

Und wofür hat der Host diese Reserve? Falls mal ein Riegel kaputt geht? Oder anders ausgedrückt: Du verschwendest die Hälfte des Speichers. 51% liegen dauerhaft brach. Du könntest auch die Hälfte der Riegel rausnehmen und anderweitig verbauen. Das würde für die Maschine keinen Unterschied machen.

VM 4 - 16389 MB (ProblemMaschine)

Wie schon mehrfach gesagt: Das ist viel zu wenig. Gönn' dem Teil mal 64Gig und er wird auch nicht mehr auslagern.

VM4 = FileServer, der die heftigen Spikes (Seiten/Sekunde - Spikes) hat und danach seinen Geist abgibt. (man muss virtuellen seinen Stecker ziehen)

Ich wette darauf, dass man das nicht muss. Lange genug warten und das Problem erledigt sich von selbst. Aber welcher User will schon ein halbes Stündchen auf seine Datei warten? face-wink

Über Perfmon habe ich mich nun etwas schlau gemacht und den Parameter gefunden. Aber dann ist mir klar geworden,
dass ich die Werte ja vom Monitor eigentlich schon habe, und ich eben wissen müsste, WELCHER Prozess hier Daten
zwischen dem Arbeitsspeicher und der Auslagerungsdatei hin und her scheffelt.

Na bei einem Fileserver wird das wohl der Prozess Fileserver sein. face-wink

VM 4
1,4 TB von 3,4 TB

Also hast Du rund 1,3TB Daten auf dem Fileserver und wunderst Dich, warum er mit nur 16Gig RAM anfängt auszulagern? Wieviele User greifen denn da so zu?


Wieso gibt es hier so eine krasse diverse bei der Speicherplatzbelegung einer VM ?

Na weil es Server gibt, die wenig brauchen (ein DC z. B.), und anderen, die ganz viel brauchen (Fileserver, WSUS, große DBs).

Wofür braucht man so viel TB.

Wenn Du nicht weißt, was das für Daten auf Deinem Fileserver sind und welche Datenmengen zu erwarten sind, dann solltest Du Dich ernsthaft fragen, ob das administrieren eines solchen Servers der richtige Job für Dich ist.

Habe nun erfahren, es gibt auch VM bis 64 TB

Ja und? Ich kannte mal einen, der hat Spielfilme digital geschnitten. Der hatte einen Platten-Cluster von 128TB. Es kommt immer auf die Aufgabe an.

Die VM4 hat 4 Festplatten, die auf folgende DataStores liegen
(Speichertyp: Thick-ProvsionLazy-Zeroed)

vHDD1 -> 60 GB Datastore_File
vHDD2 -> 1,322 GB Datastore_File
vHDD3 -> 1 TB Datastore_Y
vHDD4 -> 1 TB Datastore_Z

Warum? Warum wird der Datastore des Fileservers auf drei Subsysteme verteilt? Warum nicht alle Daten auf einem System?

P.S. die virtuelle Auslagerungsdatei erscheint mir zu knapp bemessen, zu XP Zeiten hieß es mal 3x Größer der physische Ram müsse es sein.
Kann es sein, dass das hier auch zu Problemen kommen könnte?

Noch ein eklatanter Fehler bei der Konfiguration des Fileservers:

1. Die Auslagerungsdatei bleibt nie auf dem Systemlaufwerk.
2. Die Auslagerungsdatei bekommt eine feste Größe (genauso groß wie das physische RAM).

Liebe Grüße

Erik
blaub33r3
blaub33r3 30.03.2021 aktualisiert um 17:55:50 Uhr
Goto Top
Zitat von @erikro:

Moin,

wie schon vermutet, ist das Ganze falsch konfiguriert.

Zitat von @blaub33r3:

Auf dem ESXI laufen 11 VMs
Das ESXi läuft mit Version 6.0.0 aktuell.
Arbeitsspeicher ist aktuell mit 49% ausgelastet => Host hat also selbst genügend Resserve!
Arbeitsspeichergröße 262015,50MB

Und wofür hat der Host diese Reserve? Falls mal ein Riegel kaputt geht? Oder anders ausgedrückt: Du verschwendest die Hälfte des Speichers. 51% liegen dauerhaft brach. Du könntest auch die Hälfte der Riegel rausnehmen und anderweitig verbauen. Das würde für die Maschine keinen Unterschied machen.

VM 4 - 16389 MB (ProblemMaschine)

Wie schon mehrfach gesagt: Das ist viel zu wenig. Gönn' dem Teil mal 64Gig und er wird auch nicht mehr auslagern.

Okay er bekommt 64, wenn ich den Admin überzeuge ;) Genug Ressourcen gibt es.
Wie kommt man mit einer Milchmädchen Rechnung zur Bewältigungslösung von 64GB RAM?
AdminKollegen haben mir letzten mal erklärt bei nem FileServer sogar 2GB reichen täten. Glaube hier herrscht ne allgemine Wissenlücke..^^

VM4 = FileServer, der die heftigen Spikes (Seiten/Sekunde - Spikes) hat und danach seinen Geist abgibt. (man muss virtuellen seinen Stecker ziehen)

Ich wette darauf, dass man das nicht muss. Lange genug warten und das Problem erledigt sich von selbst. Aber welcher User will schon ein halbes Stündchen auf seine Datei warten? face-wink

Über Perfmon habe ich mich nun etwas schlau gemacht und den Parameter gefunden. Aber dann ist mir klar geworden,
dass ich die Werte ja vom Monitor eigentlich schon habe, und ich eben wissen müsste, WELCHER Prozess hier Daten
zwischen dem Arbeitsspeicher und der Auslagerungsdatei hin und her scheffelt.

Na bei einem Fileserver wird das wohl der Prozess Fileserver sein. face-wink

VM 4
1,4 TB von 3,4 TB

Also hast Du rund 1,3TB Daten auf dem Fileserver und wunderst Dich, warum er mit nur 16Gig RAM anfängt auszulagern? Wieviele User greifen denn da so zu?

Auf dem FileServer greifen 25MA zu, dort liegen auch ihre persönlichen Verzeichnisse.

Wird der RAM vom FileServer genutzt wenn die User auf seine Daten zugreifen? Ich habe gehört, dass es unabhängig ist, wie viele Leute auf den FS zugreifen, und dass der RAM eine untergeordnete Rolle daher "spiele". Dachte daher immer, dass die Daten direkt in den RAM des Users geladen wird (straight vom Storage?durchgeschleust wird ohne Zwischengespeichert zu werden)

Könntet ihr mir bitte kurz erklären, was in dem Konstrukt Datentechnisch passiert? Ich verstehe noch nicht, wieso und wann der Daten vom Storage in den RAM bis zur seiner Hemmschwelle geladen werden, um dann notfalls in die virtuelle Arbeitsspeicherdatei von Windows auf einem Volumen wiederum ausgelagert werden könnte. Oder ist das ne HotSwap Datei sozusagen?


Wieso gibt es hier so eine krasse diverse bei der Speicherplatzbelegung einer VM ?

Na weil es Server gibt, die wenig brauchen (ein DC z. B.), und anderen, die ganz viel brauchen (Fileserver, WSUS, große DBs).

Wofür braucht man so viel TB.

Wenn Du nicht weißt, was das für Daten auf Deinem Fileserver sind und welche Datenmengen zu erwarten sind, dann solltest Du Dich ernsthaft fragen, ob das administrieren eines solchen Servers der richtige Job für Dich ist.

Ich hab es noch nie erklärt bekommen, und administrieren tue ich ihn nicht direkt, ich möchte das Problem lösen und etwas lernen.


Habe nun erfahren, es gibt auch VM bis 64 TB

Ja und? Ich kannte mal einen, der hat Spielfilme digital geschnitten. Der hatte einen Platten-Cluster von 128TB. Es kommt immer auf die Aufgabe an.

Die VM4 hat 4 Festplatten, die auf folgende DataStores liegen
(Speichertyp: Thick-ProvsionLazy-Zeroed)

vHDD1 -> 60 GB Datastore_File
vHDD2 -> 1,322 GB Datastore_File
vHDD3 -> 1 TB Datastore_Y
vHDD4 -> 1 TB Datastore_Z

Warum? Warum wird der Datastore des Fileservers auf drei Subsysteme verteilt? Warum nicht alle Daten auf einem System?

Was ich erkenne, dass die DataStores entsprechend der Ihnen zugeteilten Volumens benannt wurden. Man hat sich also hier ein Konzept überlegt, den Speicherplatz so bewusst anzuordnen. Spricht da etwas gegen? Ein Datastore wäre natürlich ein zentralistischer Ansatz.

P.S. die virtuelle Auslagerungsdatei erscheint mir zu knapp bemessen, zu XP Zeiten hieß es mal 3x Größer der physische Ram müsse es sein.
Kann es sein, dass das hier auch zu Problemen kommen könnte?

Noch ein eklatanter Fehler bei der Konfiguration des Fileservers:

1. Die Auslagerungsdatei bleibt nie auf dem Systemlaufwerk.
2. Die Auslagerungsdatei bekommt eine feste Größe (genauso groß wie das physische RAM).

"Die Auslagerungsdatei vom System muss auf der selben Festplatte liegen, da es sonst zur Instabilität kommt."
Quelle: https://largo-art.de/windows-10-auslagerungsdatei-richtig-einstellen/

Die Auslagerung des System C:\ muss auf Partition D:\ stattfinden, weil beide Volumes sich ein gemeinsames DataStore(Festplatte) teilen. Richtig?

Gebe ich den festen Bereich von 1 MB von16000MB an oder von 16000 bis 16000, dass eine 16GB Auslagerungsdatei "full" entsteht?
Liebe Grüße

Erik

Im Anhang seht ihr die derzeitige Speichernutzung/Verteilung

Danke für euren Knowledge und die gute Unterstützung!
VG Dani
vm4_speicher
erikro
erikro 30.03.2021 um 18:51:10 Uhr
Goto Top
Moin,

Zitat von @blaub33r3:

Zitat von @erikro:
Okay er bekommt 64, wenn ich den Admin überzeuge ;) Genug Ressourcen gibt es.
Wie kommt man mit einer Milchmädchen Rechnung zur Bewältigungslösung von 64GB RAM?
AdminKollegen haben mir letzten mal erklärt bei nem FileServer sogar 2GB reichen täten. Glaube hier herrscht ne allgemine Wissenlücke..^^

Na, wer solche Admins hat, braucht keine Schadsoftware mehr. face-wink

Auf dem FileServer greifen 25MA zu, dort liegen auch ihre persönlichen Verzeichnisse.

OK.

Wird der RAM vom FileServer genutzt wenn die User auf seine Daten zugreifen? Ich habe gehört, dass es unabhängig ist, wie viele Leute auf den FS zugreifen, und dass der RAM eine untergeordnete Rolle daher "spiele". Dachte daher immer, dass die Daten direkt in den RAM des Users geladen wird (straight vom Storage?durchgeschleust wird ohne Zwischengespeichert zu werden)

Das wäre aber nicht so schön. Nehmen wir mal an, dass Du ein modernes SATA-System hast, das die Daten mit ca. 300MB/s also 2.400Mbit/s überträgt. Dein Netz hat eine Geschwindigkeit von 1Gbit/s oder 1000Mbit/s. Das Netz arbeitet also nur halb so schnell wie das Festplattensubsystem. Was muss der Fileserver (FS) also tun? Er muss die Daten, die von der Platte kommen, zwischenspeichern oder auf denglisch cachen. Wo tut er das wohl?

Wenn Du nicht weißt, was das für Daten auf Deinem Fileserver sind und welche Datenmengen zu erwarten sind, dann solltest Du Dich ernsthaft fragen, ob das administrieren eines solchen Servers der richtige Job für Dich ist.

Ich hab es noch nie erklärt bekommen, und administrieren tue ich ihn nicht direkt, ich möchte das Problem lösen und etwas lernen.

Achso. Deine Admins kriegen das Problem nicht in den Griff und Du willst wissen, warum. face-wink

Warum? Warum wird der Datastore des Fileservers auf drei Subsysteme verteilt? Warum nicht alle Daten auf einem System?

Was ich erkenne, dass die DataStores entsprechend der Ihnen zugeteilten Volumens benannt wurden. Man hat sich also hier ein Konzept überlegt, den Speicherplatz so bewusst anzuordnen. Spricht da etwas gegen? Ein Datastore wäre natürlich ein zentralistischer Ansatz.

OK, kann man so machen. Würde ich aber nie so tun. Schließlich gibt es ja Verzeichnisse. face-wink

Noch ein eklatanter Fehler bei der Konfiguration des Fileservers:

1. Die Auslagerungsdatei bleibt nie auf dem Systemlaufwerk.
2. Die Auslagerungsdatei bekommt eine feste Größe (genauso groß wie das physische RAM).

"Die Auslagerungsdatei vom System muss auf der selben Festplatte liegen, da es sonst zur Instabilität kommt."
Quelle: https://largo-art.de/windows-10-auslagerungsdatei-richtig-einstellen/

Das höre ich wirklich zum ersten Mal und ich mache das schon seit ca. 30 Jahren. face-wink Ich habe, seit es sie gibt, die Auslagerungsdatei immer auf eine andere Partition und nach Möglichkeit sogar auf ein eigenes Subsystem gelegt und damit noch nie Probleme gehabt. Mir wäre auch kein technischer Grund bekannt, der zu Instabilitäten führen könnte.

Die Auslagerung des System C:\ muss auf Partition D:\ stattfinden, weil beide Volumes sich ein gemeinsames DataStore(Festplatte) teilen. Richtig?

Nö, das hat was mit der Mechanik der Platten und der Aufteilung der Partitionen zu tun. Du hast eine Systemplatte C:. Im laufenden Betrieb eines Servers passiert da nicht viel. Beim Systemstart wird, das Betriebssystem geladen, dann die Dienste und dann ist Ruh. Allenfalls werden noch ein paar temporäre Dateien geschrieben und geladen.

Auf einem FS finden die Schreib-/Lese-Vorgänge auf der Datenpartition statt. Wenn der Arbeitsspeicher nun volläuft, was man bei einem Server tunlichst vermeiden sollte, und die Auslagerungsdatei liegt auf einer anderen Partition, dann werden die Wege, die der Schreib-/Lese-Kopf zurücklegen muss, lang. D. h. die Latenz, die durch diesen Vorgang entsteht, wird groß. Liegt die Auslagerungsdatei auf derselben Partition, sieht das schon besser aus. Liegt sie auf einem anderen Subsystem, müssen die Schreib-/Lese-Köpfe gar nicht mehr bewegt werden, sondern können bleiben, wo sie sind, es sei denn, das System ist stark fragmentiert.

Letzteres ist auch der Grund dafür, warum man einen festen Wert für die Auslagerungsdatei festlegt. Dann hat man sie nämlich an einem Stück. Lässt man die Datei dynamisch, dann fängt Windows erst einmal ganz klein an (16MB!). Dann schreibt es weiter Daten auf die Platte. Evtl. landen diese Daten hinter der Auslagerungsdatei. Jetzt muss ausgelagert werden und die kleine Datei reicht nicht mehr aus. Also muss Windows erst freien Speicher allozieren. Den findet es aber nur an einer anderen Stelle. Da werden die Daten dann hingeschrieben und die Auslagerungsdatei fragmentiert, d. h. sie verteilt sich quer über die ganze Partition. Beides macht den Vorgang noch langsamer als er sowieso schon ist.

Gebe ich den festen Bereich von 1 MB von16000MB an oder von 16000 bis 16000, dass eine 16GB Auslagerungsdatei "full" entsteht?

Letzteres, wie Du sicherlich schon aus dem eben Gesagten geschlossen hast. face-wink

Im Anhang seht ihr die derzeitige Speichernutzung/Verteilung

Oh, das könnte auch ein Grund sein. Ich gehe mal davon aus, dass NTFS das Dateisystem ist. Bei diesem System müssen 10% der Partition leer sein. Der Grund dafür ist, dass NTFS dynamisch defragmentiert. D. h. ständig werden die Daten so hin- und hergeschoben, dass der Zugriff möglichst schnell erfolgen kann. Dazu braucht NTFS diese 10%. Sind die nicht vorhanden, dann kann NTFS wirklich grottenlahm werden. Vielleicht sollte mal wieder jemand aufräumen. face-wink

Liebe Grüße

Erik
blaub33r3
blaub33r3 01.04.2021 um 12:11:15 Uhr
Goto Top
Eine Optimierung des FileSystems ist anspruchsvoll und nicht ganz ohne, vorallem wenn man sich damit intensiver befasst 😊

Hier die bisherigen zusammengefassten Lösungen der Zusammenarbeit nochmal versucht möglich prägnant zusammen zufassen:

1. RAM weiter erhöhen auf 64GB
- Der RAM mit 16GB ist immer noch viel zu klein dimensioniert, weshalb eine Auslagerung (Seiten/pro Sekunde) vom RAM in die Auslagerungsdatei stattfindet.
Daher reagiert der Server nur noch ultra langsam als wenn nichts „mehr Ginge“-> Auslagern ist bei dem Server tödlich für die Performance.
- Aktuell sind 51% RAM des Host ESX1 ungenutzt. Selbst wenn der RAM ausgebaut bzw. umgebaut werden würde, ist die aktuelle Konfiguration tragfähig.
- Aktuelle Empfehlung in ihrer Umgebung weisen für eine optimale Lauffähigkeit auf 64GB RAM für den Server.

2. Speicherplatz schaffen
- Die Überprüfung ergab, dass ihre Festplatten NTFS formiert sind, d.h. damit die integrierte Defragmentierung-Funktion von NTFS funktioniert muss 10% jeder Partition freibleiben.
- Sonst ist mit einer zusätzlichen Verlangsamung beim Datenfluss zu rechnen, da eine Fragmentierte Datei, die verteilt über den Datenspeicher gelesen werden würde, einfach sehr viel längere Zeit für den gesamte L/S-Prozess benötigen würde.

=> D:\ benötigt mehr Speicherplatz oder muss aufgeräumt werden, mindestens 10% der Partition sind notwendig, also konkret 1,17 TB.

3. virtuellen Arbeitsspeicher (Auslagerungsdatei) – Neukonfigurierung
- Die Konfigurierung der Auslagerungsdatei zeigt im Moment nur ca 2GB – sollte aber eine feste Größe bekommen und nicht mehr weiter vom System selbst verwaltet werden
(Hintergrund: Bei einer Systemgesteuerten Auslagerungsdatei besteht eine Fragmentierungsgefahr der Auslagerungsdatei)
- Die Auslagerungsdatei der Partitionen: „Systems“ und „Daten“ können in ihrem Fall am Besten über ein Subsystem wie „Archiv“ laufen, denn die Systempartition selbst sollte nicht für ihre eigene Auslagerung genutzt werden.
Auch wenn die Auslagerungsdatei auf Partition D:\ liegen könnte, kommt hier Latenz(bedingt durch die gemeinsame Festplatte von C: und D:\) mit ins Spiel, weshalb sich F:\ als geeigneteres Subsystem als Speicherort empfiehlt.
- Die Größe der Auslagerungsdatei wird fest definiert und hat im Best Practice die Größe des RAMs vom Systems. Wir benötigten daher auf F:\ - 32GB Datenspeicher (Für C: und D:\). Damit würde dem Archiv 196GB bleiben aktuell.
- Ich vermute, dass man für das Archiv keine weitere Auslagerungsdatei anlegen muss. Bei Bilder E:\ bin ich mir nicht ganz sicher. Kommt drauf an, wieviel dies benutzt wird?


Zitat von @blaub33r3:

Moin,

Wird der RAM vom FileServer genutzt wenn die User auf seine Daten zugreifen? Ich habe gehört, dass es unabhängig ist, wie viele Leute auf den FS zugreifen, und dass der RAM eine untergeordnete Rolle daher "spiele". Dachte daher immer, dass die Daten direkt in den RAM des Users geladen wird (straight vom Storage?durchgeschleust wird ohne Zwischengespeichert zu werden)

Das wäre aber nicht so schön. Nehmen wir mal an, dass Du ein modernes SATA-System hast, das die Daten mit ca. 300MB/s also 2.400Mbit/s überträgt. Dein Netz hat eine Geschwindigkeit von 1Gbit/s oder 1000Mbit/s. Das Netz arbeitet also nur halb so schnell wie das Festplattensubsystem. Was muss der Fileserver (FS) also tun? Er muss die Daten, die von der Platte kommen, zwischenspeichern oder auf denglisch cachen. Wo tut er das wohl?


Das ist super verständlich ausgedrückt. Also...ich fasse nochmal zusammen:
1. System nutzt den physischen RAM, wenn schneller Daten geladen als transportiert werden können
2. Die Auslagerungsdatei wird genutzt, wenn der RAM voll ist oder inaktive Prozesse effizienzbedingt ausgelagert werden
Richtig?

Warum? Warum wird der Datastore des Fileservers auf drei Subsysteme verteilt? Warum nicht alle Daten auf einem System?

Was ich erkenne, dass die DataStores entsprechend der Ihnen zugeteilten Volumens benannt wurden. Man hat sich also hier ein Konzept überlegt, den Speicherplatz so bewusst anzuordnen. Spricht da etwas gegen? Ein Datastore wäre natürlich ein zentralistischer Ansatz.

OK, kann man so machen. Würde ich aber nie so tun. Schließlich gibt es ja Verzeichnisse. face-wink

Ein Grund könnte sein, im Falle eines defekten Datastores würden nicht alle Verzeichnisse auf einmal den Bach runter gehen, außer natürlich man hat ne komplette Sicherung von diesem 😉

Ansonsten wieso es glasklar besser ist, ist mir leider noch nicht klar geworden

Ich hoffe meine Zusammenfassung stimmt :D ?

Liebe Grüße,
Dani
vm4_speicher