1 Server Win2008R2 - ca. 10 Clients XP - SMB-Dateizugriff extrem verlangsamt - was tun?
Beim gleichzeitigen Zugriff auf dasselbe SMB-Share auf dem Server von vielen Clients kommt es zu extremen Verzögerungen.
Hallo zusammen,
ich habe folgende Netzwerkonfiguration:
1 Server:
Windows 2008 R2, Xeon, 2 SAS-Platten im RAID1, Gbit-Anbindung, 8GB RAM
7 bis 10 Clients:
Windows XP, Intel Core2Duo, 2GB RAM
Die Clients laufen meines Wissens nach alle unter XP, jedoch unter Umständen auch einige mit Win7 dabei (siehe unten)
Auf allen Client-PCs ist eine Software installiert, die als "Datenordner" einen SMB-Share auf dem Server nutzt, der wiederum per Netzlaufwerk auf allen Clients eingebunden ist.
Diese Software nutzt eine Art dateibasierte Datenbankstruktur. Es finden also viele I/O-Operationen statt, und jede dieser Operationen läuft letztendlich über das Netzwerk via SMB. Ein Wechsel der Software ist keine Option.
Die Problematik äußert sich wie folgt: Die Software ist auch bei nur einem aktiven Client schon nicht "schnell". Sobald viele Clients mit der Software arbeiten, kommt es zu extremen Verzögerungen, welche wohl aus dem Nachladen von Daten über SMB resultiert. Zum Teil ist für 15-20 Sekunden wirklich "Stillstand".
Die Daten, die geladen werden, sind von der Menge her eigentlich minimal. Es ist also nicht so, dass große Dateien umhergeschoben werden müssen. Die Netzwerkinfrastruktur sollte mit der Last problemlos klarkommen, und der Server wird dank der SAS-Platten auch nicht der Flaschenhals sein.
Meine erste Google-Suche hat ergeben, dass eine größere Menge Leute berichtet, dass genau dieser Effekt bei der Kombination Win XP / Win Server 2008 R2 auftritt. Hat hierzu jemand von euch Erfahrungswerte?
Aus unzuverlässiger Quelle habe ich gehört, dass auf manchen der Client-Rechner Win7 schon läuft und dort angeblich die gleichen Probleme bestehen. Kann ich erst am Wochenende testen.
Zusammengefasst liegt der Flaschenhals also zu 95% bei der SMB-Übertragung der Daten. Meine Frage an euch ist daher: Wie kann ich das ganze so optimieren, dass es auch beim gleichzeitigen Zugriff durch mehrere Clients läuft? Eine wirkliche Alternative für die Anbindung als Netzlaufwerk (und damit SMB) sehe ich nicht wegen der eingesetzten Software. Womöglich gibt es bekannte "Tweaks", die solche Probleme lösen können?
Danke für jede Hilfe!
Hallo zusammen,
ich habe folgende Netzwerkonfiguration:
1 Server:
Windows 2008 R2, Xeon, 2 SAS-Platten im RAID1, Gbit-Anbindung, 8GB RAM
7 bis 10 Clients:
Windows XP, Intel Core2Duo, 2GB RAM
Die Clients laufen meines Wissens nach alle unter XP, jedoch unter Umständen auch einige mit Win7 dabei (siehe unten)
Auf allen Client-PCs ist eine Software installiert, die als "Datenordner" einen SMB-Share auf dem Server nutzt, der wiederum per Netzlaufwerk auf allen Clients eingebunden ist.
Diese Software nutzt eine Art dateibasierte Datenbankstruktur. Es finden also viele I/O-Operationen statt, und jede dieser Operationen läuft letztendlich über das Netzwerk via SMB. Ein Wechsel der Software ist keine Option.
Die Problematik äußert sich wie folgt: Die Software ist auch bei nur einem aktiven Client schon nicht "schnell". Sobald viele Clients mit der Software arbeiten, kommt es zu extremen Verzögerungen, welche wohl aus dem Nachladen von Daten über SMB resultiert. Zum Teil ist für 15-20 Sekunden wirklich "Stillstand".
Die Daten, die geladen werden, sind von der Menge her eigentlich minimal. Es ist also nicht so, dass große Dateien umhergeschoben werden müssen. Die Netzwerkinfrastruktur sollte mit der Last problemlos klarkommen, und der Server wird dank der SAS-Platten auch nicht der Flaschenhals sein.
Meine erste Google-Suche hat ergeben, dass eine größere Menge Leute berichtet, dass genau dieser Effekt bei der Kombination Win XP / Win Server 2008 R2 auftritt. Hat hierzu jemand von euch Erfahrungswerte?
Aus unzuverlässiger Quelle habe ich gehört, dass auf manchen der Client-Rechner Win7 schon läuft und dort angeblich die gleichen Probleme bestehen. Kann ich erst am Wochenende testen.
Zusammengefasst liegt der Flaschenhals also zu 95% bei der SMB-Übertragung der Daten. Meine Frage an euch ist daher: Wie kann ich das ganze so optimieren, dass es auch beim gleichzeitigen Zugriff durch mehrere Clients läuft? Eine wirkliche Alternative für die Anbindung als Netzlaufwerk (und damit SMB) sehe ich nicht wegen der eingesetzten Software. Womöglich gibt es bekannte "Tweaks", die solche Probleme lösen können?
Danke für jede Hilfe!
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 206397
Url: https://administrator.de/forum/1-server-win2008r2-ca-10-clients-xp-smb-dateizugriff-extrem-verlangsamt-was-tun-206397.html
Ausgedruckt am: 10.04.2025 um 17:04 Uhr
13 Kommentare
Neuester Kommentar

Hallo,
und den Server dann via LAG (LACP) an den Switch anbinden.
RAID5 an einem neuen Raid Controller (Karte) mit zusätzlichen SAS Festplatten.
Alles zusammen sollte auf jeden Fall Deine Probleme lösen, man kann aber auch Stück für Stück an die
ganze Sache heran gehen und dann halt die letzten noch verbliebenen Schritte einsparen, wenn sich
ein Besserung gezeigt hat.
- Mehr RAM - 16 GB oder 24 GB bis hin zu 32 GB
- Dual oder Quad Port GB Server Adapter von Intel und ein LAG (LACP) anlegen
- Neuen oder zusätzlichen RAID Controller mit 4 weiteren SAS HDDs nur für die Verzeichnisse.
Gruß
Dobby
Windows 2008 R2, Xeon, 2 SAS-Platten im RAID1, Gbit-Anbindung, 8GB RAM
Wie sieht es mit 16 oder 24 GB RAM aus?Wie kann ich das ganze so optimieren, dass es auch beim gleichzeitigen Zugriff durch mehrere Clients läuft?
Eine Quad Port oder zwei Dual Port GB Netzwerkkarten (Serveradapter), am besten von Intel,und den Server dann via LAG (LACP) an den Switch anbinden.
Eine wirkliche Alternative für die Anbindung als Netzlaufwerk (und damit SMB) sehe ich nicht wegen der eingesetzten Software.
Ok, aber dann lass doch bitte auch nur das OS auf dem Raid1 und packe die Verzeichnisse auf einRAID5 an einem neuen Raid Controller (Karte) mit zusätzlichen SAS Festplatten.
Womöglich gibt es bekannte "Tweaks", die solche Probleme lösen können?
Ich hoffe doch einmal stark das Du auch Hardware Erweiterungen als "Tweak" anerkennst.Alles zusammen sollte auf jeden Fall Deine Probleme lösen, man kann aber auch Stück für Stück an die
ganze Sache heran gehen und dann halt die letzten noch verbliebenen Schritte einsparen, wenn sich
ein Besserung gezeigt hat.
- Mehr RAM - 16 GB oder 24 GB bis hin zu 32 GB
- Dual oder Quad Port GB Server Adapter von Intel und ein LAG (LACP) anlegen
- Neuen oder zusätzlichen RAID Controller mit 4 weiteren SAS HDDs nur für die Verzeichnisse.
Gruß
Dobby
Wenn deine Clients XP basierend sind hast du dessen TCP/IP Stack entsprechend angepasst und auf Ethernet optimiert indem du die TCP Windowsize entsprechend angepasst hast ?
http://www.heise.de/netze/artikel/TCP-IP-Tuning-221778.html
Das ist im SMB/CIFS Umfeld zwingend erforderlich !
Es wäre auch sehr sinnvoll einmal zu messen was dein Netzwerk an sich an Durchsatz hergibt, nur damit man hier mal eine verlässliche Vergleichsgröße zur Orientierung überhaupt hat.
Am besten misst du das mit dem kostenlosen NetIO:
http://www.ars.de/ars/ars.nsf/docs/netio
Wie das zu bewerkstelligen ist wird hier erklärt:
http://www.nwlab.net/art/netio/netio.html
Darauf achten das in deinem Server keinesfalls ein NIC mit Realtec Chipsatz werkelt solltest du auch.
Mit den Schritten kommst du schon mal weiter...
http://www.heise.de/netze/artikel/TCP-IP-Tuning-221778.html
Das ist im SMB/CIFS Umfeld zwingend erforderlich !
Es wäre auch sehr sinnvoll einmal zu messen was dein Netzwerk an sich an Durchsatz hergibt, nur damit man hier mal eine verlässliche Vergleichsgröße zur Orientierung überhaupt hat.
Am besten misst du das mit dem kostenlosen NetIO:
http://www.ars.de/ars/ars.nsf/docs/netio
Wie das zu bewerkstelligen ist wird hier erklärt:
http://www.nwlab.net/art/netio/netio.html
Darauf achten das in deinem Server keinesfalls ein NIC mit Realtec Chipsatz werkelt solltest du auch.
Mit den Schritten kommst du schon mal weiter...
Hallo,
Da du leider keine genaueren Angaben zur Software machst: Wäre es vielleicht denkbar, dass es ein Problem mit der Software als solches ist? Möglicherweise gibt es da bestimmte Locks, die sich beim Zugriff auf die Daten gegenseitig blockieren, bis irgendein Client nachgibt (Dining Philosophers).
Du schreibst es sei schon mit einem einzelnen Client recht langsam. Auch wenn dieser Client der Server selbst (also lokaler Dateizugriff) ist?
Zitat von @Toastking:
Auf allen Client-PCs ist eine Software installiert, die als "Datenordner" einen SMB-Share auf dem Server nutzt, der
wiederum per Netzlaufwerk auf allen Clients eingebunden ist.
Diese Software nutzt eine Art dateibasierte Datenbankstruktur. Es finden also viele I/O-Operationen statt, und jede dieser
Operationen läuft letztendlich über das Netzwerk via SMB. Ein Wechsel der Software ist keine Option.
Auf allen Client-PCs ist eine Software installiert, die als "Datenordner" einen SMB-Share auf dem Server nutzt, der
wiederum per Netzlaufwerk auf allen Clients eingebunden ist.
Diese Software nutzt eine Art dateibasierte Datenbankstruktur. Es finden also viele I/O-Operationen statt, und jede dieser
Operationen läuft letztendlich über das Netzwerk via SMB. Ein Wechsel der Software ist keine Option.
Da du leider keine genaueren Angaben zur Software machst: Wäre es vielleicht denkbar, dass es ein Problem mit der Software als solches ist? Möglicherweise gibt es da bestimmte Locks, die sich beim Zugriff auf die Daten gegenseitig blockieren, bis irgendein Client nachgibt (Dining Philosophers).
Du schreibst es sei schon mit einem einzelnen Client recht langsam. Auch wenn dieser Client der Server selbst (also lokaler Dateizugriff) ist?

Laufen denn alle Beteiligten "Maschinen" (PCs, Switche & Server) mit 1 GBit/s FullDuplex oder
ist das alles ein Mischmasch aus verschiedenen Geschwindigkeiten?
Gruß
Dobby
P.S.
Ich meine jetzt nicht was die Maschinen laut Datenblatt können! Sondern was wirklich eingestellt ist!
ist das alles ein Mischmasch aus verschiedenen Geschwindigkeiten?
Gruß
Dobby
P.S.
Ich meine jetzt nicht was die Maschinen laut Datenblatt können! Sondern was wirklich eingestellt ist!
Windows 7 passt die Windowsize automatisch an, denn es hat einen vollkommen neuen TCP/IP Stack. Da ist nichts zu machen.
Der üble Knackpunkt sind die XP Rechner ! Die musst du anfassen !
Sinnvoll ist natürlich auch eine gute Netzwerk Karten Hardware auf dem Server einzusetzen. Billige onboard Realtek Chipsätze usw. haben darauf natürlich gar nichts zu suchen. Das solltest du auch sicherstellen !
Und...natürlich den NetIO Test durchführen um beurteilen zu können was dein Netzwerk überhaupt für Transferraten hergibt.
Idealerweise machst du das zwischen deinem Server und einem Client. Noch idealerweise wenn der Client einmal XP und Win 7 ist.
Das NetIO ist eine kleine Programmdatei die in der Eingabeaufforderung gestartet wird ist also ganz einfach zu machen !
Die Werte wären sinnvoll zu wissen hier !
Der üble Knackpunkt sind die XP Rechner ! Die musst du anfassen !
Sinnvoll ist natürlich auch eine gute Netzwerk Karten Hardware auf dem Server einzusetzen. Billige onboard Realtek Chipsätze usw. haben darauf natürlich gar nichts zu suchen. Das solltest du auch sicherstellen !
Und...natürlich den NetIO Test durchführen um beurteilen zu können was dein Netzwerk überhaupt für Transferraten hergibt.
Idealerweise machst du das zwischen deinem Server und einem Client. Noch idealerweise wenn der Client einmal XP und Win 7 ist.
Das NetIO ist eine kleine Programmdatei die in der Eingabeaufforderung gestartet wird ist also ganz einfach zu machen !
Die Werte wären sinnvoll zu wissen hier !
Zitat von @Toastking:
Da diese extremen Verzögerungen ja nur auftreten, wenn mehrere Clients zugleich aktiv sind, kann ich mir das jetzt nur noch
mit dem dateibasierten Datenhaltungssystem der Software erklären, sodass hier wohl kein lösbares Netzwerkproblem
vorliegt. Die vorgeschlagene Terminalserver-Lösung ist also vermutlich gar nicht so schlecht, da diese Zugriffe lokal auf dem
Server deutlich schneller ablaufen dürften. Oder hat jemand von euch noch einen alternativen Vorschlag?
Da diese extremen Verzögerungen ja nur auftreten, wenn mehrere Clients zugleich aktiv sind, kann ich mir das jetzt nur noch
mit dem dateibasierten Datenhaltungssystem der Software erklären, sodass hier wohl kein lösbares Netzwerkproblem
vorliegt. Die vorgeschlagene Terminalserver-Lösung ist also vermutlich gar nicht so schlecht, da diese Zugriffe lokal auf dem
Server deutlich schneller ablaufen dürften. Oder hat jemand von euch noch einen alternativen Vorschlag?
Keine Alternative, aber ich möchte nur noch mal auf meine ursprüngliche Anmerkung hinweisen, dass die Software sich möglicherweise selbst blockiert.
Daher würde ich empfehlen, dass du zuerst mal testest, ob sich die Software wirklich ausreichend schnell bedienen lässt, wenn alle Nutzer lokal darauf zugreifen.
Es wäre doch reichlich ärgerlich, wenn du Zeit und Geld in die Terminalserver-Lösung steckst, nur um dann festzustellen, dass sich keine Besserung eingestellt hat.
Ansonsten bliebe vielleicht lediglich, den Hersteller zu fragen, ob er in näherer Zukunft gedenkt die Datenbank auch auf einer "richtigen" Datenbank betreiben zu können.