10Gbit LAN nutzen um VMDKs zu sichern?
Hallo zusammen,
man soll ja schon mal neue Wege gehen und so befasse ich mich gerade daheim mit einem kleinen 10 Gbit-Update der Infrastruktur.
Erstmal zur Umgebung:
Zentraler Switch: Netgear XS508M unmanaged
Angeschlossen:
Der Server hat SSDs, genau wie mein PC-System, ich kann auch sehr schön größere Dateien mit 5 Gbit/s schreiben und >8 Gbit/s lesen,
also vom Grundsatz her funktioniert alles wie gewollt. Sicherlich bestehen noch Optimierungsmöglichkeiten u.a. durch MTU Anpassung,
dazu im Nachgang noch eine Frage.
Nun war ich der naiven Meinung ich könnte mal eben eine VMDK-flat aus dem Datastore herunterladen und müsste mich nicht mehr mit
1 Gbit/s rumschlagen. Leider schaffe ich beim Download (egal ob Edge Chromium oder Firefox) nur 1,5 Gbit/s und ich verstehe nicht warum?
Ich kann also zur VM am Server mit bis zu 10 Gbit vordringen, aber zum ESXi selbst nur mit bis zu 1,5 Gbit/s?
Nun dachte ich, da mein Netgear Jumboframes von bis 9K kann, stelle ich mal testweise um, also VMkernel und in Windows die MTU auf 9000 geändert, Ende vom Lied mein PC kann nicht mal mehr die Loginseite des ESXi aufrufen, SSH geht noch und sobald ich entweder den Server oder den PC auf MTU 1500 zurücksetze komme ich auch wieder aufs Webinterface.
--> vielleicht aber auch das falsche Vorgehen, mit den MTUs habe ich bisher noch nie gespielt.
Meine Gedankenansätze:
Macht für mich alles irgendwie keinen Sinn, aber vielleicht kann mich jemand erleuchten?
Danke
man soll ja schon mal neue Wege gehen und so befasse ich mich gerade daheim mit einem kleinen 10 Gbit-Update der Infrastruktur.
Erstmal zur Umgebung:
Zentraler Switch: Netgear XS508M unmanaged
Angeschlossen:
- Fritz!Box 6660 mit 2,5 Gbit/s
- Homeserver (ESXi 6.7) mit 10 Gbit/s --> Intel X540-T2
- Management & Produktiv Portgruppe im ESXi laufen über den selben vSwitch, also sollten da keine Unterschiede bestehen.
- VM: Server 2019 Essentials
- PC-System (Win 2004) mit 10 Gbit/s --> AQUANTIA AQC107
Der Server hat SSDs, genau wie mein PC-System, ich kann auch sehr schön größere Dateien mit 5 Gbit/s schreiben und >8 Gbit/s lesen,
also vom Grundsatz her funktioniert alles wie gewollt. Sicherlich bestehen noch Optimierungsmöglichkeiten u.a. durch MTU Anpassung,
dazu im Nachgang noch eine Frage.
Nun war ich der naiven Meinung ich könnte mal eben eine VMDK-flat aus dem Datastore herunterladen und müsste mich nicht mehr mit
1 Gbit/s rumschlagen. Leider schaffe ich beim Download (egal ob Edge Chromium oder Firefox) nur 1,5 Gbit/s und ich verstehe nicht warum?
Ich kann also zur VM am Server mit bis zu 10 Gbit vordringen, aber zum ESXi selbst nur mit bis zu 1,5 Gbit/s?
Nun dachte ich, da mein Netgear Jumboframes von bis 9K kann, stelle ich mal testweise um, also VMkernel und in Windows die MTU auf 9000 geändert, Ende vom Lied mein PC kann nicht mal mehr die Loginseite des ESXi aufrufen, SSH geht noch und sobald ich entweder den Server oder den PC auf MTU 1500 zurücksetze komme ich auch wieder aufs Webinterface.
--> vielleicht aber auch das falsche Vorgehen, mit den MTUs habe ich bisher noch nie gespielt.
Meine Gedankenansätze:
- Browser limitieren die Downloadgeschwindigkeit? (aber warum dann bei 1,5 Gbit?)
- VMkernel hat eine Begrenzung auf 1,5 Gbit/s?
- Über den Browser wird der Standardgateway genutzt und somit besteht der Umweg über den 2,5 Gbit-Port der Fritz!Box?
Macht für mich alles irgendwie keinen Sinn, aber vielleicht kann mich jemand erleuchten?
Danke
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 600698
Url: https://administrator.de/forum/10gbit-lan-nutzen-um-vmdks-zu-sichern-600698.html
Ausgedruckt am: 25.12.2024 um 16:12 Uhr
4 Kommentare
Neuester Kommentar
die Probleme können sehr vielschichtig sein. Aber garantiert nicht in virtuellen VMware Switches. Die bremsen höchstens wenn man es als Admin so will über Traffic shaping (oder wie auch immer das nun im ESXi 6.7 heißt)
- Windows 10 performt mit den Microsoft Netzwerktreibern eher schlecht. Du hast hoffentlich VMXNET3 eingestellt, oder?
- die MTUs verwirren am Ende nur Netzkomponenten, ferner sind die bei leistungsfähiger Hardware nie nie nie der Flaschenhals... der Overhead für IP Paketsegmentierung beträgt Promille, und wird oft von der Grafikkarte in Hardware angeboten. Man gewinnt dadurch quasi garnichts.
- falsche Offloading Optionen an der (virtuellen) Netzwerkkarte eingestellt die diese dann nicht kann
Man könnte rein theoretisch ncoh mal über Jumbpframes nachdenken, die sind 1 MB groß wenn ich mich nicht irre.
Und zuguterletzt deine SSDs. Nur SLC haben durchgängig die volle Bandbreite, TLCs nur über ca. 1/3 ihrer Größe und QLCs über ein Viertel und noch krasser geht die Post bei NVMEs ab. Die haben einen DRAM Cache über 3-10% der DAtenträgergröße wo man diese phantastischen Lese/Schreibraten von fast 4 GByte/Sekunde auf den ersten zig GB, und die brechen dann ein je nachdem wieviel Geld man dafür ausgegeben hat. Runter bis 60 MB/Sekunde.
- Windows 10 performt mit den Microsoft Netzwerktreibern eher schlecht. Du hast hoffentlich VMXNET3 eingestellt, oder?
- die MTUs verwirren am Ende nur Netzkomponenten, ferner sind die bei leistungsfähiger Hardware nie nie nie der Flaschenhals... der Overhead für IP Paketsegmentierung beträgt Promille, und wird oft von der Grafikkarte in Hardware angeboten. Man gewinnt dadurch quasi garnichts.
- falsche Offloading Optionen an der (virtuellen) Netzwerkkarte eingestellt die diese dann nicht kann
Man könnte rein theoretisch ncoh mal über Jumbpframes nachdenken, die sind 1 MB groß wenn ich mich nicht irre.
Und zuguterletzt deine SSDs. Nur SLC haben durchgängig die volle Bandbreite, TLCs nur über ca. 1/3 ihrer Größe und QLCs über ein Viertel und noch krasser geht die Post bei NVMEs ab. Die haben einen DRAM Cache über 3-10% der DAtenträgergröße wo man diese phantastischen Lese/Schreibraten von fast 4 GByte/Sekunde auf den ersten zig GB, und die brechen dann ein je nachdem wieviel Geld man dafür ausgegeben hat. Runter bis 60 MB/Sekunde.