10 GBit-Backbone gegenüber 1 GBit für Server sinnvoll?
Hallo zusammen!
Wir wollen unsere Serveranbindung konsolidieren, speziell die Server an einen kleinen aber schnellen Switch zusammen führen.
Derzeit sind 2 Server 2003 R2 und ein 2008 R2 (LTO3-Tape) sowie der eine oder andere kleinere PC mit serverartigen Funktionen zusammen mit den Clients und Netzwerkdruckern auf einem Gigabit-Switch.
Hier nun die Frage, macht es Sinn wenn die Server untereinander mit 10GBit und die Clients mit 1GBit kommunizieren?
Welche Hardware könnt ihr empfehlen als Switch und und als Karte für nachträglichen EInbau in den Server. Welche Cat-Kabel werden optimalerweise verwendet?
Es wird keine kompromisslose Höchstleistung benötigt, gut und günstig lautet die Devise! ;)
Gruß, Thomas
Wir wollen unsere Serveranbindung konsolidieren, speziell die Server an einen kleinen aber schnellen Switch zusammen führen.
Derzeit sind 2 Server 2003 R2 und ein 2008 R2 (LTO3-Tape) sowie der eine oder andere kleinere PC mit serverartigen Funktionen zusammen mit den Clients und Netzwerkdruckern auf einem Gigabit-Switch.
Hier nun die Frage, macht es Sinn wenn die Server untereinander mit 10GBit und die Clients mit 1GBit kommunizieren?
Welche Hardware könnt ihr empfehlen als Switch und und als Karte für nachträglichen EInbau in den Server. Welche Cat-Kabel werden optimalerweise verwendet?
Es wird keine kompromisslose Höchstleistung benötigt, gut und günstig lautet die Devise! ;)
Gruß, Thomas
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 188314
Url: https://administrator.de/forum/10-gbit-backbone-gegenueber-1-gbit-fuer-server-sinnvoll-188314.html
Ausgedruckt am: 02.04.2025 um 13:04 Uhr
14 Kommentare
Neuester Kommentar
Hallo,
gut und günstig? dann würd ich aber nicht direkt 10 GBit in betracht ziehen
Ich denke nicht das bei so einem kleinen Netzwerk 10 GBit von Nöten ist (außer ihr schiebt natürlich riesige Mengen an Daten zwischen euren 3 Server hin und her
).
Wenn ich mal davon ausgeh das auf euren Server denke ich mal die üblichen Anwendungen wie Dateiserver (Hauptsächlich Office Dateien, ein paar Images etc.), vllt ein Mail-Server und vllt noch ein WWS läuft, behaupte ich (ohne eure Anwendungen und Anforderungen zu kennen), dass ein guter 1 GBit Switch ausreichen sein sollte.
Wenn sich allerdings herausstellt das ihr riesigen Traffic habt und kurze Latenzzeiten benötigt (was ich aber dank deinem letzen Satz nicht denke), dann wären evtl. über 10 GBit nachzudenken.
Also erstmal noch ein paar Fragen um deine Anforderungen zu konkretisieren:
- Wieviele Clients arbeiten in dem Netzwerk?
- Was für Anwendungen laufen auf den Servern?
- An was für einem Switch (Modell) hängen die Server/Drucker momentan?
- Gibt es momentan Engpässe?
gut und günstig? dann würd ich aber nicht direkt 10 GBit in betracht ziehen
Ich denke nicht das bei so einem kleinen Netzwerk 10 GBit von Nöten ist (außer ihr schiebt natürlich riesige Mengen an Daten zwischen euren 3 Server hin und her
Wenn ich mal davon ausgeh das auf euren Server denke ich mal die üblichen Anwendungen wie Dateiserver (Hauptsächlich Office Dateien, ein paar Images etc.), vllt ein Mail-Server und vllt noch ein WWS läuft, behaupte ich (ohne eure Anwendungen und Anforderungen zu kennen), dass ein guter 1 GBit Switch ausreichen sein sollte.
Wenn sich allerdings herausstellt das ihr riesigen Traffic habt und kurze Latenzzeiten benötigt (was ich aber dank deinem letzen Satz nicht denke), dann wären evtl. über 10 GBit nachzudenken.
Also erstmal noch ein paar Fragen um deine Anforderungen zu konkretisieren:
- Wieviele Clients arbeiten in dem Netzwerk?
- Was für Anwendungen laufen auf den Servern?
- An was für einem Switch (Modell) hängen die Server/Drucker momentan?
- Gibt es momentan Engpässe?
10 GiG über CAT Kabel geht gar nicht oder nur sehr bedingt. Zeigt eher das du dich mit dem Thema 10 GiG nicht wirklich beschäftigt hast.
Den Standard 10G-BaseT (10 GiG über Cat Kabel) gibt es zwar aber nur sehr wenige Hersteller die ihn supporten. NIC Karten gibt es so gut wie gar nicht dazu.
Am weitesten sind NICs mit SFP+ GBIC Slots verbreitet, die du auch verwenden solltest. Intel, Broadcom, Marvell sind hier wie immer die Klassiker.
Verkabelung machst du dann mit preiswerten Twinax Kupfer Kabeln an die die SFP+ GBICs gleich angecrimpt sind:
http://www.youtube.com/watch?v=P2A_hzo_Pl4
http://www.cisco.com/en/US/prod/collateral/modules/ps5455/data_sheet_c7 ...
Die preiswerteste Verkabelungs Variante wenn du nicht mehr als 10 Meter zw. Server und Switch überbrücken musst !!
Hast du mehr als 10 Meter kommst du um eine Glasfaserverbindung bei 10 GiG nicht drumrum. Die Technik bei NIC und Switch ist dann die gleiche statt der fertigen Direct Attach Twinax Kabel nimmst du dann ganz einfach Glasfaser SFP+ GBICs und Glasfaser Patchkabel...fertig.
10GiG Switches haben dann entsprechend auch diese SFP+ GBIC slots für Twinax oder Glas.
Alle renomierten Hersteller (HP, Cisco, Brocade, Extreme, Enterasys usw.) Haben Switches im Portfolio die auf 1 HE 2 oder 4 10 GiG Ports haben und 24 oder 48 GiG Ports. Damit fährst du am besten.
Den Rest der Fragen nach der Sinnhaftigkeit kann man dir sinnvollerweise nicht beantworten, denn es ist essentiell wichtig WIE die Trafficströme in deinem Netzwerk sind um beurteilen zu können ob es aus Perfromance Sicht Sinn macht oder nicht.
Dazu sagst du leider kein einziges Wort und deshalb ist eine zielführende Antwort unmöglich wie du dir logischerweise auch selber denken kannst ?!
Wenn du also sehr viel Traffic zw. Server A und B hast macht es ggf. Sinn.
Wenn einen Menge an Clients verteilt auf den Servern arbeiten macht es natürlich weniger Sinn. Traffic Flow und ggf. Engpässe in der Bandbreite sind hier der Schlüssel zur Antwort.
Zudem muss die Server Hardware (Platten, Controller, Bussystem usw.) auch dafür ausgelegt sein eine 10 GiG NIC möglichst gut ausnutzen zu können. Hast du einen schwachbrüstigen Server bzw. Hardware nützt die 10 GiG herzlich wenig, dann kann man besser mit Link Aggregation (Teaming) auf den Servern und Switches arbeiten also der Zusammenfassung mehrere GiG Links zu einem aggregierten Link höherer Bandbreite.
Leider auch dazu von dir keinerlei Aussage
Was für eine Art Antwort erwartest du also nun von uns ??
Den Standard 10G-BaseT (10 GiG über Cat Kabel) gibt es zwar aber nur sehr wenige Hersteller die ihn supporten. NIC Karten gibt es so gut wie gar nicht dazu.
Am weitesten sind NICs mit SFP+ GBIC Slots verbreitet, die du auch verwenden solltest. Intel, Broadcom, Marvell sind hier wie immer die Klassiker.
Verkabelung machst du dann mit preiswerten Twinax Kupfer Kabeln an die die SFP+ GBICs gleich angecrimpt sind:
http://www.youtube.com/watch?v=P2A_hzo_Pl4
http://www.cisco.com/en/US/prod/collateral/modules/ps5455/data_sheet_c7 ...
Die preiswerteste Verkabelungs Variante wenn du nicht mehr als 10 Meter zw. Server und Switch überbrücken musst !!
Hast du mehr als 10 Meter kommst du um eine Glasfaserverbindung bei 10 GiG nicht drumrum. Die Technik bei NIC und Switch ist dann die gleiche statt der fertigen Direct Attach Twinax Kabel nimmst du dann ganz einfach Glasfaser SFP+ GBICs und Glasfaser Patchkabel...fertig.
10GiG Switches haben dann entsprechend auch diese SFP+ GBIC slots für Twinax oder Glas.
Alle renomierten Hersteller (HP, Cisco, Brocade, Extreme, Enterasys usw.) Haben Switches im Portfolio die auf 1 HE 2 oder 4 10 GiG Ports haben und 24 oder 48 GiG Ports. Damit fährst du am besten.
Den Rest der Fragen nach der Sinnhaftigkeit kann man dir sinnvollerweise nicht beantworten, denn es ist essentiell wichtig WIE die Trafficströme in deinem Netzwerk sind um beurteilen zu können ob es aus Perfromance Sicht Sinn macht oder nicht.
Dazu sagst du leider kein einziges Wort und deshalb ist eine zielführende Antwort unmöglich wie du dir logischerweise auch selber denken kannst ?!
Wenn du also sehr viel Traffic zw. Server A und B hast macht es ggf. Sinn.
Wenn einen Menge an Clients verteilt auf den Servern arbeiten macht es natürlich weniger Sinn. Traffic Flow und ggf. Engpässe in der Bandbreite sind hier der Schlüssel zur Antwort.
Zudem muss die Server Hardware (Platten, Controller, Bussystem usw.) auch dafür ausgelegt sein eine 10 GiG NIC möglichst gut ausnutzen zu können. Hast du einen schwachbrüstigen Server bzw. Hardware nützt die 10 GiG herzlich wenig, dann kann man besser mit Link Aggregation (Teaming) auf den Servern und Switches arbeiten also der Zusammenfassung mehrere GiG Links zu einem aggregierten Link höherer Bandbreite.
Leider auch dazu von dir keinerlei Aussage
Was für eine Art Antwort erwartest du also nun von uns ??
Hi,
Zunächst eine kleinigkeit zu deiner Frage, generell wird das Vorhaben natürlich die Geschwindigkeit zwischen deinen Servern verbessern, die Anbindung deiner Client wir sich allerdings im schlimmsten Fall um das dreifache (Vorher Pro Server ein Gigabit Port, jetzt nur noch 1 für alle 3) verschlechtern. Du könntest irgendwie versuchen die Anbindung zwischen den beiden Switsches zu verbessern (Stichwort LACP).
Noch ein anderer Punkt, warum wollt ihr die Geschwindigkeit erhöhen? Ist euer Netz zu langsam? Oder nur die Kommunikation zwischen den Servern? Bevor ihr Tausende ins Backbone steckt obwohl, Z.B. nur die 2003 und 2008 Server Daten nicht schnell genug rübern nüber schieben, lies dir mal ein bisschen zeug über die Neuerungen im SMB Protokoll ab Server 2008 durch, das Bringt auch schon mehr Performance, zumindest bei der Dateiübertragung. Dann könntet ihr das Geld in neue Software anlegen da die Verkabelung auf Gigabit doch schon recht gut ist.
Lieben Gruß
PJM
Zunächst eine kleinigkeit zu deiner Frage, generell wird das Vorhaben natürlich die Geschwindigkeit zwischen deinen Servern verbessern, die Anbindung deiner Client wir sich allerdings im schlimmsten Fall um das dreifache (Vorher Pro Server ein Gigabit Port, jetzt nur noch 1 für alle 3) verschlechtern. Du könntest irgendwie versuchen die Anbindung zwischen den beiden Switsches zu verbessern (Stichwort LACP).
Noch ein anderer Punkt, warum wollt ihr die Geschwindigkeit erhöhen? Ist euer Netz zu langsam? Oder nur die Kommunikation zwischen den Servern? Bevor ihr Tausende ins Backbone steckt obwohl, Z.B. nur die 2003 und 2008 Server Daten nicht schnell genug rübern nüber schieben, lies dir mal ein bisschen zeug über die Neuerungen im SMB Protokoll ab Server 2008 durch, das Bringt auch schon mehr Performance, zumindest bei der Dateiübertragung. Dann könntet ihr das Geld in neue Software anlegen da die Verkabelung auf Gigabit doch schon recht gut ist.
Lieben Gruß
PJM
Da ist es vermutlich sinnvoller etwas Geld zu sparen und zwischen den betroffenen Switches eine 2er oder 4er Link Aggregation mit 1 GiG zu konfigurieren um die Performance zu erhöhen. Solltest du dennoch mehr brauchen kannst du ja immer noch auf 10 GiG wechseln.
Denk dran das das wenn du das machst (Link Aggregation) es immer auf beiden Switchenden passieren muss damit der LAG funktioniert.
Kannst du aber auch im Switch im Status Fenster sehen ob der aktiv ist.
@fisi-pjm
Deine Logik warum sich die Client Kommunikation mit einem 10 GiG attachten Server (der vorher nur 1 GiG hatte) um das dreifache ! verschlechtern soll musst du uns hier erstmal erklären, denn die ist nicht nachvollziehbar ?!
Rechnen wir mal ganz einfach über den Daumen mit möglicher Wirespeed würde die 10 GiG Anbindung der Servers 10 Clients ! gleichzeitig in Wirespeed bedienen können mit 1 GiG.
Mit der ursprünglichen 1 GiG Anbindung hätten 10 Clients eine nominale Bandbreite von max. 100 Mbit auf den Server.
Wie kommst du also zu dieser unsinnigen "Dreifach" Aussage der Client Performance ??
Denk dran das das wenn du das machst (Link Aggregation) es immer auf beiden Switchenden passieren muss damit der LAG funktioniert.
Kannst du aber auch im Switch im Status Fenster sehen ob der aktiv ist.
@fisi-pjm
Deine Logik warum sich die Client Kommunikation mit einem 10 GiG attachten Server (der vorher nur 1 GiG hatte) um das dreifache ! verschlechtern soll musst du uns hier erstmal erklären, denn die ist nicht nachvollziehbar ?!
Rechnen wir mal ganz einfach über den Daumen mit möglicher Wirespeed würde die 10 GiG Anbindung der Servers 10 Clients ! gleichzeitig in Wirespeed bedienen können mit 1 GiG.
Mit der ursprünglichen 1 GiG Anbindung hätten 10 Clients eine nominale Bandbreite von max. 100 Mbit auf den Server.
Wie kommst du also zu dieser unsinnigen "Dreifach" Aussage der Client Performance ??
Moin
@aqui: naja - indem man die Server alle aussschließlich über 10GBit verbindet und den Switch für die Clients dann über einen Uplink anschließt. Dass ein Backbone etwas anderes ist, ist dir sooo klar, dass du das wohl nicht direkt verstanden hast ;)
Nebenbei ist die Konfiguration eines solchen Netzes auch kein Knderspiel. Stichwort "Multihomed DC". Wenn man so etwas macht, dann muss man siih auch mit der Materie erst einmal gründlich auseinandersetzen.
Bei Betrachtung des Kosten/Nutzen-Effekts, schließe ich mich voll und ganz aqui an, denn das Geld kann man an anderer Stelle sicher besser einsetzen. Die Frage wäre ja auch erst einmal in erster Linie, welche Datenmengen die Server untereinander austauschen. In einer normalen, kleinen Umgebung dürfte dafür das 1GBit-Netz mehr als ausreichend sein...
Gruß
Dirk
@aqui: naja - indem man die Server alle aussschließlich über 10GBit verbindet und den Switch für die Clients dann über einen Uplink anschließt. Dass ein Backbone etwas anderes ist, ist dir sooo klar, dass du das wohl nicht direkt verstanden hast ;)
Nebenbei ist die Konfiguration eines solchen Netzes auch kein Knderspiel. Stichwort "Multihomed DC". Wenn man so etwas macht, dann muss man siih auch mit der Materie erst einmal gründlich auseinandersetzen.
Bei Betrachtung des Kosten/Nutzen-Effekts, schließe ich mich voll und ganz aqui an, denn das Geld kann man an anderer Stelle sicher besser einsetzen. Die Frage wäre ja auch erst einmal in erster Linie, welche Datenmengen die Server untereinander austauschen. In einer normalen, kleinen Umgebung dürfte dafür das 1GBit-Netz mehr als ausreichend sein...
Gruß
Dirk
@hubertn
OK, mein Verständnis war wie vermutet das auf dem Client Switch auch 2 bis 4 mal 10 GiG Ports drauf sind und die Server da angeschlossen sind.
Wenn der Client Switch separat ist und z.B. mit 1 GiG angeschlossen, wär das Konzept dann natürlich totaler Unsinn, da hast du ohne Zweifel Recht !
Den müsste man dann mindestens mit einem 4er Gig Trunk (LAG) oder noch besser mit einem 8er Gig LAG anschliessen damit so ein Konzept dann Sinn macht...logisch !
OK, mein Verständnis war wie vermutet das auf dem Client Switch auch 2 bis 4 mal 10 GiG Ports drauf sind und die Server da angeschlossen sind.
Wenn der Client Switch separat ist und z.B. mit 1 GiG angeschlossen, wär das Konzept dann natürlich totaler Unsinn, da hast du ohne Zweifel Recht !
Den müsste man dann mindestens mit einem 4er Gig Trunk (LAG) oder noch besser mit einem 8er Gig LAG anschliessen damit so ein Konzept dann Sinn macht...logisch !
10GBaseT läuft selbst über ungeschirmte Cat6a Kabel und Buchsen, RJ45 und 100m. Der Standard ist lange durch. Man kann auch komplexere Kabel (Cat7) und selbstverständich Schirmung nutzen.
Sorry, konnte mich nicht zurück halten.
Gruß
Netman
Am weitesten sind NICs mit SFP+ GBIC Slots verbreitet, die du auch verwenden solltest. Intel, Broadcom, Marvell sind hier wie immer die Klassiker.
GBIC ist hier ein schwieriges Wort, da der 1GBit Komponente vorbehalten. SFP steht für kleines Einsteckgerät (Small Form factor Plugable) und die meisten sind sogar nur simple Medienkonverter.Verkabelung machst du dann mit preiswerten Twinax Kupfer Kabeln an die die SFP+ GBICs gleich angecrimpt sind:
In der Aufzählung fehlen noch die leicht größeren XFPs. Twinax für Infrastrukturen ist tot und viel zu teuer und nur für 15 m geeignet.10GiG Switches haben dann entsprechend auch diese SFP+ GBIC slots für Twinax oder Glas.
spezielle MM-Fasern oder Singlemode oder Kupfer TP Cat6aHast du einen schwachbrüstigen Server bzw. Hardware nützt die 10 GiG herzlich wenig, dann kann man besser mit Link Aggregation (Teaming) auf den Servern und Switches arbeiten also der Zusammenfassung mehrere GiG Links zu einem aggregierten Link höherer Bandbreite.
Teaming und Link Aggregation sind leicht verschiedene Dinge. Link Aggregation ist ein wirklich breiterer Link um den Faktor der zusammengefassten Einzellinks und erfordert eine exakte Konfiguration auf beiden Seiten. Teaming ist meist ein Sicherheitsfeature für Arme mit etwas erhöhter Bandbreite.Sorry, konnte mich nicht zurück halten.
Gruß
Netman
Moin,
Also ich würde das ganze nicht unnötig verkomplizieren.
LGA würde ich rein gefühlsmäßig nur zwischen zwei gleichartigen Switchen (am besten gleiches Modell) machen und selbst dann, seh ich hier kein größeren Nutzen.
rudeboy:
Du hast den HyperV erwähnt, falls dieser nur mit einer 1GBit Leitung angebunden ist, wär die einfachste und kostengünstigste Variante, einfach noch weitere Netzwerkkarten in den Server einzubauen (falls nicht ohnehin vorhanden) und somit die Last auf mehrere Karten/Ports zu verteieln.
Ich hab schon wesentlich größere Umgebungen gesehen wo Server auch "nur" mit 1GBit angebunden waren und sehr viel Datenintensivere Anwendungen laufen wie Datev, CRM oder WSUS
Außer bei Verbindungen zwischen zwei Rechenzentren sehe ich bei "normalen" Servern keinen entscheidenden Vorteil von 10GBit im Vergleich zu 1GBit.
Also ich würde das ganze nicht unnötig verkomplizieren.
LGA würde ich rein gefühlsmäßig nur zwischen zwei gleichartigen Switchen (am besten gleiches Modell) machen und selbst dann, seh ich hier kein größeren Nutzen.
rudeboy:
Du hast den HyperV erwähnt, falls dieser nur mit einer 1GBit Leitung angebunden ist, wär die einfachste und kostengünstigste Variante, einfach noch weitere Netzwerkkarten in den Server einzubauen (falls nicht ohnehin vorhanden) und somit die Last auf mehrere Karten/Ports zu verteieln.
Ich hab schon wesentlich größere Umgebungen gesehen wo Server auch "nur" mit 1GBit angebunden waren und sehr viel Datenintensivere Anwendungen laufen wie Datev, CRM oder WSUS
Außer bei Verbindungen zwischen zwei Rechenzentren sehe ich bei "normalen" Servern keinen entscheidenden Vorteil von 10GBit im Vergleich zu 1GBit.
@fisi-pjm
Deine Logik warum sich die Client Kommunikation mit einem 10 GiG attachten Server (der vorher nur 1 GiG hatte) um das dreifache !
verschlechtern soll musst du uns hier erstmal erklären,
Deine Logik warum sich die Client Kommunikation mit einem 10 GiG attachten Server (der vorher nur 1 GiG hatte) um das dreifache !
verschlechtern soll musst du uns hier erstmal erklären,
also ich bin wahrscheinlich fälschlicherweise davon ausgegangen das auch die Client Gigabit angebunden sind. Dann würde die aussage durchaus zutreffen, aber du hast mit deiner annahme das die Clients nur über eine 100 Mbit Karte verfügen sicher recht.
Nein, auch wenn die Cleints 1 GiG hätten würde sich das ja so aufteilen und die Aussage von dir wäre unverständlich.
Es kann ja nie schlechter werden als mit dem singulären GiG Link vorher.
Unsinnig wäre natürlich die Server mit 10 GiG anzubinden und und ein Switch mit allen Clients dann wieder nur mit 1 GiG. Das wäre Blödsinn, denn damit hätte man nix gewonnen.
Sinnvoll wäre dann hier ein 4er oder 8er Gig Trunk zwischen so einem Client Switch und einem 10 GiG Serverswitch.
Aber egal dazu ist ja oben schon alles gesagt !
Es kann ja nie schlechter werden als mit dem singulären GiG Link vorher.
Unsinnig wäre natürlich die Server mit 10 GiG anzubinden und und ein Switch mit allen Clients dann wieder nur mit 1 GiG. Das wäre Blödsinn, denn damit hätte man nix gewonnen.
Sinnvoll wäre dann hier ein 4er oder 8er Gig Trunk zwischen so einem Client Switch und einem 10 GiG Serverswitch.
Aber egal dazu ist ja oben schon alles gesagt !