Nur 35 bis 47MB/s unter Gbit LAN mit Intel Pro 1000 CT bzw. MT
Mit dem Benchmark-Programm SiSoft Sandra habe ich Performance Tests mit GBit-Adaptern unter Windows (XP, W2K, NT4.0, W98) gemacht. Die Ergebnisse stehen nicht dort, wo sie sein sollen.
SiSoft Sandra erlaubt Benchmarks der Netzwerkkarten. Man kann alle PCs in einem Netzwerk zueinander prüfen.
Die 100Mbit/s Netzwerk PCs mit integrierten LAN-Chips (z.B. nForce2 oder SIS900) bringen es so auf Brutto-Übertragungsraten von 10MByte/s. Wie es zu erwarten war. Ältere PCI-Karten (z.B. Level One) kommen nur auf 9MB/s. Auch nicht schlecht. Immerhin 90% der theoretisch möglichen Transferrate. Die allgemein verbauten Platten auf Clientseite sind meist langsamer.
Leider bringen die Gbit-Netzwerkkarten nicht die Leistung, die ich erwartet habe. Bei Intel Pro 1000 MT PCI-Karten komme ich nur auf 35MB/s. Der PCI-Bus sollte aber 132MB/s bringen. Jetzt habe ich gehört, dass das auf dem PCI-Bus immer nur in eine Richtung geht, so dass in Realität auf dem PCI-Bus bei 60 bis 65MB/s in der Regel Schluss ist.
Doch warum erreichen die Netzwerkkarten nur die Hälfte von diesem theoretischen Wert? Am 24 Port Gbit Switch liegt es auch nicht, denn ich habe die Tests mit einem Cross-Over-Kabel überprüft. Es kommen die gleichen zu niedrigen Ergebnisse heraus.
Den absoluten Spitzenwert erhalte ich beim Test zwischen einem Intel Pro 1000CT (Server PCI-X Anschluss) und einem Intel Pro 1000 CT (PCI Karte). Bei dieser Paarung erreiche ich 47MB/s. Zwei PCI-X Netzwerkanschlüsse habe ich leider nicht.
Wer kann helfen?
Wer hat ähnliche Erfahrungen gemacht? Wer hat auf einem Gbit-Adapter bereits mehr als 50MB/s zustande gebracht? Im SiSoft Sandra wird ein 1000Base-T F/D Adapter unter PCI-X mit 97MB/s angegeben. Unter PCI soll dieser Anschluss immerhin 54MB/s bringen.
Gruß
Horst
SiSoft Sandra erlaubt Benchmarks der Netzwerkkarten. Man kann alle PCs in einem Netzwerk zueinander prüfen.
Die 100Mbit/s Netzwerk PCs mit integrierten LAN-Chips (z.B. nForce2 oder SIS900) bringen es so auf Brutto-Übertragungsraten von 10MByte/s. Wie es zu erwarten war. Ältere PCI-Karten (z.B. Level One) kommen nur auf 9MB/s. Auch nicht schlecht. Immerhin 90% der theoretisch möglichen Transferrate. Die allgemein verbauten Platten auf Clientseite sind meist langsamer.
Leider bringen die Gbit-Netzwerkkarten nicht die Leistung, die ich erwartet habe. Bei Intel Pro 1000 MT PCI-Karten komme ich nur auf 35MB/s. Der PCI-Bus sollte aber 132MB/s bringen. Jetzt habe ich gehört, dass das auf dem PCI-Bus immer nur in eine Richtung geht, so dass in Realität auf dem PCI-Bus bei 60 bis 65MB/s in der Regel Schluss ist.
Doch warum erreichen die Netzwerkkarten nur die Hälfte von diesem theoretischen Wert? Am 24 Port Gbit Switch liegt es auch nicht, denn ich habe die Tests mit einem Cross-Over-Kabel überprüft. Es kommen die gleichen zu niedrigen Ergebnisse heraus.
Den absoluten Spitzenwert erhalte ich beim Test zwischen einem Intel Pro 1000CT (Server PCI-X Anschluss) und einem Intel Pro 1000 CT (PCI Karte). Bei dieser Paarung erreiche ich 47MB/s. Zwei PCI-X Netzwerkanschlüsse habe ich leider nicht.
Wer kann helfen?
Wer hat ähnliche Erfahrungen gemacht? Wer hat auf einem Gbit-Adapter bereits mehr als 50MB/s zustande gebracht? Im SiSoft Sandra wird ein 1000Base-T F/D Adapter unter PCI-X mit 97MB/s angegeben. Unter PCI soll dieser Anschluss immerhin 54MB/s bringen.
Gruß
Horst
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 9752
Url: https://administrator.de/contentid/9752
Ausgedruckt am: 22.11.2024 um 08:11 Uhr
18 Kommentare
Neuester Kommentar
also 132MB/s wäre schon erst mal rein theoretisch nicht drin, weil 1000/8 ja nur 125 sind. Des weiteren habe ich auch schon gehört, dass man am PCI Bus nur auf 62MB kommen kann. Aber eine Erklärung könnten die Kabel sein. Schon mal draufgeschaut? Also gemäß den Werten sollten es CAT5e Kabel sein, da sollte ab einer Länge jenseits der 5m nichts drüber zu machen sein. Nimm einfach mal CAT6 oder besser, die sind dann auch für Gigabit ausgelegt.
Man sollte auch beachten das eventuell die Festplatten die Daten nicht so schnell liefern können.
Ist zwar schon ein bischen älter der Link...
http://www.de.tomshardware.com/storage/20031107/hd-250-01.html
Ist zwar schon ein bischen älter der Link...
http://www.de.tomshardware.com/storage/20031107/hd-250-01.html
Das mit dem Protokolloverhaed ist mir schon klar, und im Ethernet sind die Protokolle ja auf 1460Byte beschränkt, und dann müssen die IP Pakete eben zerhackt werden. Das mit PCI und PCI-X erscheint mir aber schon logisch. Da es einmal ja direkt auf dem Board ist, und somit näher (wesentlich) am Prozessor, als wenn es erst durch den ganzen Bus durch muss. Da wirken sich die Störeinflüsse nicht ganz so stark aus. Aber jetzt mal eine ganz dumme Frage, Wenn ihr euch Gigabit leisten könnt, wieso dann nicht die entsprechenden Kabeln dazu?
da sieht man mal wieder, wie das mit der Theorie und der Praxis so ist. Theoretisch klingen die 1GBit super, aber sie sind eben in der Praxis nur in den wenigsten Fällen realisiert worden, da die Kosten scheinbar zu hoch sind die Boards dementsprechend umzubauen. Aber eine sehr gute Idee mit dem Load Balancing. Ich verstehe zwar nicht, wieso das jetzt nur vom senden von mehreren Rechnern aus geht, aber naja. Jedoch sollte für so eine Sicherung sich eventuell eh etwas anderes gefunden werden. Denn die Nacht ist sehr kurz. Man sollte bedenken, dass die Sicherung ja nicht laufen sollte, wenn die Daten andersweitig in Bearbeitung sind. Sprich bespielsweise Datenbankdefragmentierung o.ä. Leider ist es heutzutage noch der Fall, dass die Festplattengrößen nahezu "unendlich groß" gemacht werden können, nur leider alle periferen Leitung und Geräte die Sicherung in einer gebräuchlichen Zeit nicht durchführen können. Besser da in meinen Augen Spiegelsätze der Festplatten als HotPlug, und dann gleich die Festplatte von A nach B transportieren.