Was bedeuten z. B. 64 MBit pro Sek. tatsächlich nutzbar in MByte pro Sek.?
Moin,
was ist denn so der realistische Umrechnungsfaktor für Nenn-MBit in Real-MByte zu übertragende Daten?
Schau ich mir z. B. mal in einem lokalen Fritz!Box-Netz einer alten 7360 in der Heimnetzübersicht die Netzwerkverbindungen an, dann sehe ich bei den alten, großen HPs meist 144/144 MBits/s im WLan, was wohl die MBits für Down-/Up-Stream sind. Bei Handys ist es ähnlich, wobei da der zweite Wert oft sehr niedrig ist, warum auch immer.
Überträgt man nun mal zwischen zwei Rechnern eine große Datei wie eine 4GB-ISO, dann merkt man schnell, dass dabei keine 144/8 Bit = 18 MByte/s zustande kommen. Tatsächlich sind es nur etwa 2 bis 3 MB/s, was sehr weit weg von den rechnerischen 18 Mbyte weg ist. Selbst wenn ich die 144 / 9 mit einem Stop-Bit rechnen würde, müssten das immer noch 16 Mbyte/s werden. Aber ich weiß nicht mal, ob es heute überhaupt noch Start-Stop-Bits gibt.
Wie viel von den Megabits gehen denn heutzutage „an die Verwaltung“? Und wie sieht das mit der Übertragung aus dem Internet aus im Verhältnis zur Übertragung zweier Rechnern untereinander im lokalen (Fritz!Box)-Netzwerk?
Ich versuche gerade, meine möglicherweise falsche Erwartungshaltung einer möglichen Realität anzunähern. Fragt man die KI, wie das Obige einzuschätzen wäre, dann sieht die einfach immer nur die Teilung durch 8 vor, um von MBit auf MByte zu kommen.
was ist denn so der realistische Umrechnungsfaktor für Nenn-MBit in Real-MByte zu übertragende Daten?
Schau ich mir z. B. mal in einem lokalen Fritz!Box-Netz einer alten 7360 in der Heimnetzübersicht die Netzwerkverbindungen an, dann sehe ich bei den alten, großen HPs meist 144/144 MBits/s im WLan, was wohl die MBits für Down-/Up-Stream sind. Bei Handys ist es ähnlich, wobei da der zweite Wert oft sehr niedrig ist, warum auch immer.
Überträgt man nun mal zwischen zwei Rechnern eine große Datei wie eine 4GB-ISO, dann merkt man schnell, dass dabei keine 144/8 Bit = 18 MByte/s zustande kommen. Tatsächlich sind es nur etwa 2 bis 3 MB/s, was sehr weit weg von den rechnerischen 18 Mbyte weg ist. Selbst wenn ich die 144 / 9 mit einem Stop-Bit rechnen würde, müssten das immer noch 16 Mbyte/s werden. Aber ich weiß nicht mal, ob es heute überhaupt noch Start-Stop-Bits gibt.
Wie viel von den Megabits gehen denn heutzutage „an die Verwaltung“? Und wie sieht das mit der Übertragung aus dem Internet aus im Verhältnis zur Übertragung zweier Rechnern untereinander im lokalen (Fritz!Box)-Netzwerk?
Ich versuche gerade, meine möglicherweise falsche Erwartungshaltung einer möglichen Realität anzunähern. Fragt man die KI, wie das Obige einzuschätzen wäre, dann sieht die einfach immer nur die Teilung durch 8 vor, um von MBit auf MByte zu kommen.
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 42565245046
Url: https://administrator.de/contentid/42565245046
Ausgedruckt am: 21.11.2024 um 12:11 Uhr
28 Kommentare
Neuester Kommentar
Hey,
der "realistische Umrechnungsfaktor" hängt von vielen Variablen ab. Kabelgebunden, non-blocking, gleiche Broadcastdomain, keine limitierenden Faktoren auf den darüber liegenden Layern - das wäre nahe dem Optimum. Dann spielt da nur der Overhead / Header der jeweilig verwendeten Protokolle rein.
Kommen wir auf dein Szenario zu sprechen:
WLAN. Also genau das, was man für richtige Performance nicht nutzen will. Warum? Es ist ein Shared Medium.
Im 5GHz-Band kommt ggf. noch die Radarabschaltung dazu. Bei 2,4GHz kommt die übliche Überfüllung ins Spiel. Dann bringt so mancher WLAN-Standard noch spezielle Effizienz-Mechanismen mit, die ältere Standards nicht unterstützen. Die 7360 kan nur b/g/n, was heute eher mau ist. MIMO und solche Scherze fallen also komplett weg.
4 Gigabyte als "ein Block" braucht weniger Overhead als die gleiche Menge in "vielen kleinen Dateien". Wie viel man für die "Verwaltung" tatsächlich wegrechnen muss, kommt auf die Protokolle der einzelnen Layer an. Weitere Bremsen können Schreib-/Leseleistung, Warteschlangen, schlechte Verbindung im Sinne von "ging verloren, schick nochmal", usw. sein.
Schau mal hier rein. Das kann man ganz, ganz grob als Pi*Daumen näherungsweise annehmen.
der "realistische Umrechnungsfaktor" hängt von vielen Variablen ab. Kabelgebunden, non-blocking, gleiche Broadcastdomain, keine limitierenden Faktoren auf den darüber liegenden Layern - das wäre nahe dem Optimum. Dann spielt da nur der Overhead / Header der jeweilig verwendeten Protokolle rein.
Kommen wir auf dein Szenario zu sprechen:
WLAN. Also genau das, was man für richtige Performance nicht nutzen will. Warum? Es ist ein Shared Medium.
Im 5GHz-Band kommt ggf. noch die Radarabschaltung dazu. Bei 2,4GHz kommt die übliche Überfüllung ins Spiel. Dann bringt so mancher WLAN-Standard noch spezielle Effizienz-Mechanismen mit, die ältere Standards nicht unterstützen. Die 7360 kan nur b/g/n, was heute eher mau ist. MIMO und solche Scherze fallen also komplett weg.
4 Gigabyte als "ein Block" braucht weniger Overhead als die gleiche Menge in "vielen kleinen Dateien". Wie viel man für die "Verwaltung" tatsächlich wegrechnen muss, kommt auf die Protokolle der einzelnen Layer an. Weitere Bremsen können Schreib-/Leseleistung, Warteschlangen, schlechte Verbindung im Sinne von "ging verloren, schick nochmal", usw. sein.
Schau mal hier rein. Das kann man ganz, ganz grob als Pi*Daumen näherungsweise annehmen.
Wenn du, wie beschrieben statt rechnerisch 18MByte nur 2 bis 3 MByte im lokalen Netz schaffst ...
... dann hast du ein anderes Problem!
Ich tippe auf Virenscanner, Firewalls, Addons, etc ...
Warum?
Während meiner aktiven Zeit hatte ich so einen Fall, bei dem letztlich das deaktivieren und deinstallieren solcher Software die Performance brachte ... bis dahin war der Kunde sich sicher, das die DSL-Leitung schuld war ... war sie ja dann eben nicht ...
... dann hast du ein anderes Problem!
Ich tippe auf Virenscanner, Firewalls, Addons, etc ...
Warum?
Während meiner aktiven Zeit hatte ich so einen Fall, bei dem letztlich das deaktivieren und deinstallieren solcher Software die Performance brachte ... bis dahin war der Kunde sich sicher, das die DSL-Leitung schuld war ... war sie ja dann eben nicht ...
Zitat von @-webu-:
Und Firewalls nebst Scanner klinken sich eher nicht in eine laufende Übertragung ein, sondern legen vorher (Firewall) und nachher (Virenscanner) los.
Und Firewalls nebst Scanner klinken sich eher nicht in eine laufende Übertragung ein, sondern legen vorher (Firewall) und nachher (Virenscanner) los.
OK 🤔
Also können Firewalls nicht VORHER den Traffic ausbremsen zum prüfen ...
... und Scanner nachher den Transport anhalten bis geprüft wurde?
🤔
@Benandi
Schau mal, was du mir da verlinkt hast. Da steht bei Wlan: [...]
Das ist ewig her, aber sei es drum [...]
Hab ich doch :oSchau mal, was du mir da verlinkt hast. Da steht bei Wlan: [...]
Das ist ewig her, aber sei es drum [...]
Na, da steht auch was anderes. Deine WLAN-Technik ist dort sogar noch gelistet ;)
IEEE 802.11n arbeitet mit bis zu 300 MBit/s brutto. Unter optimalen Bedingungen bleiben netto 100 bis 130 MBit/s netto übrig.
Das sollte dir auch nur einen ersten Eindruck vermitteln, denn es kommt wie bereits geschrieben auch auf die verwendeten Protokolle und Infrastruktur an ("bestenfalls").Wie die Kollegen hier schon schrieben und ich eingangs erwähnte:
Ohne deine Umgebung sowie das fragliche Szenario genauer zu kennen, wird die Suche schwer. Bislang habe ich was von "zwischen 2 Rechnern mit scheinbar Windows 10 und SMB-Transfer einer 4GB-Datei mit Bordmitteln über WLAN 802.11b/g/n mit einer FritzBox 7360 als AP, Router und Firewall" gelesen.
Virenscanner können als Echtzeit-Scanner auch schon während der Übertragung eingreifen oder sogar umleiten. Firewalls im Rahmen einer Deep Packet Inspection ebenfalls.
Puren Durchsatz misst du am besten mit iPerf und nicht mit dem Onboard-Dateimanager von Windows. Dann kannst du die Verbindung als solche schon mal beurteilen. Sollten da auch nur eine Handvoll MB/s rüber kommen, suchst du eher in der Infrastruktur. Kommt da mehr raus, suchst du eher auf Applikationsebene.
Weiterhin dürfte die FritzBox je nach Firmwarestand dir die tatsächliche Belegung anzeigen. Interessant ist neben anderen SSIDs auch die Anzahl an Geräten im eigenen Netz.
Dann gibt es noch die Themen Laufzeit, Signalstärke, Aktualität der Treiber, etc., aber das wäre erst nach dem Test mit iPerf interessant.
Vergleichstests wie von @Spirit-of-Eli vorgeschlagen helfen bei der Eingrenzung der Ursache. Geht es per Kabel schnell, liegt es am WLAN. Ist es per Kabel auch langsam, liegt es an den Engeräten.
Das kann man jetzt noch beliebig fortführen, aber ohne konkrete Infos wird das nichts.
Okay, was passiert wenn du direkt neben dem Router stehst? Kannst du dort mal einen Speedtest machen?
Ich bevorzuge fast.com
Denn natürlich spielt auch die Entfernung eine Rolle.
Der Iperf Test ist sehr gut, im WLan wird der zwischen zwei Rechner zwangsweise aber nicht schön ausschauen. Wie oben schon erwähnt ist WLan ein shared Medium. Alle Verbundenen Clients nutzen quasi das selbe Kabel. Je mehr Clients verbunden sind, um so mehr wird das Netz herunter gezogen.
Ich bevorzuge fast.com
Denn natürlich spielt auch die Entfernung eine Rolle.
Der Iperf Test ist sehr gut, im WLan wird der zwischen zwei Rechner zwangsweise aber nicht schön ausschauen. Wie oben schon erwähnt ist WLan ein shared Medium. Alle Verbundenen Clients nutzen quasi das selbe Kabel. Je mehr Clients verbunden sind, um so mehr wird das Netz herunter gezogen.
Ist der zweite Rechner auch im WLAN? Dann teilen sich beide schon mal die Übertragungskapazität. Ist da noch ein WLAN Extender dazwischen, dann teilt dieser auch nochmal /2.
Bei Übertragungen über DSL zählt nur der Upstream des Senders, nicht der Downstream des Empfängers. Der Upstream ist der langsamere von den Beiden und der Downstream kann deswegen nicht schneller werden.
Dann gibt es noch die Signalstärke. Wenn die Entfernung zur Fritzbox zu hoch ist bzw eine Wand dazwischen ist und du nur noch 2 von 5 Strichen siehst, ist die Übertragung auch langsamer.
Bei Übertragungen über DSL zählt nur der Upstream des Senders, nicht der Downstream des Empfängers. Der Upstream ist der langsamere von den Beiden und der Downstream kann deswegen nicht schneller werden.
Dann gibt es noch die Signalstärke. Wenn die Entfernung zur Fritzbox zu hoch ist bzw eine Wand dazwischen ist und du nur noch 2 von 5 Strichen siehst, ist die Übertragung auch langsamer.
ich halte das für eine wenig zielführende Diskussion - ihr seit bei Wifi 2,4 GHz und dichter bewohnten Gebieten mit duztenden anderen Nutzern auf derselben Frequenz unterwegs, und ältere Geräte können kein Frequenzhopping. Bei 5 GHz und 80 Kanalbetrieb gibts eine Vorrangschaltung für Polizei und Flugradar, so daß schon mal die Hälfte weg ist. Moderne Geräte ab Wifi 6 nutzten viele Frequenzen und Sender gleichzeitig, aber ausgerechnet AVM hat sich ja mit Broadcomm angelegt und hat 50 Cent pro Gerät an PAtentlizenzen nicht zahlen wollen... , und mußte ein paar Wifi 6 Features wieder abschalten. Das haben die per automatisiserte Firmware updates gemacht...
Und 144 MBit, stammen die aus dem Museum? Und nebenbei bemerkt ab Wifi 5 oder 6 wird Up/Down nicht mehr symmetrisch verteilt.
Nehmt Netzwerkkabel und alles wird gut. Ich sitz mit nem modernen Notebook ein Meter neben meinem Vodaphone Router (AVM HArdware aber grau angemalt) und krieg nicht mehr als 150 Mbit hin obwohl das Gerät viel mehr kann und das Internet sowieso.... kopiert man im SELBEN Wifi Dateien sinkt die Bandbreite um 50%, da der Traffic vom Endgerät 1 zum Router zum Endgerät 2 geht. Und nur mit viel Glück geht das 1:1 auf, bei älteren Geräten bleibt oft nur 20% übrig.
Ich hab mal eine Wifi Brücke mit zwie ARchter C7 1750 gebaut, 3 Way Mimi, direkt nebeneinander 1 Gbit, 10 MEter weiter und 2 Wände - 400 Mbit. Und nur dann wenn Sender und Empfänger gleich viele Antennen haben, sind die Bandbreiten auch addierbar... der C7 kann auch nur 450 Mbit pro Kanal, aber mit 3 Antennen... 1350 brutto.
Und 144 MBit, stammen die aus dem Museum? Und nebenbei bemerkt ab Wifi 5 oder 6 wird Up/Down nicht mehr symmetrisch verteilt.
Nehmt Netzwerkkabel und alles wird gut. Ich sitz mit nem modernen Notebook ein Meter neben meinem Vodaphone Router (AVM HArdware aber grau angemalt) und krieg nicht mehr als 150 Mbit hin obwohl das Gerät viel mehr kann und das Internet sowieso.... kopiert man im SELBEN Wifi Dateien sinkt die Bandbreite um 50%, da der Traffic vom Endgerät 1 zum Router zum Endgerät 2 geht. Und nur mit viel Glück geht das 1:1 auf, bei älteren Geräten bleibt oft nur 20% übrig.
Ich hab mal eine Wifi Brücke mit zwie ARchter C7 1750 gebaut, 3 Way Mimi, direkt nebeneinander 1 Gbit, 10 MEter weiter und 2 Wände - 400 Mbit. Und nur dann wenn Sender und Empfänger gleich viele Antennen haben, sind die Bandbreiten auch addierbar... der C7 kann auch nur 450 Mbit pro Kanal, aber mit 3 Antennen... 1350 brutto.
also nichts geht über Kabel....
ich hab hier einen laut Internet Anbieter bis 300 Mbit Anschluss also theoretisch 37.5 MB/s.
Effektiv zeigt die Fritzbox aber nur 177 Mbit an, also nur noch 22MB/s.
Und leider (ich vermisse meine alte Wohnung, hatte dort 1 GBit Kabel in jedes Zimmer gelegt) nun mit
LAN over Stromkabel (Powerline) hab ich ca. 8 Mb/s max download. mit WLAN Voll Ausschalg auch nur 2-3MB/s
Und das obwohl ich 1300er Access Points hab und die WLAN Karte des Clients auch 1200er WLAN Karte drin hat.
WLAN ist halt nix gescheites... und Powerline auch nicht... Das einzige was Gold ist, ist direkt RJ45 mit direkten Verbindungen...
ich hab hier einen laut Internet Anbieter bis 300 Mbit Anschluss also theoretisch 37.5 MB/s.
Effektiv zeigt die Fritzbox aber nur 177 Mbit an, also nur noch 22MB/s.
Und leider (ich vermisse meine alte Wohnung, hatte dort 1 GBit Kabel in jedes Zimmer gelegt) nun mit
LAN over Stromkabel (Powerline) hab ich ca. 8 Mb/s max download. mit WLAN Voll Ausschalg auch nur 2-3MB/s
Und das obwohl ich 1300er Access Points hab und die WLAN Karte des Clients auch 1200er WLAN Karte drin hat.
WLAN ist halt nix gescheites... und Powerline auch nicht... Das einzige was Gold ist, ist direkt RJ45 mit direkten Verbindungen...
Zitat von @ThePinky777:
also nichts geht über Kabel....
ich hab hier einen laut Internet Anbieter bis 300 Mbit Anschluss also theoretisch 37.5 MB/s.
Effektiv zeigt die Fritzbox aber nur 177 Mbit an, also nur noch 22MB/s.
Und leider (ich vermisse meine alte Wohnung, hatte dort 1 GBit Kabel in jedes Zimmer gelegt) nun mit
LAN over Stromkabel (Powerline) hab ich ca. 8 Mb/s max download. mit WLAN Voll Ausschalg auch nur 2-3MB/s
Und das obwohl ich 1300er Access Points hab und die WLAN Karte des Clients auch 1200er WLAN Karte drin hat.
WLAN ist halt nix gescheites... und Powerline auch nicht... Das einzige was Gold ist, ist direkt RJ45 mit direkten Verbindungen...
also nichts geht über Kabel....
ich hab hier einen laut Internet Anbieter bis 300 Mbit Anschluss also theoretisch 37.5 MB/s.
Effektiv zeigt die Fritzbox aber nur 177 Mbit an, also nur noch 22MB/s.
Und leider (ich vermisse meine alte Wohnung, hatte dort 1 GBit Kabel in jedes Zimmer gelegt) nun mit
LAN over Stromkabel (Powerline) hab ich ca. 8 Mb/s max download. mit WLAN Voll Ausschalg auch nur 2-3MB/s
Und das obwohl ich 1300er Access Points hab und die WLAN Karte des Clients auch 1200er WLAN Karte drin hat.
WLAN ist halt nix gescheites... und Powerline auch nicht... Das einzige was Gold ist, ist direkt RJ45 mit direkten Verbindungen...
Wenn die FB bei der Leistungsbeurteilung / Verbindung nur 177 statt 300 MBit anzeigt, sehe ich Handlungsbedarf!
Entweder Inhouse bei Verkabelungung und/oder Anschluss-/Verteilerpunkten ...
... oder beim Provider.
letzteres könnte bei den Werten Kostenreduzierung rechtfertigen ..
Nochmal zu meinem Hinweis auf Firewalla, Scanner, etc
wenn möglich mit 2 Endgeräte in einem anderen WLAN - z.B. zuhause oder an einem standalone AP - testen, ...
... also mehrere GB übertragen - Internet, etc ist dafür nicht nötig.
Danach beide Geräte im Problem-WLAN am selben AP anmelden und den Test wiederholen.
Ist der Durchsatz deutlich geringer, ist dein Problem beim WLAN-AP des Problem-WLAN verortet - dann den AP ggf. austauschen ...
wenn möglich mit 2 Endgeräte in einem anderen WLAN - z.B. zuhause oder an einem standalone AP - testen, ...
... also mehrere GB übertragen - Internet, etc ist dafür nicht nötig.
Danach beide Geräte im Problem-WLAN am selben AP anmelden und den Test wiederholen.
Ist der Durchsatz deutlich geringer, ist dein Problem beim WLAN-AP des Problem-WLAN verortet - dann den AP ggf. austauschen ...
Du solltest auch auf dem Radar haben das Anzeigen wie "144/144 MBits/s" nur die sind die das Beaconing des APs ausstrahlt und auf was sich Client und AP im ersten Handshaking geeinigt haben. Du weisst das sich sowas bei WLAN dynamisch je nach RSSID (Feldstärke) immer weiteren Verlauf fortwährend ändert. Es besagt also rein gar nichts wie die tatsächliche Bandbreite der Netto Produktivdaten ist. Brutto Anzeigen sind Schall und Rauch.
In einem WLAN bekommt man die nur raus wenn man mit iPerf3 usw. verlässlich misst. Und dann gilt das auch nur für exakt den Zeitpunkt an exakt der Location wo die Komponenten sind. Ein nur 30cm anderer Standort (man beachte die Wellenlängen und mögliche Interferenzen im WLAN) schafft völlig neue RSSID Bedingungen und eine neues Messumfeld und macht vorangegangene Messungen obsolet.
Wenn du in einem 2,4 GHz Umfeld testest und misst ist es unerlässlich einmal zu checken ob du dort freie Bedingungen hast, also einen sauberen und freien WLAN Kanal im 20Mhz Raster oder ob dort weitere Signale deinen Arbeitskanal überlagern. Einfache kostenlose Scanner wie WiFiInfoView am Client Standort machen das transparent.
Kommt es zu solchen Überlagerungen und Nachbarkanalstörungen sinkt die Nettodatenrate massiv. Es ist unter solchen Bedingungen dann sinnfrei und kontraproduktiv solche Tests im 2,4 GHz Bereich zu machen. Es sei denn man hat ein Kellerlabor mit definierten Bedingungen.
Kollege @GrueneSosseMitSpeck hat das oben schon zu Recht angesprochen.
Allerdings irrt er hier leider in der Aussage das Teile vom 5 GHz Bereich durch DFS und TPM "weg" sind. Das ist natürlich nicht der Fall, auch wenn 5GHz WLAN dort Sekundärnutzer ist.
Dieser Fall tritt nur ein wenn Signale von Primärnutzern (Wetter- Militärradar etc. Pozilei ist dort nicht aktiv)) detektiert werden und der AP die 5GHz Frequenz wechselt auf eine andere 5GHz Frequenz. Wie gesagt er "wechselt" innerhalb des Bandes aber verliert keineswegs Teile des 5GHz Bandes.
Deshalb ist es immer sinnvoll ins (meist) ungestörte 5GHz Band zu wechseln wenn man hier Performance Tests macht. Wegen der Überfüllung und damit einhergehenden Störungen und Unbrauchbarkeit von 2,4 GHz ist es dort meist sinnfrei.
Desweiteren ist eine entsprechende Performance in hohem Maße von der Auslastung der AP Funkzelle abhängig. Es ist also keineswegs trivial ob dort 3 oder 30 User aktiv sind. Auch hier spricht die HW Ausstattung der APs eine entscheidende Rolle. Home APs kollabieren meist bei mehr als 5 Benutzern.
Die Verwendung des 802.11b Standards verbietet sich so oder so grundsätzlich! APs sollten zwingend so eingestellt werden das sie den .11b Standard keinesfalls im AP Beaconing mehr announcen (OFDM only) und diese damit kategorisch ausschliesst. Ein einziger aktiver .11b Client würde sonst die gesamte Performance des WLANs in den Orkus reissen.
All die o.a. Punkte gehen natürlich davon aus das die grundlegende Kupferbasis der APs im Wirespeed läuft. Wenn es stimmt was du sagst, das du auch dort in der Kupfervernetzung nur ein paar Mbits durchbekommst, hast du ja schon ein Problem im Fundament selber. Das im WLAN die Bits oder Bytes nur tröpfeln ist dann nicht weiter verwunderlich.
Mbit oder MByte Tests macht man wegen der o.a. unkalkulierbaren Dynamik von WLAN oder DLAN so oder so besser immer nur mit einem Kupferanschluß. Oder....im einsamen Kellerlabor unter Stahlbeton.
In einem WLAN bekommt man die nur raus wenn man mit iPerf3 usw. verlässlich misst. Und dann gilt das auch nur für exakt den Zeitpunkt an exakt der Location wo die Komponenten sind. Ein nur 30cm anderer Standort (man beachte die Wellenlängen und mögliche Interferenzen im WLAN) schafft völlig neue RSSID Bedingungen und eine neues Messumfeld und macht vorangegangene Messungen obsolet.
Wenn du in einem 2,4 GHz Umfeld testest und misst ist es unerlässlich einmal zu checken ob du dort freie Bedingungen hast, also einen sauberen und freien WLAN Kanal im 20Mhz Raster oder ob dort weitere Signale deinen Arbeitskanal überlagern. Einfache kostenlose Scanner wie WiFiInfoView am Client Standort machen das transparent.
Kommt es zu solchen Überlagerungen und Nachbarkanalstörungen sinkt die Nettodatenrate massiv. Es ist unter solchen Bedingungen dann sinnfrei und kontraproduktiv solche Tests im 2,4 GHz Bereich zu machen. Es sei denn man hat ein Kellerlabor mit definierten Bedingungen.
Kollege @GrueneSosseMitSpeck hat das oben schon zu Recht angesprochen.
Allerdings irrt er hier leider in der Aussage das Teile vom 5 GHz Bereich durch DFS und TPM "weg" sind. Das ist natürlich nicht der Fall, auch wenn 5GHz WLAN dort Sekundärnutzer ist.
Dieser Fall tritt nur ein wenn Signale von Primärnutzern (Wetter- Militärradar etc. Pozilei ist dort nicht aktiv)) detektiert werden und der AP die 5GHz Frequenz wechselt auf eine andere 5GHz Frequenz. Wie gesagt er "wechselt" innerhalb des Bandes aber verliert keineswegs Teile des 5GHz Bandes.
Deshalb ist es immer sinnvoll ins (meist) ungestörte 5GHz Band zu wechseln wenn man hier Performance Tests macht. Wegen der Überfüllung und damit einhergehenden Störungen und Unbrauchbarkeit von 2,4 GHz ist es dort meist sinnfrei.
Desweiteren ist eine entsprechende Performance in hohem Maße von der Auslastung der AP Funkzelle abhängig. Es ist also keineswegs trivial ob dort 3 oder 30 User aktiv sind. Auch hier spricht die HW Ausstattung der APs eine entscheidende Rolle. Home APs kollabieren meist bei mehr als 5 Benutzern.
Die Verwendung des 802.11b Standards verbietet sich so oder so grundsätzlich! APs sollten zwingend so eingestellt werden das sie den .11b Standard keinesfalls im AP Beaconing mehr announcen (OFDM only) und diese damit kategorisch ausschliesst. Ein einziger aktiver .11b Client würde sonst die gesamte Performance des WLANs in den Orkus reissen.
All die o.a. Punkte gehen natürlich davon aus das die grundlegende Kupferbasis der APs im Wirespeed läuft. Wenn es stimmt was du sagst, das du auch dort in der Kupfervernetzung nur ein paar Mbits durchbekommst, hast du ja schon ein Problem im Fundament selber. Das im WLAN die Bits oder Bytes nur tröpfeln ist dann nicht weiter verwunderlich.
Mbit oder MByte Tests macht man wegen der o.a. unkalkulierbaren Dynamik von WLAN oder DLAN so oder so besser immer nur mit einem Kupferanschluß. Oder....im einsamen Kellerlabor unter Stahlbeton.
Zitat von @aqui:
Dieser Fall tritt nur ein wenn Signale von Primärnutzern (Wetter- Militärradar etc. Pozilei ist dort nicht aktiv)) detektiert werden und der AP die 5GHz Frequenz wechselt auf eine andere 5GHz Frequenz.
Dieser Fall tritt nur ein wenn Signale von Primärnutzern (Wetter- Militärradar etc. Pozilei ist dort nicht aktiv)) detektiert werden und der AP die 5GHz Frequenz wechselt auf eine andere 5GHz Frequenz.
Freitags-OT:
Natürlich haben Nutzer an bekannten Straßen ein erhöhtes Nachsehen ..
... denn auch Radaranlagen zählen dazu!
Vorteil: man erfährt aus erster Quelle, wenn vor der Tür geblitzt-dingst wird..,.
Natürlich haben Nutzer an bekannten Straßen ein erhöhtes Nachsehen ..
Nein! Die funken ganz woanders und weit weg davon!https://de.wikipedia.org/wiki/Geschwindigkeitsüberwachung#:~:text=D ....
Auch beim Freitags-OT 🐟: Lesen und verstehen.
Zitat von @-webu-:
[...] Da bin ich mir nicht sicher, denn auch die 7360 hat bereits zwei Antennen pro Frequenz - für Senden und Empfangen. Die neueren haben drei pro Frequenz. [...]
[...] Wie gesagt: Die Boxen haben heute schon mindestens zwei Antennen pro Freqenz, daher weiß ich nicht, wozu die gut wären, wenn das eh nichts nutzt. [...]
Und an der Stelle bin ich raus.[...] Da bin ich mir nicht sicher, denn auch die 7360 hat bereits zwei Antennen pro Frequenz - für Senden und Empfangen. Die neueren haben drei pro Frequenz. [...]
[...] Wie gesagt: Die Boxen haben heute schon mindestens zwei Antennen pro Freqenz, daher weiß ich nicht, wozu die gut wären, wenn das eh nichts nutzt. [...]
Es kommt darauf an ob nur Antennen Diversity gemacht wird oder es sich um MIMO handelt.
Das kann man nur dem Datenblatt entnehmen und gilt sowohl für AP und auch Client. Ein Client der nur Diversity macht kann nur sehr eingeschraänkt mit einem MIMO AP kommunizieren und andersrum.
https://de.wikipedia.org/wiki/Antennendiversität
https://de.wikipedia.org/wiki/MIMO_(Nachrichtentechnik)
Relevant ist die HF Situation immer am AP Standort und am Client Standort. Funken ist bekanntlich eine bidirektionale Angelegenheit. Kollege @Spirit-of-Eli hat es oben ja schon treffend formuliert!
Bleibt also nur die Schlussfolgerung das du mickrige AP Hardware hast, ein mehr als schlecht performendes Kupfer Backbone und vermutlich einen Client mit falschen Treibern und ebenso schlechter HW. All das führt dann zu solch, in der Tat, armseligen Durchsatzraten.
Das kann man nur dem Datenblatt entnehmen und gilt sowohl für AP und auch Client. Ein Client der nur Diversity macht kann nur sehr eingeschraänkt mit einem MIMO AP kommunizieren und andersrum.
https://de.wikipedia.org/wiki/Antennendiversität
https://de.wikipedia.org/wiki/MIMO_(Nachrichtentechnik)
Bei etablierten 144/144 bedeuten diese...
Wie gesagt das ist die statische mit dem AP bei der Client Association negotiatete Rate. Eine Momentaufnahem die rein gar nichts mit der Nettodatenrate zu tun hat die du mit iPerf3 ja misst. Diese wird einerseits durch deine AP Hardware bestimmt und die mögleiche Bandbreite auf dem Kupferbackbone.ca. 70 MB, was nur noch 29 MBit/s bedeuten,
70 Mbyte = 560Mbit 🤔ziemlich weit weg (gemäß WifiInfoView)
"Ziemlich" bedeutet für dich genau WAS? 🤔Defender an/aus änderte, nicht ganz überraschend, überhaupt rein gar nichts
Was bitte hat ein Virenscanner mit der Übertragungsrate einer NIC bzw. eines Accesspoints zu tun? Fisch und Fahrrad?!Relevant ist die HF Situation immer am AP Standort und am Client Standort. Funken ist bekanntlich eine bidirektionale Angelegenheit. Kollege @Spirit-of-Eli hat es oben ja schon treffend formuliert!
Nachbarschaft kommt mit 99% rein, aber der ist 5 GHz.
WAS genau ist 99% für dich? RSSID? Wenn du auf 2,4 GHz misst ist 5GHz für dich nicht relevant. Das ist so wenn du auf UKW 90 Mhz deinen WDR mit Schlager hörst und sagst das auf Mittelwelle 700 kHz BBC London mit voller Feldstärke empfangen wird...sinnfrei.Bleibt also nur die Schlussfolgerung das du mickrige AP Hardware hast, ein mehr als schlecht performendes Kupfer Backbone und vermutlich einen Client mit falschen Treibern und ebenso schlechter HW. All das führt dann zu solch, in der Tat, armseligen Durchsatzraten.
Wenn es das denn nun war bitte den Thread dann auch als erledigt markieren!
Wie kann ich einen Beitrag als gelöst markieren?
Wie kann ich einen Beitrag als gelöst markieren?