Datenübertragung - Wieso Angabe in Bits und nicht in Bytes?
Mich würde es mal wunder nehmen, wieso in der Datenübertragung immer von Bits gesprochen wird und nicht von Bytes?
Beispiel beim Downloaden einer Datei (z.B. 500kb/s) oder bei der Angabe vom Internet-Provider, etc.
Kann mich da jemand Aufklären?
Besten Dank im Voraus
Beispiel beim Downloaden einer Datei (z.B. 500kb/s) oder bei der Angabe vom Internet-Provider, etc.
Kann mich da jemand Aufklären?
Besten Dank im Voraus
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 130314
Url: https://administrator.de/forum/datenuebertragung-wieso-angabe-in-bits-und-nicht-in-bytes-130314.html
Ausgedruckt am: 22.04.2025 um 18:04 Uhr
6 Kommentare
Neuester Kommentar
Das ist mehr oder weniger kosmetisch was dort angegeben ist. Das Format spielt ja keine Rolle letztlich.
Bei Datei- oder Datentransfers redet man oft von Bytes/sek wobei Übertragungsgeschw. in Bit/sek angegeben werden.
Wenn du angeben willst was ein Auto leistet ist es irrelevant ob du Meter/Sek verwendest oder km/h das Ergebnis ist immer dasselbe.
Genauso verhält es sich mit Bits und Bytes. Malnehmen oder teilen mit 8 und schon hast du es umgerechnet....
Bei Datei- oder Datentransfers redet man oft von Bytes/sek wobei Übertragungsgeschw. in Bit/sek angegeben werden.
Wenn du angeben willst was ein Auto leistet ist es irrelevant ob du Meter/Sek verwendest oder km/h das Ergebnis ist immer dasselbe.
Genauso verhält es sich mit Bits und Bytes. Malnehmen oder teilen mit 8 und schon hast du es umgerechnet....
Hallo,
m.W. kommt das daher, dass in der Nachrichtentechnik die Angaben ursprünglich in Baud gemacht wurden. Diese war in den ersten Entwicklungen zur Übertragung digitaler Daten gleich der Bitrate. Nachdem dann aber Modulationsverfahren mit mehr als einem Bit pro Symbol kamen war die Baudrate alleine nicht mehr sehr aussagekräftig, und man wechselte lieber zur Bitrate.
Gruß
Filipp
m.W. kommt das daher, dass in der Nachrichtentechnik die Angaben ursprünglich in Baud gemacht wurden. Diese war in den ersten Entwicklungen zur Übertragung digitaler Daten gleich der Bitrate. Nachdem dann aber Modulationsverfahren mit mehr als einem Bit pro Symbol kamen war die Baudrate alleine nicht mehr sehr aussagekräftig, und man wechselte lieber zur Bitrate.
Wieviel Bit enthält ein Byte? Falls du jetzt sagst: "8" -> zong! Falsche Antwort.
HEUTE ist das richtig - damals war auch mal nen Byte nur 7 Bit groß...
Das stimmt zwar, ist aber eigentlich ein Argument _für_ die Angabe in Byte/s statt Bit/s. Warum? Weil die Bitzahl mir doch letztlich egal ist. Wesentlich ist, wie viele Zeichen ich pro Sekunde übertragen kann. Das kommt ja noch aus einer Zeit, als keine Binärdaten übertragen wurden, sondern tatsächlich Texte. Und wie lange der Text für die Übertragung braucht gibt die Übetragungsrate in Byte/s an, nicht die in Bit/s.HEUTE ist das richtig - damals war auch mal nen Byte nur 7 Bit groß...
Gruß
Filipp
[quote]
Das stimmt zwar, ist aber eigentlich ein Argument _für_ die Angabe in Byte/s statt Bit/s. Warum? Weil die Bitzahl mir doch letztlich egal ist. Wesentlich ist, wie viele Zeichen ich pro Sekunde übertragen kann. Das kommt ja noch aus einer Zeit, als keine Binärdaten übertragen wurden, sondern tatsächlich Texte. Und wie lange der Text für die Übertragung braucht gibt die Übetragungsrate in Byte/s an, nicht die in Bit/s.
[/quote]
DAS würde ich so nicht unterschreiben. Denn: Warum sollte ich die Zeit für eine Textübertragung in Byte angeben? Dies kommt dann noch auf eine vielzahl anderer Faktoren an (z.B. Unicode-Zeichensatz mit 16/32 bit pro Zeichen...). Und ebenfalls bringt es dir ja nichts wenn du eine "Einheit" nimmst die eben keinen festen Wert hat (heute eben 8 Bit, morgen ggf. 32Bit damit man das Byte als 1 Unicode-Zeichen verkaufen kann). Dann hast du nämlich am Schluss so lustige Sachen wie gb oder Gb oder GB (d.h. gigabit, gigabyte mit 1000 kByte und gigabyte mit 1024 kByte - man verzeihe falls ich die Reihenfolge durcheinandergebracht habe). Von daher sehe ich nicht das es ein Argument für die Angabe einer Dauer in einer "undefinierten" Einheit wäre -> man sieht bei den Festplatten was dann passiert... (ok, heute haben sich die Hersteller geeinigt das die meisten 1 GB als 1.000.000 KByte sehen.. - zu Zeiten von Festplatten mit 500 MB - 2 GB sah das ja noch ganz anders aus... -> mehr Ü-Ei-Mäßig: Auspacken, Einschrauben und Spannung: Wieviel Platz is drauf? ;) )
Das stimmt zwar, ist aber eigentlich ein Argument _für_ die Angabe in Byte/s statt Bit/s. Warum? Weil die Bitzahl mir doch letztlich egal ist. Wesentlich ist, wie viele Zeichen ich pro Sekunde übertragen kann. Das kommt ja noch aus einer Zeit, als keine Binärdaten übertragen wurden, sondern tatsächlich Texte. Und wie lange der Text für die Übertragung braucht gibt die Übetragungsrate in Byte/s an, nicht die in Bit/s.
[/quote]
DAS würde ich so nicht unterschreiben. Denn: Warum sollte ich die Zeit für eine Textübertragung in Byte angeben? Dies kommt dann noch auf eine vielzahl anderer Faktoren an (z.B. Unicode-Zeichensatz mit 16/32 bit pro Zeichen...). Und ebenfalls bringt es dir ja nichts wenn du eine "Einheit" nimmst die eben keinen festen Wert hat (heute eben 8 Bit, morgen ggf. 32Bit damit man das Byte als 1 Unicode-Zeichen verkaufen kann). Dann hast du nämlich am Schluss so lustige Sachen wie gb oder Gb oder GB (d.h. gigabit, gigabyte mit 1000 kByte und gigabyte mit 1024 kByte - man verzeihe falls ich die Reihenfolge durcheinandergebracht habe). Von daher sehe ich nicht das es ein Argument für die Angabe einer Dauer in einer "undefinierten" Einheit wäre -> man sieht bei den Festplatten was dann passiert... (ok, heute haben sich die Hersteller geeinigt das die meisten 1 GB als 1.000.000 KByte sehen.. - zu Zeiten von Festplatten mit 500 MB - 2 GB sah das ja noch ganz anders aus... -> mehr Ü-Ei-Mäßig: Auspacken, Einschrauben und Spannung: Wieviel Platz is drauf? ;) )
Hallo,
Gruß
Filipp
Denn: Warum sollte ich
die Zeit für eine Textübertragung in Byte angeben? Dies
kommt dann noch auf eine vielzahl anderer Faktoren an (z.B.
Unicode-Zeichensatz mit 16/32 bit pro Zeichen...).
Das ist doch gerade das: Ursprünglich war ein Byte = ein Zeichen, an Sachen wie Unicode war noch gar nicht zu denken. Stellen wir uns vor, ich habe zwei Telex-Systeme, eines mit 8Bit pro Zeichen bzw. Byte (System A), eins mit 5 Bit pro Zeichen/Byte (System B). Jetzt will ich 50 Zeichen übertragen. A schafft 200 Bit/s, B nur 175 Bit/s. Also ist A klar schneller als B, oder? -> zong! Falsche Antwort. In Wirklichkeit werde ich bei beiden Systemen 2 Sekunden für meinen Text brauchen, beide sind also gleich Schnell. Hätte ich die Geschwindigkeit in der Einheit angegeben, die eigentlich relevant ist, nämlich Zeichen/s (Byte/s), dann könnte man auch gleich sehen, dass sie gleich schnell sind.die Zeit für eine Textübertragung in Byte angeben? Dies
kommt dann noch auf eine vielzahl anderer Faktoren an (z.B.
Unicode-Zeichensatz mit 16/32 bit pro Zeichen...).
heute eben 8 Bit, morgen ggf. 32Bit damit
man das Byte als 1 Unicode-Zeichen verkaufen kann
Das ist richtig, weil heute 1. universelle Systeme eingesetzt werden, die auch Daten mit unterschiedlich breiten Zeichensätzen übertragen/verarbeiten können (man muss also auf den kleinsten gemeinsamen Nenner gehen, und das ist das Bit), und 2. mittlerweile hauptsächlich Binärdaten übertragen werden, für die "ein Zeichen" im Sinne eines Buchstabens ohnehin kaum eine Bedeutung hat. Aber ich habe ja auch über historisches Entstehen der Bezeichnungen gesprochen.man das Byte als 1 Unicode-Zeichen verkaufen kann
Gruß
Filipp