2017-03-16 6 views

Antwort

3

Ich war eine Minute, seit ich Computerorganisation nahm, aber die relevanten wiki auf 'Byte' gibt einen Zusammenhang.

Das Byte war ursprünglich die kleinste Anzahl von Bits, die ein einzelnes Zeichen enthalten konnte (ich nehme Standard-ASCII an). Wir verwenden immer noch den ASCII-Standard, so dass 8 Bits pro Zeichen immer noch relevant sind. Dieser Satz ist zum Beispiel 41 Bytes. Das ist für unsere Zwecke leicht zählbar und praktisch.

Wenn wir nur 4 Bits hätten, gäbe es nur 16 (2^4) mögliche Zeichen, es sei denn, wir hätten 2 Bytes für ein einzelnes Zeichen verwendet, was ineffizienter ist. Wenn wir 16 Bits in einem Byte hätten, hätten wir viel mehr "toten Raum" in unserem Befehlssatz, wir würden 65.536 (2^16) mögliche Zeichen zulassen, wodurch Computer bei der Ausführung von Anweisungen auf Byte-Ebene weniger effizient laufen würden zumal unser Zeichensatz viel kleiner ist.

+2

Korrektur, ASCII verwendet gefunden. – Bango

+0

große Antwort, danke! – Aaron

+0

Außer "dieser Satz" ist nicht in ASCII codiert. Es ist in UTF-8 codiert. ASCII hat sehr begrenzte und spezialisierte Verwendungen. UTF-8 ist eine Codierung für den Unicode-Zeichensatz. Der gesamte Text in HTML, XML, ... ist Unicode. Sehen Sie sich den HTTP-Antwortheader für diese Seite an, um zu sehen, dass der Webserver sie in UTF-8 codiert hat. (Drücken Sie F12, dann F5, und wählen Sie dann den Anforderungsnamen 42842817.) Wenn Sie die HTTP-Spezifikation lesen, werden Sie feststellen, dass die HTTP-Header tatsächlich ASCII sind. Also verwenden wir jeden Tag ASCII, aber wir verwenden fast nie neue Programme. –

Verwandte Themen