Wenn ASCII 7 Bits zur Darstellung von Zeichen verwendet. Könnte jemand erklären, was das für die Anzahl der unterstützten Zeichen bedeutet? Wie würde sich das ändern, wenn ASCII 12 Bits pro Zeichen verwendet?Was ist, wenn ASCII 12 Bits pro Zeichen verwendet?
Antwort
Ein Bit hat zwei mögliche Zustände. Eine Gruppe von n Bits hat 2 n mögliche Zustände.
Daher 7 Bits 2 = 128 mögliche Zeichen repräsentieren und 12 Bits, 2 = 4096 mögliche Zeichen darstellen kann.
Dieser abgekürzte Ausschnitt aus Wikipedia's table of character sets liefert historische Perspektive:
BCDIC 1928 6 bits Introduced with
the IBM card
FIELDATA 1956 6/7 Battlefield
bits information (USA)
EBCDIC 1963 8 bits IBM computers
Teleprinters and
computers;
ASCII 1963-06-17 7 bits original
(ASA X3.4-1963) definition of
ASCII
ECMA-6 1965-04-30 7 bits ASCII localization
ISO 646 1967 (ISO/R646-1967) 7 bits ASCII localization
1967 (USAS Close to "modern"
ASCII X3.4-1967) 7 bits definition of
ASCII
IBM data
Braille ASCII 1969 6/7 Tactile print for
bits blind persons
Terminal text
ECMA-48 1972 7 bits manipulation and
colors
ISO/IEC 8859 1987 8 bits International
codes
Unified encoding
Unicode 1991 16/32 for most of the
bits world's writing
systems
Der Eintrag für Unicode ist ein bisschen irreführend. Unicode-Codepunkte gehen bis zu 0x10FFFF, was 21 Bits ergibt. – melpomene
@melpomene, 2^21 = 2097152, was übereinstimmt mit: * "Der Unicode-Coderaum ist in siebzehn Ebenen (die mehrsprachige Grundebene und 16 Zusatzebenen) mit jeweils 65.536 (= 216) Codepunkten unterteilt Die Größe des Unicode-Coderaums ist 17 × 65.536 = 1.114.112. "* - [Code Point (WP)] (https://en.wikipedia.org/wiki/Code_point) Vermutlich sind die Designer von Unicode zukunftsorientiert und haben etwas Raum gelassen damit der Standard wächst. – agc
ein 12-Bit-Code 2 zu den zwölf oder 4096 Zeichen unterstützen kann, minus eins oder zwei für nicht-Zeichen wie null, vielleicht entkommen, und ein einige Leerzeichen.
Jetzt könnten Sie einen Computer mit 12-Bit-Bytes erstellen. Aber es wäre ein teurer Reengineering-Vorgang. Die meisten Computer haben 8-Bit-Bytes, zumindest teilweise wegen Ascii.
Aber die Methode zur Erweiterung ascii war Unicode, und die Codierung, die als Standard entsteht, ist UTF-8 Dies ist eine Obermenge von Ascii in gewissem Sinne - Ascii ist Unicode. Das nicht verwendete obere Bit wird gesetzt und zusätzliche Bytes hinzugefügt, um erweiterte nicht-lateinische Zeichen zu erzeugen. Es ist also eine Codierung mit variabler Breite, die Codes sind immer ein Vielfaches von 8 Bits, und es ist leicht zu Ende, dass es möglich ist, Codes an der Spitze des Bereichs hinzuzufügen, aber die aktuelle Codierung reicht nie weiter als vier Bytes.
- 1. jpg Bits pro Pixel
- 2. Was bedeutet Zeile [12], wenn sie als Bedingung verwendet wird
- 3. Warum druckt Python Unicode-Zeichen, wenn die Standardcodierung ASCII ist?
- 4. Nicht-ASCII-Zeichen Fehler mit nur ASCII-Code (\ x83 Zeichen)
- 5. Regex irgendein ASCII-Zeichen
- 6. Wie 12 Zeichen formatieren?
- 7. Drucken ASCII-Zeichen auf dem Bildschirm
- 8. Zufalls-ASCII-Zeichen generieren
- 9. Unsichtbare Zeichen - ASCII
- 10. Normalisieren von ASCII-Zeichen
- 11. Syntax von Nicht-ASCII-Zeichen
- 12. Wie hoch ist die Datenübertragungsrate in Bits pro Sekunde?
- 13. Emacs Set-verlassen-Zeichen ASCII-Zeichen
- 14. Was sind ASCII 17-20?
- 15. ASM Ersetzen Scancodes mit ASCII-Zeichen
- 16. Nicht-ASCII-Zeichen in PHP?
- 17. C# -Decodierung nicht ASCII-Zeichen?
- 18. Was bedeutet der Wert, wenn einem Python-integrierten String ein Nicht-ASCII-Zeichen zugewiesen wird?
- 19. Nicht-ASCII-Zeichen in URL
- 20. Key von Lambda S3-Ereignis kann nicht verwendet werden, wenn Nicht-ASCII-Zeichen enthalten
- 21. Was ist ein Escape-Zeichen
- 22. Nicht-ASCII-Zeichen in Matplotlib
- 23. Konvertiere 12 Bit int in 16 oder 32 Bits
- 24. Zähler Ausgabe zeigt ASCII Zeichen
- 25. Drei hexadezimale Ziffern können zur Darstellung von 12 binären Bits verwendet werden. Warum ist dieser Satz wahr?
- 26. zufällige druckbare ASCII-Zeichen in c
- 27. Was verwendet VxWorks für ein Newline-Zeichen?
- 28. Konvertieren von ASCII-Zeichen in binäre (7-Bit)
- 29. Decoding Ascii 7 Bits zu einer lesbaren UTF8 .CSV-Datei
- 30. Verschiedene ASCII-Wert für ein Zeichen
ASCII definiert nur Zeichen 0..127, so dass es nur 7 Bits benötigt. Wenn Sie 12 Bits haben, benötigt und verwendet es nur 7 Bits. –
ASCII ist ein Standard. Unicode ist ein anderer. Warum forschen Sie nicht an Unicode, um einen Kontext zu bekommen? –