На зорі комп'ютерної ери на кожен символ було відведено п'ять біт. Це було з малою кількістю оперативної пам'яті на комп'ютерах тих років. У ці символи входили лише керуючі символи та малі літери англійського алфавіту.
У кодуванні Unicode один символ займає 16 біт пам'яті, що відповідає 2 байтам (1 байт = 8 біт).
У таблиці Unicode використовується 2 байти, тому можна сказати, що 1 символ в комп'ютері займає 1 або 2 байти.
Таким чином, інформаційна вага одного символу достатнього алфавіту дорівнює 1 байту.