У UNICODE кожен символ представлений 16-значним числом, тобто кожен символ займає два байти.
В таблиці Unicode використовується 2 байти, тому можна сказати, що 1 символ у комп'ютері займає 1 або 2 байти.
Чому для кодування 1-го символу потрібен саме 1 байт? Я чудово розумію, що мінімальна одиниця інформації – 1 біт і щоб висловити 255 символів у двійковому коді треба використовувати 8 біт.
Вага одного символу, набраного на комп'ютері, залежить від того, яке кодування використовують. Найчастіше використовується восьмирозрядне кодування, тобто один символ «важить»(8) біт.