为什么1字节为8比特?非常有意思的话题,它似乎是“机器语言”时代唯一的遗产。
首先,要追溯在计算机中“位与字节”概念得以产生的重要史实。一般认为,1946年美国的ENIAC是世界上第一台电子计算机,它采用十进制运算,没有内部存储器,结构复杂,稳定性、可靠性低。冯·诺依曼提出改进方案,在计算机中采用“二进制算法”和设置内存贮器的理论,并规定计算机必须由运算器、控制器、存贮器、输入设备和输出设备五大基本结构组成。后来,按该方案设计的计算机,结构简单,也更加可靠、稳定。因此,该方案得到广泛认可而延续至今,成为电子计算机的主要设计方案——冯·诺依曼计算机。
其次,当时的技术条件是奠定“位与字节”关系的现实基础。冯·诺依曼计算机必须用“编码的”二进制数来代表各种不同的机器指令和数据。以4个二进制数来作为一组编码,方便书写,但只有16种组合,显然太少。用8个二进制位组合成的编码共256个,基本可以代表常用数字和符号,而且技术上也可行(纸带、卡片穿孔),还方便早期使用机器码进行编程的人进行记忆。因此,早期计算机通过1英寸宽纸带上“孔”的有无来读取指令和数据,而纸带上一行最多只打8个孔,也就是一行的最大数字为二进制数1111 1111。1字节为8比特就在此时期成为运用。
第三,随着在此基础上8位DOS操作系统的产生,以及ASCII等编码标准的进一步推动,1字节为8比特就被固定下来,延用至今。 |