Gracias por A2A.
¿Quién creó el estándar industrial de 8, 16, 32 y 64 bits para los ordenadores?
En los malos tiempos, la palabra byte significaba el ancho de bits del procesador.
La comunicación en baudot era un byte de 5 bits. Algunos de los primeros ordenadores contaban con procesadores de 6 bits, e incluso IBM tenía un procesador de 36 bits.
Sin entrar en la historia, yo diría que el formato de 8 bits se debió principalmente al estándar de comunicación acordado de ASCII (American Standard Code for Information Interchange). El ASCII sólo se definía con un máximo de 7 bits, pero el 8º bit se utilizaba con frecuencia para la detección de errores. Un conjunto de ASCII extendido utiliza los 8 bits.
Intel produjo el primer microprocesador de 4 bits (4004) que anunció el desarrollo de futuras CPUs que simplemente duplicarían la capacidad de las anteriores.
En algún momento de todo esto, 8 bits se convirtieron en un pseudoestándar para un byte. Basándose en la definición anterior del byte, el IBM PC como máquina de 16 bits era en realidad sólo una máquina de 320kB, salvo que sólo era capaz de mover 8 bits a la vez (debido a las limitaciones del procesador 8088), por lo que los 640kB en formato de 8 bits se afianzaron completamente.
Las máquinas basadas en el 8086 eran capaces de mover 16 bits a la vez, pero la mentalidad de 8 bits ya se había quedado. Como 4, 8, 16, 32 y 64, son números ordenados basados en el binario, la arquitectura de estos ordenadores se simplifica enormemente. Es cierto que el PC original tenía una memoria RAM de 9 bits, el noveno bit para la detección de errores en los datos de 8 bits. En muchas máquinas modernas que todavía utilizan un bit de paridad, el controlador de memoria suplanta el bit de paridad en lugar de almacenarlo y recuperarlo realmente.
La mayor parte de la información que se transmite por Internet sigue estando en paquetes de 8 bits en serie. Es el gran volumen y la velocidad de los datos lo que permite a una máquina en cualquier extremo construir conjuntos de datos de más de 8 bits de ancho.
Esta lógica sugiere que la próxima revolución informática será de 128 bits, pero es probable que ninguno de nosotros la vea en nuestra época, ya que los 64 bits permiten 18 Exabytes de información que actualmente son imposibles de comprimir en un espacio razonable sin freírlo todo.
Como el cambio de datos en paquetes de 8 bits está tan integrado en nuestros sistemas, no hay ninguna razón lógica para que alguien siga desarrollando algo que no se base en un número derivado del binario, salvo como curiosidad.