En Julio de 1948, en una monografía de 79 páginas de “The Bell System Tehnological Journal” apareció un nuevo invento. El artículo se titulaba: “Una teoría matemática de la comunicación”. Era el eje alrededor del cual empezaría a girar el mundo. El nombre de la innovación era “BIT”, y había sido elegido por el autor, Claude Shannon, de 32 años. ¿Qué medía exactamente el “bit”? Según la primera definiciòn, dada por el propio autor de la innovación, “es una unidad para medir información”. “La teoría de la información –ha escrito James Gleick– empezó como un puente que llevaba de las matemáticas a la ingeniería eléctrica, y de allí, a la Informática”.
El término «bit», unidad básica de información, fue elegido por Shannon tomándolo prestado de John W. Tukey, y viene de “binary digit”. Para el ordenador, la letra A es 110001, la B es 110010, etc. En el teléfono, una máquina electrónica divide 8.000 veces por segundo una señal sonora en elementos binarios, unidades, (“bits”). Al otro lado (receptor) esos elementos son descodificados en sentido inverso para hacerse otra vez audibles al oído humano.
Un byte es una serie de 8 bits (ceros y unos) y permite 256 combinaciones diferentes de ceros y unos. La memoria viva de un ordenador (RAM) supera los 8 Megabytes, es decir, 8 millones de veces 256 combinaciones. La memoria muerta (ROM) raramente baja de 300 Megabytes. (Ad)