¿Por qué las computadoras solo entienden 0 y 1? (Código binario)

Seguro has escuchado que las computadoras solo entienden ceros y unos (eso dicen en las películas, series, etc). ¿Pero es cierto? ¿Qué es el código binario? Te lo cuento todo en este blog.

Diseño web
8 minutos
Hace 2 años
¿Por qué las computadoras solo entienden 0 y 1? (Código binario)

¡Accede a cientos de cursos
con solo un pago al año!

Blog Microbanner

Seguro has escuchado que las computadoras solo entienden ceros y unos. Se ve en gráficos, en películas, en publicidad. Esos famosos ceros y unos que “solo pueden leer los hackers”. Pero, ¿es verdad o solo es creencia popular? Si una computadora reproduce videos, audios, muestra imágenes, código de programación y hasta hace inteligencia artificial, ¿cómo es posible que solo entienda ceros y unos?

Pues sí, es verdad, y en este blog vas a aprender por qué. Y no solo eso, al fin vas a comprender cómo funciona el código binario en las computadoras.

Porque estás en EDteam y tú sabes que en español, nadie explica mejor.

El origen de los números

Para entender a los números binarios, retrocedamos un poco en la historia. Los antiguos griegos usaban las letras de su alfabeto para contar. Alfa era uno, Beta era dos, Gama era 3 y así sucesivamente. Era un sistema complicado para cálculos complejos, pero servía para la matemática básica.

Más adelante, los romanos usaron un sistema basado en combinaciones de letras para su numeración: I para uno, V para cinco, L para cincuenta, C para 100. Así que 157 se expresaba así: CLVII. Más sencillo que el sistema griego, pero igual de complicado para la matemática avanzada.

En la Edad Media se introdujo en Europa el sistema numérico decimal que había sido inventado en la India y que usaban los árabes para comerciar. En el año 1202, Leonardo de Pisa publicó el libro “Liber abaci” (“El libro del cálculo” en español) en el cual explica la ventaja del sistema decimal indo-arabigo para actividades como el comercio, cálculos de interés o conversiones de monedas. En este libro también se presenta la famosa sucesión de Fibonacci (nombre con el que era conocido Leonardo de Pisa) en la que cada número de la serie es la suma de los anteriores.

1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610, 987…

Desde entonces el sistema decimal ha sido el más usado en el mundo. En 1642, Blaise Pascal construyó la primera calculadora mecánica importante de la historia, la llamó Pascalina y podía realizar las cuatro operaciones (aunque la multiplicación y la división la hacía con secuencias de sumas y restas).

En 1671, inspirado por el trabajo de Pascal, Leibniz crea su propia calculadora que podía multiplicar y dividir directamente sin convertir a sumas y restas. Estas dos calculadoras serían la inspiración, más de 100 años después, para la máquina diferencial de Charles Babbage, quien es considerado el padre de las computadoras.

Sin embargo, estas máquinas trabajaban con el sistema decimal (contando del 0 al 9) no con el binario.

En 1703 el mismo Leibniz publicó el artículo “Explicación de la aritmética binaria” en el que explica como funciona el sistema binario (donde solo hay ceros y unos) y cómo hacer cálculos con ellos. Su trabajo estaba inspirado en los de matemáticos chinos que ya conocían este sistema y ayudó a difundir el sistema binario como en Europa.

¿Cómo funciona el sistema binario?

Para entender el sistema de numeración binario primero pensemos en el sistema decimal que usamos a diario. En él tenemos 9 dígitos (0, 1, 2, 3, 4, 5, 6, 7, 8 y 9) y vamos contando en ese orden hasta que los agotamos (o sea, cuando llegamos al nueve y no hay más dígitos). Entonces nos toca combinarlos en números de dos dígitos, así que comenzamos en el siguiente de la lista (1) y volvemos a contar del 0 al 9 (10, 11, 12, 13, 14, 15, 16, 17, 18 y 19).

Cuando terminamos esta secuencia vamos al siguiente dígito de la lista y volvemos a comenzar: 20, 21, 22, 23… y cuando terminamos, vamos al siguiente: 30, 31, 32… Y cuando terminamos con todos, creamos números de 3 dígitos: 100. Y volvemos a comenzar.

En el sistema binario no tenemos 10 dígitos, solo 2: 0 y 1. Pero el proceso es el mismo. Veamos:

  • Contamos 0 y 1.
  • Si queremos ir al siguiente número (el que en decimal sería 2), nos toca crear un número de 2 dígitos: 10
  • El tres es fácil porque podemos cambiar el 0 por 1 y nos queda 11.
  • Para el cuatro nos quedamos sin dígitos, así que creamos un número de tres dígitos: 100.
  • El cinco es fácil, solo sumamos uno: 101
  • Para el seis sumamos uno. Pero ya sabes que sumar 1 da 10, así que 6 es 110
  • El siete es sumar uno: 111
  • Y para el 8 nos quedamos sin dígitos, así que toca crear un número de 4 dígitos: 1000

codigo-binario-explicacion-EDteam-blog-Alvaro-Felipe.png

Si te fijas, aumentamos un dígito solo en las potecias de 2 (2, 4, 8, 16, 32, 64, 128, 256, 512, 1024) ¿Te suenan estos números?

Una forma muy sencilla de convertir cualquier número decimal a binario es hacer divisiones sucesivas y quedarnos con el resto y el cociente final. Por ejemplo, si queremos pasar 11 a binario:

  1. Primero dividimos 11 entre 2. Nos da 5 y el resto es 1. Conservamos el 1.
  2. Dividimos 5 entre 2. Nos da 2 y el resto es 1. Conservamos el 1.
  3. Dividimos 2 entre 2. Nos da 1 y el resto es 0. Como la división terminó conservamos el 0 y también el cociente 1.
  4. Por lo tanto, 11 en binario entonces es 1011.

codigo-binario-explicacion-EDteam-blog-Alvaro-Felipe.png

El sistema binario en las computadoras

En 1854, George Boole publicó “An Investigation of the Laws of Thought” (una investigación sobre las leyes del pensamiento) en la que desarrolla la famosa álgebra booleana que es una teoría fundamental para la informática. El álgebra booleana consiste de tres operaciones lógicas bastante sencillas: AND, OR y NOT.

En este sistema, los resultados de las operaciones solo tienen dos valores posibles: verdadero (true o 1) y falso (false o 0). Por eso, en honor a George Boole, le llamamos booleanos (o boolean) a los tipos de datos verdaderos y falsos.

codigo-binario-explicacion-EDteam-blog-Alvaro-Felipe.png

La operación AND será verdadera (1) solo cuando ambas proposiciones son verdaderas (1 y 1). Por ejemplo, si en EDteam estamos buscando un programador frontend que sepa React y TypeScript es una operación AND. Porque no le bastará saber una de las dos para pasar. Tiene que, sí o sí, saber ambas.

codigo-binario-explicacion-EDteam-blog-Alvaro-Felipe.png

La operación OR, en cambio, solo requiere que una de las dos proposiciones sea verdadera para ser verdadera. Por ejemplo, si estás organizando una fiesta, puedes invitar a amigos del trabajo o a tu familia. No es necesario que sean a la vez del trabajo y de tu familia.

codigo-binario-explicacion-EDteam-blog-Alvaro-Felipe.png

Mientras que la operación NOT implica negar la proposición. Por ejemplo, podrías decir que NO se admiten niños en tu fiesta.

Estas tres operaciones son la base de cómo funciona nuestro pensamiento cuando analizamos una situación y tomamos decisiones. Sin embargo, se convirtió (sin que su autor se lo proponga) en la base para la informática y las computadoras.

En 1937, Claude Shannon publicó el artículo “Análisis simbólico de circuitos de relés y de conmutación”. Una obra que ha sido considerada la base de la informática moderna, pues unía el álgebra booleana con los circuitos. Mientras trabajaba en los laboratorios Bell quedó maravillado de como se usaban los relés y los interruptores para manejar el tráfico de las llamadas telefónicas y redireccionarlas. Y se le ocurrió que usando ese principio y el álgebra de Boole se podría ejecutar cualquier operación matemática usando interruptores, que no son más que ceros (apagado) y unos (encendidos).

Por ejemplo, una operación AND consistiría de dos interruptores en serie. Tienen que estar los dos encendidos (1) para que pase la corriente. Mientras que un OR serían dos interruptores en paralelo. Basta que uno de los dos esté prendido (1) para que pase la corriente.

codigo-binario-explicacion-EDteam-blog-Alvaro-Felipe.png

Este principio tan sencillo, replicado cientos o miles de veces en muchos interruptores, podía resolver cualquier problema matemático o lógico y sería la base para las computadoras.

De este trabajo derivan las famosas puertas lógicas, que son una forma de implementar en un circuito electrónico el álgebra booleana usando los principios de Claude Shannon.

Casi al mismo tiempo, en 1936, Alan Turing (como te conté en este video) en su artículo “Acerca de números computables” presenta el primer modelo teórico de una computadora, con entrada, salida y un CRUD completo y también basada en un sistema binario.

Y aun así las primeras computadoras fueron decimales y no binarias, el sistema binario es más fácil de implementar en un circuito electrónico, mientras que el decimal es más fácil en un sistema electromecánico. Por ejemplo, dos de las primeras computadoras de la historia: el Harvard Mark I y el Mark II fueron decimales.

Como anécdota, en el Mark II trabajaba el equipo de Grace Hooper y un día la máquina dejó de funcionar y buscando el problema encontraron una polilla en uno de los interruptores. A partir de entonces se popularizó el término “bug” (insecto) para referirse a los errores de programación.

En 1943 se creó la primera computadora de la historia: Colossus (como te contamos en el video sobre Alan Turing). Esta computadora era binaria, electrónica y tomaba elementos de la máquina de Turing. Sin embargo, estuvo aplicada solo a descifrar códigos Nazi y se mantuvo en total secreto. Y cuando terminó la guerra fueron destruidas todas las máquinas Colossus.

En 1946 se lanzó en Estados Unidos el ENIAC, que fue considerada la primera computadora de la historia (porque nadie sabía de la existencia de Colossus) a pesar de que era decimal y no binaria. John Von Neumann había trabajado como asesor en la construcción del ENIAC y se dio cuenta de que los cálculos podían ser más rápidos usando el sistema binario, pero no tenía el poder para cambiar el diseño del ENIAC. Así que su siguiente proyecto fue una computadora binaria, luego lideró un nuevo proyecto, fue una computadora binaria y de programa almacenado, es decir, que tenga memoria.

Esta computadora se llamó EDVAC y se lanzó en 1951, y a pesar de que se habían construido varias computadoras antes, el EDVAC es la primera en tener todos los componentes de una computadora moderna: es electrónica, binaria y de programa almacenado (es decir, tiene una memoria para almacenar los programas en lugar de tener que reconfigurarla físicamente moviendo cables e interruptores).

Desde entonces todas las computadoras usaron el sistema binario porque era más eficiente en circuitos electrónicos en los que se podía controlar el voltaje para diferenciar ceros de unos. Primero se hizo con tubos de vacío y luego se pasó al estado sólido con los transistores y los chips. Si quieres saber más, no te pierdas este video en el que te cuento la historia de Silicon Valley y como se transformó la arena en empresas multimillonarias.

Del binario al ensamblador y a los lenguajes de programación

El binario es excelente para las computadoras porque pueden hacer cálculos a velocidades increíbles, pues solo emplean dos valores (1 y 0) en lugar de cientos o miles. Pero, para los programadores es una tortura escribir en binario. Imagínate, tenías una tarjeta en la que podías hacer agujeros que representaban un 1, y la falta de agujero un 0. Si eras programador, escribías tu código en varias tarjetas y luego hacías fila con tus tarjetas para que un operador las introduzca en la computadora.

Y ay de ti si encontraban un error porque te tocaba empezar de nuevo revisando tarjeta por tarjeta (no había un debugger que te diga en qué lugar estaba el error). No era cool ser programador en esos tiempos, era un trabajo más de paciencia que de talento.

El lenguaje ensamblador

Este proceso tan lento se conocía como “procesamiento por lotes” y aunque no podía cambiarse por la falta de potencia de las computadoras que no podían procesar varias órdenes a la vez sino una detrás de otra; lo que sí se podía era dejar de torturarnos escribiendo código binario.

Así que el siguiente paso fue crear un lenguaje que fuera más fácil de entender y de recordar y así nació el lenguaje ensamblador. Este lenguaje es un conjunto de órdenes directas al procesador (como hacer cálculos matemáticos) escritas en abreviaturas que hacen mucho más fácil programar.

Este lenguaje consta de dos partes: el lenguaje ensamblador en sí mismo, y el ensamblador, que es un programa que se encarga de convertir las instrucciones de este lenguaje en binario. Porque las computadoras no entienden ensamblador, solo entienden ceros y unos.

Los lenguajes de programación

Y aunque el lenguaje ensamblador es una forma más sencilla frente a programar en binario, seguía siendo un trabajo arduo y lento, por lo que se crearon los lenguajes de programación de alto nivel. Alto nivel significa que son más fáciles de comprender para los seres humanos. Mientras que bajo nivel significa que son menos fáciles de entender, pero con más control sobre cada instrucción dada al procesador.

Pero, como ya te habrás dado cuenta, estos lenguajes deben ser convertidos a ceros y unos porque las computadoras no entienden ni Python ni Javascript ni Java ni Go, ni ninguno de estos lenguajes. Solo entienden ceros y unos. Y para convertir los lenguajes de programación a binario se creó un programa llamado “compilador”.

El primer compilador fue creado por Grace Hooper en 1952 para un lenguaje llamado Flow-Matic que no llegó a ser utilizado ampliamente. El primer lenguaje de alto nivel de la historia, utilizado en muchas computadoras y empresas, fue Fortran, lanzado en 1957. Y el segundo lenguaje fue COBOL, lanzado en 1959 y que hasta la fecha se sigue usando muchísimo, sobre todo en el mundo financiero.

Si quieres saber más de la historia de la programación, te invito a ver este video.

Todo es binario, al menos hasta la computación cuántica

Aunque en la década del 60 se empezó a usar el código binario por su eficiencia, el poder de cómputo actual es tan grande que bien podría usarse el sistema decimal sin problemas. Pero, implicaría cambiar todo lo que ya existe: desde la arquitectura de procesadores, el lenguaje ensamblador, los compiladores, programas, sistemas operativos, drivers, todo. Es un trabajo que no vale la pena, así que seguiremos usando sistema binario en la computación.

Excepto en la computación cuántica, que usa qubits en lugar de bits y es enormemente más poderosa que la computación binaria. Aunque es tema de otro blog, así que deja tu comentario si quieres que hablemos de la computación cuántica.

Y para terminar, ya que hablamos de bits, ¿qué son los bits? Son la abreviación de Binary Digit y no es más que una unidad de información, es decir, un cero o un uno. Una anécdota curiosa es que el término que se usaba antes era bd por las iniciales de Binary Digit. Sin embargo, fue John Tukey en 1946 quien creó el término bit, que luego fue popularizado por Claude Shannon.

Y ya que los bits son la unidad básica de la información, se usan para calcular las unidades de almacenamiento, siento la más básica, el byte que equivale a 8 bits. Y como cada bit tiene dos valores posibles (0 y 1), un byte tiene 256 valores posibles (2^8). Los famosos 256 valores que están en todas partes en la informática, desde las direcciones IP, la notación de colores RGB, o la representación del alfabeto en ASCII.

A partir de los bytes se definen las siguientes unidades de almacenamiento de la siguiente manera:

  • 1 Kilobyte (KB) = 1024 bytes (2^10 bytes)
  • 1 Megabyte (MB) = 1024 kilobytes (2^20 bytes)
  • 1 Gigabyte (GB) = 1024 megabytes (2^30 bytes)
  • 1 Terabyte (TB) = 1024 gigabytes (2^40 bytes)
  • 1 Petabyte (PB) = 1024 terabytes (2^50 bytes)
  • 1 Exabyte (EB) = 1024 exabytes (2^60 bytes)

Y todo, absolutamente todo lo que ves en la computadora, debe traducirse a ceros y unos (o bits). Por ejemplo, en una imagen, cada pixel es traducido a bits que son ceros y unos. Lo mismo para los videos, audios, PDF, código de programación, etc.

Como ves, todo en la computación está basado en los números binarios, en los ceros y unos, y su historia es fascinante.

Así que cuando alguien te pregunte, ¿cómo sabes tanto sobre el código binario en las computadoras? Respóndele que lo aprendiste en EDteam, porque ya sabes que en español, #NadieExplicaMejor.

Comentarios de los usuarios

Pregunta a ChatEDT