Cambiar un poco tu pregunta (lo que creo que estás preguntando) es:
“¿Por qué la base de la computación sigue siendo binaria, y no algo más natural e intuitivo como el inglés?”
Al responder a esta pregunta, diría que se debe principalmente a la historia de la computación (y a qué computadora de “rol” ha jugado históricamente, junto con los avances que han hecho que la computación sea barata y ubicua):
Para comenzar, muchas de las primeras cosas que llamamos computadoras (pero más formalmente conocidas como “Computadoras de programa almacenado de Turing moderno completo”) fueron diseñadas para resolver / simplificar / automatizar tipos de problemas “matemáticos” … uno de los primeros y más Computadoras conocidas, la ENIAC significaba ” Integrador Numérico Electrónico y Computadora”. ENIAC se diseñó inicialmente para calcular las tablas de disparo de artillería (que es un problema matemático).
- ¿Cuáles son algunos hechos menos conocidos sobre Shahrukh Khan?
- ¿Es la siguiente afirmación un hecho o una opinión?
- ¿Qué tipo de sistemas alternativos de calendario se pueden proponer? ¿Cómo serán mejores que el actual?
- ¿Cuáles son algunos datos interesantes sobre Srinivasa Ramanujan?
- ¿Cuáles son algunos de los datos interesantes sobre la economía del imperio inca y por qué funcionó?
Antes de la ENIAC, existían calculadoras mecánicas (desde 1600) y los telares se “programaban” en la década de 1800 con tarjetas perforadas …
La razón por la que menciono esto es porque los problemas que intentaban resolver las “máquinas informáticas” eran matemáticos o no ambiguos … Una tarjeta perforada que se usaba para programar telares textiles desde 1725. Y este “problema” de programación de la máquina de telar se asigna muy bien a una máquina que interpreta “binario” … la máquina de tejer interpreta y ejecuta cuando encuentra un “agujero perforado” (un “1” binario) de manera diferente cuando se encuentra “sin perforar” agujero “(un binario” 0 “).
Paralelamente a estas innovaciones mecánicas / físicas en la fabricación de textiles y el cálculo mecánico, se realizó un gran trabajo teórico sobre codificación binaria (Codificación binaria de Frances Bacon en 1605, Sistema de números binarios de Leibnitz en 1679, Álgebra booleana de George Boole en 1853).
Eventualmente, cuando estas teorías se fusionaron con la tecnología mecánica (es decir, el advenimiento de la electricidad) … Los pioneros de la computadora del programa almacenado se dieron cuenta de que:
1) binario es bueno para modelar tipos de datos comunes (enteros, caracteres) que se pueden usar en una computadora programable para calcular cosas
2) las instrucciones del programa también podrían escribirse de forma inequívoca en binario
3) los datos y las instrucciones del programa podrían almacenarse a largo plazo de la manera más efectiva (barata) utilizando dispositivos físicos que se destacaron en el almacenamiento de datos binarios
La clave aquí es que todas nuestras computadoras modernas usan binario porque
- era barato”
- es bien entendido
- es inequívoco
- puede ser reutilizado / asignado a cosas de nivel superior (números, caracteres, tuplas, instrucciones)
Entonces, la versión corta de TL; DR es:
binario es “genérico” y una excelente base para modelar algo tan complejo como el idioma inglés o el álgebra lineal o instrucciones complejas (programas) …
Y binario también es bueno para modelar cosas de “bajo nivel” (como el telar textil, que interpreta efectivamente el binario como un grupo de SI / NO secuenciales)
Sin embargo, hay una investigación interesante dedicada a la computación cuántica (la inversión de $ 3 mil millones de IBM en cerebros sintéticos y computación cuántica) que no se basa en la lógica binaria.