Por qué no tenemos CPU de 128 bits

click fraud protection

Pasamos de 8 bits a 16 bits, a 32 bits y terminamos en 64 bits. He aquí por qué no existen las CPU de 128 bits.

Entre las palabras del vocabulario informático, bit es sin duda una de las más conocidas. Generaciones enteras de consolas de videojuegos y sus estilos artísticos pixelados están definidos por bits (como 8 y 16 bits) y muchas aplicaciones ofrecen versiones de 32 y 64 bits.

Si observa esa historia, podrá ver que nuestra capacidad para manejar bits ha aumentado a lo largo de los años. Sin embargo, si bien los chips de 64 bits se introdujeron por primera vez en los años 90 y se generalizaron en los años 2000, Todavía no tengo CPU de 128 bits. Aunque 128 puede parecer un paso natural después de 64, es cualquier cosa pero.

¿Qué es incluso un poco?

Antes de hablar de por qué no existen las CPU de 128 bits, debemos hablar de qué es un bit. Básicamente, se refiere a las capacidades de la CPU. Formada a partir de las palabras binario y dígito, es la unidad más pequeña en informática y el punto de partida de toda programación. Un bit sólo puede definirse como 1 o 0 (por lo tanto, binario), aunque estos números pueden interpretarse como verdaderos o falsos, activados o desactivados, e incluso como un signo más o menos.

Por sí solo, un solo bit no es muy útil, pero usar más bits es una historia diferente porque una combinación de unos y ceros se puede definir como algo, como un número, una letra u otro carácter. Para la informática de 128 bits, sólo nos interesan los números enteros (números que no tienen punto decimal), y cuantos más bits haya, más números podrá definir un procesador. Utiliza una fórmula bastante simple de 2^x, siendo x el número de bits que hay. En la informática de 4 bits, el número entero más grande con el que se puede contar es 15, que es uno menos que el 16 que da la fórmula, pero los programadores empiezan a contar desde 0 y no desde 1.

Si 4 bits solo puede almacenar 16 números enteros diferentes, entonces puede que no parezca que pasar a 8, 32 o incluso 128 bits sea un gran problema. Pero aquí estamos tratando con números exponenciales, lo que significa que las cosas comienzan lentamente pero luego despegan muy rápidamente. Para demostrar esto, aquí hay una pequeña tabla que muestra los números enteros más grandes que puedes calcular en binario de 1 a 128 bits.

Poco

Entero máximo

1 bit

1

2 bits

3

4 bits

15

8 bits

255

16 bits

65,535

32 bits

4,294,967,295

64 bits

18,446,744,073,709,551,615

128 bits

340,282,366,920,938,463,463,374,607,431,768,211,455

Así que ahora probablemente puedas ver por qué duplicar la cantidad de bits da como resultado poder manejar números que no sólo duplican su tamaño sino que son órdenes de magnitud mayores. Sin embargo, aunque la informática de 128 bits nos permitiría trabajar con números mucho mayores que la informática de 64 bits, todavía no la utilizamos.

Cómo pasamos de 1 bit a 64 bits

Fuente: AMD

Está bastante claro por qué las CPU pasaron de 1 bit a tener más bits: queríamos que nuestras computadoras hicieran más cosas. No hay mucho que puedas hacer con uno, dos o cuatro bits, pero en la marca de 8 bits, las máquinas recreativas, las consolas de juegos y las computadoras domésticas se volvieron factibles. Con el tiempo, los procesadores se volvieron más baratos de fabricar y físicamente más pequeños, por lo que agregar el hardware necesario para aumentar la cantidad de bits que la CPU podía manejar fue un movimiento bastante natural.

La naturaleza exponencial de los bits se hace evidente muy rápidamente al comparar consolas de 16 bits como SNES y Sega Genesis con sus predecesoras de 8 bits, principalmente la NES. Súper Mario Bros 3 fue uno de los juegos más complejos de NES en términos de mecánica y gráficos, y quedó completamente eclipsado por El mundo de Super Mario, que se lanzó sólo dos años después (aunque las mejoras en la tecnología GPU también fueron un factor clave).

Todavía no tenemos CPU de 128 bits, a pesar de que han pasado casi tres décadas desde que llegaron al mercado los primeros chips de 64 bits.

Sin embargo, no se trata sólo de videojuegos; Prácticamente todo estaba mejorando con más bits. Pasar de 256 números en 8 bits a 65.356 números en 16 bits significó realizar un seguimiento del tiempo con mayor precisión, mostrar más colores en las pantallas y abordar archivos más grandes. Ya sea que esté utilizando una computadora personal de IBM, impulsada por la CPU 8088 de 8 bits de Intel, o construyendo un servidor para una empresa que está lista para conectarse, más bits es mejor.

La industria pasó bastante rápido de la informática de 16 bits a la de 32 bits y, finalmente, a la de 64 bits, que se generalizó a finales de los 90 y principios de los 2000. Algunas de las primeras CPU de 64 bits más importantes se encontraron en la Nintendo 64 y en computadoras con Athlon 64 y Opteron de AMD. CPU. En lo que respecta al software, los 64 bits comenzaron a recibir soporte generalizado de sistemas operativos como Linux y Windows al principio. Años 2000. Sin embargo, no todos los intentos de computación de 64 bits tuvieron éxito; Las CPU del servidor Itanium de Intel sufrieron un fallo de alto perfil y están Algunos de los peores procesadores de la compañía..

Hoy en día, las CPU de 64 bits están en todas partes, desde teléfonos inteligentes hasta PC y servidores. Todavía se fabrican chips con menos bits y pueden ser deseables para aplicaciones específicas que no manejan números más grandes, pero son bastante específicos. Sin embargo, todavía no tenemos CPU de 128 bits, a pesar de que han pasado casi tres décadas desde que los primeros chips de 64 bits llegaron al mercado.

La informática de 128 bits busca un problema que resolver

Se podría pensar que 128 bits no es viable porque es difícil o incluso imposible de hacer, pero en realidad ese no es el caso. Muchas partes de los procesadores, CPU y otros, son de 128 bits o más, como los buses de memoria en las GPU y los SIMD en las CPU que habilitan instrucciones AVX. Estamos hablando específicamente de poder manejar números enteros de 128 bits, y aunque se han creado prototipos de CPU de 128 bits en laboratorios de investigación, ninguna empresa ha lanzado una CPU de 128 bits. La respuesta podría ser decepcionante: una CPU de 128 bits simplemente no es muy útil.

Una CPU de 64 bits puede manejar más de 18 quintillones de números únicos, del 0 al 18.446.744.073.709.551.615. Por el contrario, una CPU de 128 bits sería capaz de manejar más de 340 undecillones de números, y te garantizo que nunca has visto un "undecillón" en toda tu vida. Encontrar un uso para calcular números con tantos ceros es bastante desafiante, incluso si estás usando uno de los bits para firmar el número entero, que tendría un rango desde 170 undecillones negativos hasta 170 positivos undecillón.

Los únicos casos de uso importantes para los enteros de 128 bits son las direcciones IPv6, identificadores universalmente únicos (o UUID) que se utilizan para crear identificaciones únicas para los usuarios (Minecraft es un caso de uso de alto perfil para UUID) y sistemas de archivos como ZFS. La cuestión es que las CPU de 128 bits no son necesarias para manejar estas tareas, que han podido existir perfectamente en hardware de 64 bits. En última instancia, la razón clave por la que no tenemos CPU de 128 bits es que no hay demanda de un ecosistema de hardware y software de 128 bits. La industria ciertamente podría lograrlo si quisiera, pero simplemente no lo hace.

La puerta está ligeramente abierta para 128 bits.

Fuente: Siemens

Aunque las CPU de 128 bits no existen hoy en día, y parece que ninguna empresa lanzará una en el corto plazo, no iría tan lejos como para decir que las CPU de 128 bits nunca existirán. La especificación para el RISC-V ISA deja la posibilidad de un futuro de 128 bits arquitectura sobre la mesa, pero no detalla qué sería realmente, presumiblemente porque simplemente no había una necesidad urgente de diseñarlo.

Trescientos cuarenta undecillones, el mayor número posible de crear con 128 bits, tampoco es tanto como hay átomos en el universo, que se considera el mayor número que tiene cualquier mundo real significado. Si alguna vez quisieras simular una buena parte del universo hasta el nivel atómico, entonces tal vez una CPU de 128 bits sería realmente útil para eso. Más allá de eso, es difícil decir para qué se usaría una CPU de 128 bits, pero hace muchos años también nos preguntamos para qué se podría necesitar un terabyte de RAM.