6 peores CPU Intel de todos los tiempos

click fraud protection

Si observa la historia de Intel, encontrará toneladas de CPU horribles, muchas de las cuales habrían causado la ruina financiera de cualquier otra empresa.

enlaces rápidos

  • Pentium 4: el primer gran desastre de Intel
  • Itanium: los sueños de Intel de 64 bits se evaporan
  • Átomo: Tan rápido como un átomo es grande
  • Core i7-7700K: Intel deja de intentarlo
  • Core i3-8121U: No hablamos de 10nm
  • Core i9-11900K: No se pudo lograr el despegue
  • Un regreso, pero ¿a qué precio?

Intel se ha visto recientemente impulsada por el éxito de su chips de 13.ª generación para la corriente principal y Procesadores Xeon de cuarta generación para servidores y estaciones de trabajo, con la Núcleo i9-13900K incluso reclamando la corona de rendimiento por sólo un pelo. Esto ha sido una especie de regreso, ya que Intel ha luchado tecnológicamente durante años y, en 2022, finalmente sintió los devastadores efectos financieros de perder la ventaja en este espacio sobre su competidores. Si miras hacia atrás en la historia de Intel, encontrarás toneladas de CPU horribles, y algunas de ellas te harán preguntarte cómo Intel comenzó a tener problemas financieros recientemente.

Pentium 4: el primer gran desastre de Intel

A principios de la década de 2000, las CPU eran mucho más simples de lo que son hoy y la mayoría de las mejoras de generación en generación se centraban en las velocidades de reloj. De hecho, las CPU a menudo recibían nombres de sus velocidades de reloj y nada más. Cuando Intel estaba desarrollando su arquitectura Net Burst de próxima generación, parecía obvio intentar perseguir la frecuencia, y la compañía tenía grandes planes, planes que se descarrilaron de manera igualmente grande.

AMD fue la primera empresa en lanzar una CPU de 1 GHz con el Athlon 1000, que se lanzó en marzo de 2000, pero Intel ya tenía los ojos puestos en la barrera de los 2 GHz. A finales de año, había lanzado sus primeras CPU Pentium 4, el más rápido de los cuales llegó a 1,5 GHz. En 2001, Intel fue el primero en 2GHz con su chip Pentium 4 de 2 GHz y un modelo de 3GHz pronto siguió en 2002.

Sin embargo, estas frecuencias tenían un precio elevado. Intel se vio obligada a hacer que el proceso de Net Burst fuera extraordinariamente largo, lo que significó que las instrucciones por reloj (IPC) del Pentium 4 estaban muy por debajo de las CPU Intel más antiguas y de las que tenía AMD.

Al principio, el plan de Intel funcionó bien y los chips Pentium 4 normalmente superaban a los Athlons de AMD. Intel redobló su estrategia haciendo que el proceso de Net Burst sea aún más largo para alcanzar velocidades de reloj más altas. En 2005 se lanzaría un Pentium 4 de 4 GHz, seguido de una CPU de 10 GHz en un futuro próximo. Sin embargo, la estrategia de Intel se basó en Dennard Scaling, que observó que la frecuencia aumentaba cada generación sin necesidad de más energía. En 2005, Intel descubrió que Dennard Scaling ya no se aplicaba y que incluso 4 GHz era difícil de alcanzar, lo que llevó a la cancelación del Pentium de 4GHz.

La decisión de Intel de reducir el IPC para alcanzar frecuencias más altas tuvo consecuencias desastrosas cuando esas ganancias de frecuencia se agotaron y AMD tomó la delantera en 2004. Intel terminó desechando Net Burst y diseñó una arquitectura completamente nueva que priorizaba IPC sobre las ganancias de frecuencia como la mayoría de las CPU modernas.

Itanium: los sueños de Intel de 64 bits se evaporan

Al mismo tiempo que Intel lanzaba Net Burst para computadoras de escritorio, Intel estaba preparando un plan extremadamente ambicioso para CPU de servidor. La arquitectura x86, que se utilizó para Las CPU de Intel y AMD se limitaban a la computación de 32 bits y, para el mercado emergente de servidores, Intel quería desarrollar procesadores de 64 bits con tecnologías nunca antes vistas. velocidades. Intel descartó la idea de crear una versión de 64 bits de x86 y se asoció con HP para crear el nueva arquitectura IA-64, que impulsaba las CPU Itanium. Los primeros chips Itanium estaban previstos para 1999. lanzamiento.

El desarrollo de Itanium fue problemático., sin embargo. Se retrasó hasta 2001 y el presupuesto empezó a dispararse. Cuando finalmente se lanzó en 2001, su rendimiento no era exactamente competitivo con el de otras CPU x86, y sólo la capacidad de Itanium para computar en 64 bits fue un importante punto de venta. Pero Itanium tenía un defecto fundamental: no podía ejecutar software x86. Fue necesario reescribir todo el software existente para la arquitectura IA-64, lo cual no fue una tarea fácil.

Si Itanium impresionaba era simplemente por su negativa a morir.

En 2003, AMD había terminado su propia arquitectura de 64 bits llamada AMD64, que era una versión de x86 con soporte de 64 bits. Intel había decidido previamente no aplicar esta estrategia por varias razones, pero en retrospectiva, quedó claro que Itanium fue un error ya que los chips Opteron de AMD comenzaron a ganar cuota de mercado. AMD64 también contó con el apoyo de importantes empresas de software como Microsoft, que eligió AMD64 como su arquitectura de 64 bits preferida. Al final, AMD64 se hizo tan popular que Intel tuvo que fabricar sus propios chips de servidor AMD64 llamados Xeon, y AMD64 se convirtió en x86-64.

Pero aquí está la cuestión: Xeon no reemplazó a Itanium. Intel y HP mantuvieron durante años la esperanza de que esta estrategia de arquitectura dual funcionara, incluso cuando empresas como Dell e IBM dejaron de vender servidores Itanium. Itanium dejó de recibir actualizaciones anuales a mediados de la década de 2000 y su último chip se lanzó en 2017. Finalmente se suspendió en 2020, pero no antes provocando una demanda masiva entre Oracle y HP sobre apoyo. Si Itanium impresionaba era simplemente por su negativa a morir.

Átomo: Tan rápido como un átomo es grande

Finalmente, Intel limpió su actuación tras los fiascos de Pentium 4 e Itanium y volvió a su posición de liderazgo tradicional. A finales de la década de 2000, Intel vio oportunidades más allá de las computadoras de escritorio, portátiles y servidores a medida que dispositivos como el iPod se volvieron extremadamente populares. Pero Intel tenía aspiraciones más grandes que alimentar dispositivos que pudieran caber en su bolsillo; quería CPU Intel en cualquier cosa que pudiera tener un procesador. Intel necesitaba un chip que fuera pequeño, eficiente y lo suficientemente rápido para funcionar, por lo que en 2008 la empresa lanzó Atom.

Después de tomar un par de años para solucionar los problemas de los primeros chips Atom, Intel estaba listo para lanzar el Atom Z600, que se suponía que capturaría el mercado de teléfonos inteligentes de Arm. Tenía un rendimiento muy superior a cualquier cosa que Arm pudiera ofrecer y tenía el mismo consumo de energía. anandtech confiaba en que el Z600 cambiaría todo, afirmando que "el mercado de teléfonos inteligentes dentro de cinco años no parecerá una extensión de lo que vemos hoy".

Entonces, ¿por qué su teléfono o tostadora no tiene una CPU Atom? Quizás la razón más importante es que x86 nunca se había utilizado para teléfonos inteligentes u otros dispositivos, por lo que sería necesario reescribir el software. Este fue básicamente el mismo error que cometió Intel con Itanium, y acabó con sus planes de teléfonos inteligentes después de seis años. Probablemente tampoco ayudó que el único reclamo de Atom a la fama fuera el netbook y los dispositivos de "Internet de las cosas".

Pero recientemente, Intel finalmente encontró un hogar para Atom en dispositivos de red y sus nuevas CPU híbridas como la 13900K, que tiene 16 E-cores. descendiente de las CPU Atom. Eso no cambia el hecho de que Atom fue un desastre durante más de una década, pero al menos sirve para algo. ahora.

Core i7-7700K: Intel deja de intentarlo

Intel reemplazó Net Burst con Core, una arquitectura que encontró un equilibrio entre IPC y frecuencia, y fue un éxito inmediato. Las CPU como Core 2 Duo E6300 y Core 2 Quad Q6600 eran mucho más rápidas que El decepcionante sucesor de AMD de Athlon, Phenom. El renovado ataque de Intel en PC culminó con el enfrentamiento entre su Sandy Bridge de segunda generación y las CPU FX Bulldozer de AMD en 2011, e Intel ganó fácilmente. Intel estaba nuevamente en alza.

Entonces, ¿cómo continuó Intel con este impulso? Básicamente, iniciando la misma CPU una y otra vez. Eso no quiere decir que Intel no estuviera haciendo ningún progreso; la compañía siguió el modelo "tic-tock", donde Intel lanzó una CPU en cada generación con un nuevo nodo de fabricación (tick) y luego una CPU con una nueva arquitectura (tock), repitiéndose una y otra vez. Pero estos avances tecnológicos dejaron de traducirse en mejoras significativas de rendimiento y valor como lo habían hecho en el pasado, y fue porque Intel ya no necesitaba competir.

El Core i7-7700K fue quizás el más famoso de estos chips, ya que era literalmente un Core i7-6700K con unos pocos MHz adicionales.

El resultado final fue el Kaby Lake de séptima generación, que se lanzó en 2017 y no fue ni un tic ni un tock sino una "optimización", es decir, solo se trataba de CPU de última generación con mayor velocidad de reloj. velocidades. El Core i7-7700K fue quizás el más famoso de estos chips, ya que era literalmente un Core i7-6700K con unos pocos MHz adicionales. PCGamesN fue particularmente mordaz en su reseña, diciendo que se trataba de "un deprimente trozo de silicio".

Esta historia tiene final feliz porque AMD finalmente regresó dos meses después lanzando sus Ryzen 1000 CPU. Estos chips de primera generación no fueron los ganadores en los juegos, pero tenían increíbles múltiples núcleos. actuación. El Ryzen 7 1700 superó al 7700K básicamente en cualquier carga de trabajo de múltiples núcleos y costó aproximadamente lo mismo. La guinda del pastel fue la prisa de Intel por sacar al mercado sus CPU de octava generación el mismo año, lo que significó que Kaby Lake ni siquiera pasó un año completo antes de quedar obsoleto.

Core i3-8121U: No hablamos de 10nm

Aunque Intel se sentía cómodo lanzando la misma CPU dos veces seguidas, se suponía que Kaby Lake nunca existió. Intel siempre tuvo la intención de ceñirse al modelo tic-tac y lanzar una CPU de 10 nm después de la sexta generación, pero el desarrollo del nodo de 10 nm de la compañía iba mal. El plan para los 10 nm era extremadamente ambicioso. Se suponía que tendría casi el triple de densidad que los 14 nm, además de su mayor eficiencia. Intel debería haber sabido que no debía hacer esto después tuvo problemas para sacar a tiempo sus CPU de 14 nm, pero quería superioridad tecnológica, así que siguió adelante.

El objetivo original para los 10 nm era 2015, pero como los 14 nm se retrasaron, los 10 nm también. 2017 fue la nueva fecha de lanzamiento, pero en lugar de CPU de 10 nm, Intel lanzó su tercera y cuarta CPU de 14 nm. CPU. Finalmente, Intel lanzó una CPU de 10 nm basada en la arquitectura Cannon Lake, el Core i3-8121U, en 2018. Desafortunadamente, no marcó el comienzo de una nueva generación de CPU que utilizan tecnología de punta, sino el fin del liderazgo de Intel.

El Core i3-8121U en 2018 marcó el fin del liderazgo de Intel.

El 8121U fue una terrible demostración de 10 nm y un producto terrible por derecho propio. El nodo de 10 nm estaba tan roto que Intel sólo pudo fabricar una pequeña CPU de doble núcleo con sus gráficos integrados desactivados intencionalmente, presumiblemente porque no funcionaban correctamente. Intel había abarcado más de lo que podía abarcar con los 10 nm, y las consecuencias de la arrogancia de la compañía cambiarían su trayectoria para siempre. Con los 10 nm estancados en el infierno del desarrollo, Intel sólo podía confiar en los 14 nm para cualquier cosa que requiriera una cantidad significativa de rendimiento.

Como nota al margen, Intel enumera todas las CPU que lanzó en las últimas dos décadas en su sitio web y, si bien la página para el 8121U todavía existe, la página para todos CPU Cannon Lake de 10 nm ha sido eliminado, casi como si Intel estuviera avergonzado.

Core i9-11900K: No se pudo lograr el despegue

Intel siguió adelante con los 14 nm durante años y, aunque cada generación trajo más núcleos que la anterior, la frecuencia Las ganancias de cada refinamiento de 14 nm eran cada vez menores y la adición de más núcleos aumentaba drásticamente la potencia. consumo. Cuando Intel lanzó sus CPU de décima generación (la sexta consecutiva en usar 14 nm), AMD ya estaba usando los 7 nm de TSMC para sus CPU Ryzen 3000. La gama alta de Intel Core i9-10900K no pudo vencer al Ryzen 9 3900X de AMD, que ni siquiera era el buque insignia y no tenía soporte PCIe 4.0, a diferencia de las CPU AMD.

Si 10 nm no era una opción, entonces lo único que quedaba era introducir una nueva arquitectura. Intel decidió respaldar sus chips Ice Lake orientados a dispositivos móviles a 14 nm, lo que generó un muy necesario aumento del IPC del 19 %. Quizás Intel debería haber hecho esto antes en lugar de esperar a la séptima generación de CPU de 14 nm, pero más vale tarde que nunca, ¿verdad?

Entonces, las CPU Rocket Lake de 11.a generación vinieron con una arquitectura completamente nueva, pero esto tuvo un precio. En primer lugar, la compatibilidad con una CPU diseñada para un nodo mucho más denso significaba que los núcleos eran enormes en 14 nm. En segundo lugar, el consumo de energía también aumenta en los procesos más antiguos, lo que hace que agregar más núcleos y aumentar la velocidad del reloj sea más desafiante. El resultado final fue el Core i9-11900K "insignia", que tenía apenas ocho núcleos y un tamaño de matriz de 276 mm2; es decir, menos núcleos que el 10900K y, al mismo tiempo, más grande.

El 11900K estaba condenado; era tecnológicamente atrasado y demasiado caro: 539 dólares. Apenas podía igualar el Ryzen 7 5800X de 450 dólares (y mucho menos los Ryzen 9 5900X y 5950X) e incluso perdió frente al 10900K en cualquier cosa que no fuera extremadamente de un solo subproceso. Es sorprendente que Intel haya invertido investigación y desarrollo en una CPU completamente nueva que ni siquiera pudo vencer a su predecesor de manera convincente. Es posible que Rocket Lake se haya creado con el único propósito de obtener PCIe 4.0 en una CPU de escritorio Intel. Al menos el resto de la línea Rocket Lake fue decente desde que AMD dejó de competir en la gama baja y media.

Un regreso, pero ¿a qué precio?

Con sus CPU de 12.ª y 13.ª generación, Intel finalmente ha vuelto al liderazgo en rendimiento en PC, pero el daño ya está hecho. Se suponía que 10 nm se lanzaría en 2015, pero solo se lanzó con éxito en 2021 con Alder Lake y Ice Lake para servidores. Siete años completos de CPU de 14 nm han reducido a Intel a una mera sombra de lo que era antes, algo que no había sucedido cuando Intel cometió un error con Pentium 4, Itanium o Atom.

Un hilo común entre todos estos fracasos es la imprudencia y la falta de precaución de Intel. Intel asumió que el Pentium 4 sería fantástico y alcanzaría los 10 GHz, incluso los 30 GHz, sin problemas. Intel asumió que Itanium gobernaría el centro de datos y nunca consideró seriamente la posibilidad de que nadie quisiera reescribir cada pieza del software x86. Intel asumió que Atom tendría éxito simplemente porque era una gran pieza de hardware. Intel asumió que sus ingenieros podían hacer cualquier cosa y apuntó a una ganancia generacional ridícula en 10 nm.

Por otro lado, también es bastante irónico que dos de los fracasos más destacados de Intel hayan permitido a la empresa regresar. Las CPU de arquitectura híbrida como la 13900K solo son posibles gracias a Atom, y sin E-cores, estas CPU serían demasiado grandes y consumirían mucha energía. Los 10 nm también juegan un papel importante en el regreso de Intel, ya que coloca los chips de la compañía a la par con los fabricados en TSMC. Con suerte, este desastre con los 10 nm le ha dado a Intel una nueva comprensión de cómo los planes pueden salir mal.