6 piores CPUs Intel de todos os tempos

click fraud protection

Se você olhar ao longo da história da Intel, encontrará toneladas de CPUs horríveis, muitas das quais teriam causado ruína financeira para qualquer outra empresa.

Links Rápidos

  • Pentium 4: o primeiro grande desastre da Intel
  • Itanium: os sonhos da Intel de 64 bits evaporam
  • Átomo: Tão rápido quanto um átomo é grande
  • Core i7-7700K: Intel para de tentar
  • Core i3-8121U: Não falamos em 10nm
  • Core i9-11900K: Falha ao atingir a decolagem
  • Um retorno, mas a que custo?

A Intel foi recentemente impulsionada pelo seu sucesso com a sua Chipsets de 13ª geração para o mainstream e processadores Xeon de quarta geração para servidores e estações de trabalho, com o Núcleo i9-13900K até mesmo reivindicando a coroa de desempenho por apenas um fio de cabelo. Isto tem sido uma espécie de retorno, já que a Intel tem lutado tecnologicamente durante anos e, em 2022, finalmente sentiu os efeitos financeiros devastadores de perder vantagem neste espaço em relação ao seu concorrentes. Se você olhar para a história da Intel, encontrará toneladas de CPUs horríveis, e algumas delas farão você se perguntar como a Intel só começou a enfrentar problemas financeiros recentemente.

Pentium 4: o primeiro grande desastre da Intel

No início dos anos 2000, as CPUs eram muito mais simples do que são hoje, e a maioria das melhorias de geração em geração concentravam-se nas velocidades de clock. Na verdade, as CPUs eram frequentemente nomeadas de acordo com suas velocidades de clock e nada mais. Quando a Intel estava desenvolvendo sua arquitetura Net Burst de próxima geração, parecia óbvio tentar perseguir a frequência, e a empresa tinha grandes planos, planos que saíram dos trilhos de maneira igualmente grande.

A AMD foi a primeira empresa a lançar uma CPU de 1 GHz com o Athlon 1000, lançado em março de 2000, mas a Intel já estava de olho na barreira dos 2 GHz. No final do ano lançou seus primeiros CPUs Pentium 4 o mais rápido deles chegou a 1,5 GHz. Em 2001, Intel foi a primeira a usar 2GHz com seu chip Pentium 4 de 2 GHz e um Modelo de 3 GHz logo seguido em 2002.

No entanto, essas frequências tiveram um preço alto. A Intel foi forçada a tornar o pipeline do Net Burst extraordinariamente longo, o que significava que as instruções por clock (IPC) do Pentium 4 estavam bem abaixo das CPUs Intel mais antigas e do que a AMD tinha.

No início, o plano da Intel estava funcionando bem e os chips Pentium 4 geralmente superavam os Athlons da AMD. Intel dobrou sua estratégia tornando o pipeline do Net Burst ainda mais longo para atingir velocidades de clock mais altas. Um Pentium 4 de 4 GHz seria lançado em 2005, seguido por uma CPU de 10 GHz em um futuro próximo. No entanto, a estratégia da Intel baseou-se no Dennard Scaling, que observou que a frequência aumentava a cada geração sem necessidade de mais energia. Em 2005, a Intel descobriu que o Dennard Scaling não era mais aplicado e que mesmo 4GHz era difícil de atingir, levando ao cancelamento do Pentium 4GHz.

A decisão da Intel de reduzir o IPC para atingir frequências mais altas teve consequências desastrosas quando esses ganhos de frequência secaram e a AMD assumiu a liderança em 2004. A Intel acabou descartando o Net Burst e projetou uma arquitetura totalmente nova que priorizava o IPC em vez dos ganhos de frequência, como a maioria das CPUs modernas.

Itanium: os sonhos da Intel de 64 bits evaporam

Ao mesmo tempo que a Intel lançava o Net Burst para desktops, a Intel preparava um plano extremamente ambicioso para CPUs de servidores. A arquitetura x86, que foi usada para As CPUs da Intel e da AMD estavam limitadas à computação de 32 bits e, para o mercado emergente de servidores, a Intel queria desenvolver processadores de 64 bits com capacidades nunca antes vistas. velocidades. A Intel descartou a ideia de fazer uma versão de 64 bits do x86 e fez parceria com a HP para criar o a nova arquitetura IA-64, que alimentava CPUs Itanium. Os primeiros chips Itanium estavam previstos para 1999 lançar.

O desenvolvimento do Itanium foi problemático, no entanto. Foi adiado para 2001 e o orçamento começou a disparar. Quando finalmente foi lançado em 2001, seu desempenho não era exatamente competitivo com outros CPUs x86, e apenas a capacidade do Itanium de computar em 64 bits era um importante ponto de venda. Mas o Itanium tinha uma falha fundamental: não conseguia rodar software x86. Todo o software existente precisou ser reescrito para a arquitetura IA-64, o que não foi uma tarefa fácil.

Se o Itanium foi impressionante, foi simplesmente pela sua recusa em morrer.

Em 2003, a AMD havia concluído sua própria arquitetura de 64 bits chamada AMD64, que era uma versão do x86 com suporte a 64 bits. A Intel já havia decidido contra essa estratégia por vários motivos, mas, retrospectivamente, ficou claro que o Itanium foi um erro, já que os chips Opteron da AMD começaram a conquistar participação de mercado. O AMD64 também contou com o apoio de grandes empresas de software como a Microsoft, que escolheu o AMD64 como sua arquitetura de 64 bits preferida. No final, o AMD64 se tornou tão popular que a Intel teve que fabricar seus próprios chips de servidor AMD64, chamados Xeon, e o AMD64 tornou-se x86-64.

Mas o problema é o seguinte: o Xeon não substituiu o Itanium. A Intel e a HP mantiveram durante anos a esperança de que esta estratégia de arquitectura dupla funcionasse, mesmo quando empresas como a Dell e a IBM pararam de vender servidores Itanium. O Itanium parou de receber atualizações anuais em meados dos anos 2000, com seu último chip sendo lançado em 2017. Foi finalmente descontinuado em 2020, mas não antes desencadeando um enorme processo judicial entre Oracle e HP sobre o suporte. Se o Itanium foi impressionante, foi simplesmente pela sua recusa em morrer.

Átomo: Tão rápido quanto um átomo é grande

Eventualmente, a Intel limpou sua atuação após os fiascos do Pentium 4 e do Itanium e retornou à sua posição de liderança tradicional. No final dos anos 2000, a Intel viu oportunidades além dos desktops, laptops e servidores, à medida que dispositivos como o iPod se tornavam extremamente populares. Mas a Intel tinha aspirações maiores do que alimentar dispositivos que cabessem no seu bolso; ela queria CPUs Intel em qualquer coisa que pudesse ter um processador. A Intel precisava de um chip que fosse pequeno, eficiente e rápido o suficiente para sobreviver, então, em 2008, a empresa lançou o Atom.

Depois de levar alguns anos para resolver os problemas dos primeiros chips Atom, a Intel estava pronta para lançar o Atom Z600, que deveria capturar o mercado de smartphones da Arm. Apresentava desempenho muito superior a qualquer coisa que o Arm pudesse oferecer e tinha o mesmo consumo de energia. Anandtech estava confiante de que o Z600 mudaria tudo, dizendo: “o mercado de smartphones em 5 anos não parecerá uma extensão do que vemos hoje”.

Então, por que seu telefone ou torradeira não tem CPU Atom? Talvez a razão mais importante seja que o x86 nunca foi usado para smartphones ou outros dispositivos, então o software precisaria ser reescrito. Este foi basicamente o mesmo erro que a Intel cometeu com o Itanium, e acabou com seus planos de smartphones depois de seis anos. Provavelmente também não ajudou o fato de a única reivindicação de fama do Atom ser o netbook e os dispositivos de "internet das coisas",

Mas recentemente, a Intel finalmente encontrou um lar para o Atom em dispositivos de rede e suas novas CPUs híbridas como a 13900K, que possui 16 E-cores descendente de CPUs Atom. Isso não muda o fato de que o Atom foi um desastre por mais de uma década, mas pelo menos é útil para alguma coisa. agora.

Core i7-7700K: Intel para de tentar

A Intel substituiu o Net Burst pelo Core, uma arquitetura que encontrou um equilíbrio entre IPC e frequência, e foi um sucesso imediato. CPUs como o Core 2 Duo E6300 e Core 2 Quad Q6600 eram muito mais rápidas que O decepcionante sucessor da AMD para Athlon, Phenom. O renovado ataque da Intel no PC culminou com o confronto entre sua segunda geração Sandy Bridge e as CPUs FX Bulldozer da AMD em 2011, e a Intel venceu facilmente. A Intel estava em ascensão mais uma vez.

Então, como a Intel deu continuidade a esse impulso? Basicamente, iniciando a mesma CPU repetidamente. Isso não quer dizer que a Intel não estivesse fazendo nenhum progresso; a empresa seguiu o modelo “tick-tock”, onde a Intel lançava uma CPU a cada geração com um novo nó de fabricação (tick) e depois uma CPU com uma nova arquitetura (tock), repetindo indefinidamente. Mas esses ganhos tecnológicos deixaram de se traduzir em melhorias significativas de desempenho e valor, como acontecia no passado, e isso aconteceu porque a Intel não precisava mais competir.

O Core i7-7700K foi talvez o mais famoso desses chips, pois era literalmente um Core i7-6700K com alguns MHz extras.

O resultado final foi o Kaby Lake de sétima geração, lançado em 2017 e que não era nem um carrapato nem um tock, mas sim uma "otimização", o que significa que eram apenas CPUs de última geração com clock mais alto velocidades. O Core i7-7700K foi talvez o mais famoso desses chips, pois era literalmente um Core i7-6700K com alguns MHz extras. PCGamesN foi particularmente contundente em sua análise, dizendo que era "uma fatia deprimente de silício".

Esta história tem um final feliz porque a AMD finalmente voltou dois meses depois com o lançamento de seu Ryzen 1000 CPUs. Esses chips de primeira geração não foram vencedores em jogos, mas tinham incríveis recursos multi-core desempenho. O Ryzen 7 1700 superou o 7700K em basicamente qualquer carga de trabalho multi-core, custando quase o mesmo. A cereja do bolo foi a pressa da Intel em lançar suas CPUs de oitava geração no mesmo ano, o que significou que Kaby Lake nem sequer sobreviveu um ano inteiro antes de se tornar obsoleto.

Core i3-8121U: Não falamos em 10nm

Embora a Intel se sentisse confortável em lançar a mesma CPU duas vezes seguidas, Kaby Lake nunca deveria existir. A Intel sempre pretendeu seguir o modelo tick-tock e lançar uma CPU de 10 nm após a sexta geração, mas o desenvolvimento estava indo mal para o nó de 10 nm da empresa. O plano para 10nm era extremamente ambicioso. Era para ter quase o triplo da densidade de 14nm, além de maior eficiência. A Intel deveria saber que não deveria fazer isso depois lutou para lançar suas CPUs de 14 nm no prazo, mas queria superioridade tecnológica, então foi em frente.

A meta original para 10 nm era 2015, mas como o 14 nm foi atrasado, o 10 nm também. 2017 foi a nova data de lançamento, mas em vez de CPUs de 10 nm, a Intel lançou seu terceiro e quarto CPUs de 14 nm CPUs. Por fim, a Intel lançou um CPU de 10nm baseado na arquitetura Cannon Lake, o Core i3-8121U, em 2018. Infelizmente, isso não sinalizou o início de uma nova geração de CPUs usando tecnologia de ponta, mas o fim da liderança da Intel.

O Core i3-8121U em 2018 sinalizou o fim da liderança da Intel.

O 8121U foi uma demonstração terrível de 10nm e um produto terrível por si só. O nó de 10 nm estava tão quebrado que a Intel só conseguiu fabricar uma pequena CPU dual-core com seus gráficos integrados desativados intencionalmente, provavelmente porque não funcionavam corretamente. A Intel havia mordido mais do que poderia mastigar com 10 nm, e as consequências da arrogância da empresa mudariam sua trajetória para sempre. Com 10nm preso no inferno do desenvolvimento, a Intel só podia contar com 14nm para qualquer coisa que exigisse uma quantidade significativa de desempenho.

Como observação lateral, a Intel lista todas as CPUs lançadas nas últimas duas décadas em seu site e, embora a página do 8121U ainda existe, a página para todos CPUs Cannon Lake de 10nm foi excluído, quase como se a Intel estivesse envergonhada.

Core i9-11900K: Falha ao atingir a decolagem

A Intel continuou com 14 nm durante anos e, embora cada geração trouxesse mais núcleos que a anterior, a frequência os ganhos de cada refinamento de 14 nm estavam ficando menores e a adição de mais núcleos aumentava drasticamente a potência consumo. Quando a Intel lançou suas CPUs de 10ª geração (a sexta consecutiva a usar 14 nm), a AMD já estava usando 7 nm da TSMC para suas CPUs Ryzen 3000. Top de linha da Intel Core i9-10900K não conseguiu vencer o Ryzen 9 3900X da AMD, que nem era o carro-chefe e não tinha suporte para PCIe 4.0, ao contrário dos CPUs AMD.

Se 10nm não fosse uma opção, a única coisa a fazer seria introduzir uma nova arquitetura. A Intel decidiu fazer backport de seus chips Ice Lake voltados para dispositivos móveis para 14 nm, trazendo um aumento muito necessário de 19% no IPC. Talvez a Intel devesse ter feito isso antes, em vez de esperar pela sétima geração de CPUs de 14 nm, mas antes tarde do que nunca, certo?

Portanto, as CPUs Rocket Lake de 11ª geração vieram com uma arquitetura totalmente nova, mas isso teve um preço. Em primeiro lugar, fazer backport de uma CPU projetada para um nó muito mais denso significava que os núcleos eram enormes em 14 nm. Em segundo lugar, o consumo de energia também aumenta em processos mais antigos, o que torna mais desafiador adicionar mais núcleos e aumentar a velocidade do clock. O resultado final foi o Core i9-11900K “carro-chefe”, que tinha apenas oito núcleos e um tamanho de matriz de 276 mm2 – menos núcleos do que o 10900K, embora fosse maior.

O 11900K estava condenado; era tecnologicamente atrasado e muito caro, custando US$ 539. Mal conseguia igualar o Ryzen 7 5800X de $ 450 (sem falar no Ryzen 9 5900X e 5950X) e até perdeu para o 10900K em qualquer coisa que não fosse extremamente single-thread. É chocante que a Intel tenha investido em P&D em uma CPU totalmente nova que não conseguiu nem vencer seu antecessor de forma convincente. É possível que Rocket Lake tenha sido criado com o único propósito de obter PCIe 4.0 em uma CPU de desktop Intel. Pelo menos o resto da linha Rocket Lake foi decente, já que a AMD parou de competir nos segmentos de gama baixa e média.

Um retorno, mas a que custo?

Com suas CPUs de 12ª e 13ª gerações, a Intel finalmente retornou à liderança em desempenho em PCs, mas o estrago já foi feito. 10 nm deveria ser lançado em 2015, mas só foi lançado com sucesso em 2021 com Alder Lake e Ice Lake para servidores. Sete anos completos de CPUs de 14 nm reduziram a Intel a uma mera sombra do que era, algo que não aconteceu quando a Intel estragou tudo com Pentium 4, Itanium ou Atom.

Um traço comum entre todas essas falhas é a imprudência e a falta de cautela da Intel. A Intel presumiu que o Pentium 4 seria ótimo e atingiria 10 GHz, até 30 GHz, sem problemas. A Intel presumiu que o Itanium governaria o data center e nunca considerou seriamente a possibilidade de ninguém querer reescrever cada peça do software x86. A Intel presumiu que o Atom teria sucesso simplesmente porque era uma excelente peça de hardware. A Intel presumiu que seus engenheiros poderiam fazer qualquer coisa e buscou um ganho geracional absurdo em 10 nm.

Por outro lado, também é bastante irônico que duas das falhas mais notórias da Intel tenham permitido à empresa retornar. CPUs de arquitetura híbrida como o 13900K só são possíveis por causa do Atom, e sem E-cores, essas CPUs seriam muito grandes e consumiriam muita energia. 10nm também desempenha um papel importante no retorno da Intel, pois coloca os chips da empresa em aproximadamente paridade com os fabricados na TSMC. Esperançosamente, este desastre com 10nm deu à Intel uma nova apreciação de como os planos podem dar errado.