أسوأ 6 وحدات معالجة مركزية Intel على الإطلاق

إذا نظرت عبر تاريخ شركة Intel، فستجد الكثير من وحدات المعالجة المركزية الفظيعة، والتي كان من الممكن أن يتسبب الكثير منها في الخراب المالي لأي شركة أخرى.

روابط سريعة

  • بنتيوم 4: أول كارثة إنتل الكبرى
  • إيتانيوم: تتبخر أحلام إنتل في نظام 64 بت
  • الذرة: بقدر سرعة الذرة فهي كبيرة
  • Core i7-7700K: توقفت Intel عن المحاولة
  • Core i3-8121U: نحن لا نتحدث عن 10 نانومتر
  • Core i9-11900K: فشل في تحقيق الإقلاع
  • العودة ولكن بأي ثمن؟

وقد انتعشت شركة إنتل مؤخرًا بنجاحها في مجالها رقائق الجيل الثالث عشر للتيار الرئيسي و معالجات Xeon من الجيل الرابع للخوادم ومحطات العمل، مع كور i9-13900K حتى المطالبة بتاج الأداء بشعرة واحدة فقط. لقد كان هذا بمثابة عودة، حيث كافحت إنتل من الناحية التكنولوجية لسنوات عديدة شعر عام 2022 أخيرًا بالآثار المالية المدمرة لفقدان الميزة في هذا المجال على حسابه المنافسين. إذا نظرت إلى تاريخ Intel، فستجد الكثير من وحدات المعالجة المركزية الفظيعة، وبعضها سيجعلك تتساءل كيف بدأت Intel في مواجهة المشكلات المالية مؤخرًا.

بنتيوم 4: أول كارثة إنتل الكبرى

في أوائل العقد الأول من القرن الحادي والعشرين، كانت وحدات المعالجة المركزية أبسط بكثير مما هي عليه اليوم، وركزت معظم التحسينات من جيل إلى جيل على سرعات الساعة. في الواقع، غالبًا ما يتم تسمية وحدات المعالجة المركزية (CPU) على اسم سرعات الساعة الخاصة بها ولا شيء آخر. عندما كانت إنتل تعمل على تطوير الجيل التالي من معمارية Net Burst، بدا من الواضح محاولة مطاردة التردد، وكان لدى الشركة خطط كبيرة، خطط خرجت عن المسار بطريقة كبيرة بنفس القدر.

كانت AMD أول شركة تطلق وحدة معالجة مركزية بسرعة 1 جيجا هرتز مع Athlon 1000، والتي تم إطلاقها في مارس 2000، لكن إنتل كانت تضع أعينها بالفعل على حاجز 2 جيجا هرتز. وبحلول نهاية العام، كانت قد أطلقت أول وحدات المعالجة المركزية Pentium 4، أسرعها وصل إلى 1.5 جيجا هرتز. في عام 2001، كانت إنتل أول من استخدم تقنية 2 جيجا هرتز مع شريحة Pentium 4 بسرعة 2 جيجا هرتز، و موديل 3 جيجا هرتز وسرعان ما تبعه في عام 2002.

إلا أن هذه الترددات جاءت بسعر مرتفع. اضطرت Intel إلى جعل خط أنابيب Net Burst طويلًا بشكل غير عادي، مما يعني أن تعليمات Pentium 4 لكل ساعة (IPC) كانت أقل بكثير من وحدات المعالجة المركزية Intel القديمة وما كانت تمتلكه AMD.

في البداية، كانت خطة إنتل تعمل بشكل جيد وكانت شرائح Pentium 4 تتفوق عادة على معالجات AMD. ضاعفت إنتل استراتيجيتها من خلال جعل خط أنابيب Net Burst أطول للوصول إلى سرعات أعلى على مدار الساعة. كان من المقرر إطلاق معالج Pentium 4 بسرعة 4 جيجا هرتز في عام 2005، يليه وحدة المعالجة المركزية بسرعة 10 جيجا هرتز في المستقبل القريب. ومع ذلك، كانت استراتيجية إنتل مبنية على مقياس Dennard، الذي لاحظ أن التردد يرتفع كل جيل دون الحاجة إلى المزيد من الطاقة. بحلول عام 2005، اكتشفت إنتل أن تقنية Dennard Scaling لم تعد مطبقة وأنه حتى 4 جيجا هرتز كان من الصعب الوصول إليها، مما أدى إلى ظهور إلغاء بنتيوم 4 جيجا هرتز.

كان لقرار إنتل بتقليل IPC للوصول إلى ترددات أعلى عواقب وخيمة عندما جفت مكاسب التردد هذه، وأخذت AMD زمام المبادرة في عام 2004. انتهى الأمر بشركة Intel إلى إلغاء Net Burst وتصميم بنية جديدة تمامًا تعطي الأولوية لـ IPC على مكاسب التردد مثل معظم وحدات المعالجة المركزية الحديثة.

إيتانيوم: تتبخر أحلام إنتل في نظام 64 بت

في نفس الوقت الذي كانت فيه إنتل تقوم بشحن Net Burst لأجهزة الكمبيوتر المكتبية، كانت إنتل تعد خطة طموحة للغاية لوحدات المعالجة المركزية للخادم. بنية x86 التي تم استخدامها لـ كانت وحدات المعالجة المركزية (CPUs) الخاصة بشركة Intel وAMD مقتصرة على حساب 32 بت، وبالنسبة لسوق الخوادم الناشئة، أرادت Intel تطوير معالجات 64 بت بميزات لم يسبق لها مثيل. سرعات. تخلت Intel عن فكرة إنشاء إصدار 64 بت من x86 ودخلت في شراكة مع HP لإنشاء الإصدار 64 بت بنية IA-64 الجديدة تمامًا، والتي تعمل على تشغيل وحدات المعالجة المركزية Itanium. تم تحديد أول رقائق إيتانيوم في عام 1999 يطلق.

كان تطوير الإيتانيوم مضطربًا، لكن. تم تأجيله إلى عام 2001 وبدأت الميزانية في الارتفاع. عندما تم إطلاقه أخيرًا في عام 2001، لم يكن أداؤه منافسًا تمامًا لوحدات المعالجة المركزية x86 الأخرى، وكانت قدرة Itanium فقط على الحساب في 64 بت هي نقطة البيع الرئيسية. لكن كان لدى Itanium عيب أساسي: لم يتمكن من تشغيل برنامج x86. كانت هناك حاجة إلى إعادة كتابة كافة البرامج الموجودة لتتوافق مع بنية IA-64، وهي مهمة ليست بالسهلة.

إذا كان إيتانيوم مثيرًا للإعجاب، فقد كان ذلك ببساطة لرفضه الموت.

بحلول عام 2003، كانت AMD قد أنهت معماريتها الخاصة 64 بت والتي تسمى AMD64، والتي كانت نسخة من x86 مع دعم 64 بت. كانت إنتل قد قررت سابقًا عدم اتباع هذه الإستراتيجية لأسباب مختلفة، ولكن بعد فوات الأوان، كان من الواضح أن Itanium كان خطأً منذ أن بدأت رقائق AMD Opteron في انتزاع حصة السوق. حظيت AMD64 أيضًا بدعم شركات البرمجيات الكبرى مثل Microsoft، التي اختارت AMD64 لتكون معمارية 64 بت المفضلة لها. في النهاية، أصبحت AMD64 مشهورة جدًا لدرجة أن إنتل اضطرت إلى صنع شرائح خادم AMD64 الخاصة بها والتي تسمى Xeon، وأصبح AMD64 هو x86-64.

ولكن هذا هو الأمر: لم يحل Xeon محل Itanium. ظلت شركتا Intel وHP على أمل لسنوات عديدة في نجاح استراتيجية البنية المزدوجة هذه، حتى مع توقف شركات مثل Dell وIBM عن بيع خوادم Itanium. توقفت إيتانيوم عن تلقي التحديثات السنوية في منتصف العقد الأول من القرن الحادي والعشرين، مع إطلاق آخر شريحة لها في عام 2017. تم إيقافه أخيرًا في عام 2020، ولكن ليس قبل ذلك مما أثار دعوى قضائية ضخمة بين Oracle و HP على الدعم. إذا كان إيتانيوم مثيرًا للإعجاب، فقد كان ذلك ببساطة لرفضه الموت.

الذرة: بقدر سرعة الذرة فهي كبيرة

في نهاية المطاف، قامت إنتل بتطهير عملها في أعقاب فشل Pentium 4 وItanium وعادت إلى موقعها القيادي التقليدي. بحلول أواخر العقد الأول من القرن الحادي والعشرين، رأت شركة إنتل فرصًا تتجاوز أجهزة الكمبيوتر المكتبية وأجهزة الكمبيوتر المحمولة والخوادم حيث أصبحت أجهزة مثل iPod شائعة للغاية. لكن شركة إنتل كانت لديها تطلعات أكبر من مجرد تشغيل الأجهزة التي يمكن وضعها في جيبك؛ لقد أرادت وحدات المعالجة المركزية Intel في أي شيء يمكن أن يحتوي على معالج. احتاجت إنتل إلى شريحة صغيرة وفعالة وسريعة بما يكفي لتشغيلها، لذلك أطلقت الشركة Atom في عام 2008.

بعد أن استغرق الأمر بضع سنوات لتسوية مكامن الخلل في شرائح Atom الأولى، كانت Intel مستعدة لإطلاق Atom Z600، الذي كان من المفترض أن يستحوذ على سوق الهواتف الذكية من Arm. لقد تميزت بأداء يفوق بكثير أي شيء يمكن أن تقدمه شركة Arm وكان لها نفس استهلاك الطاقة. أناندتك كان واثقًا من أن Z600 سيغير كل شيءقائلا: "إن سوق الهواتف الذكية خلال 5 سنوات لن يبدو امتدادا لما نراه اليوم".

إذًا، لماذا لا يحتوي هاتفك أو محمصة الخبز على وحدة المعالجة المركزية Atom؟ ولعل السبب الأكثر أهمية هو أن نظام التشغيل x86 لم يتم استخدامه مطلقًا للهواتف الذكية أو الأجهزة الأخرى، لذا سيلزم إعادة كتابة البرنامج. كان هذا هو نفس الخطأ الذي ارتكبته شركة Intel مع Itanium، و لقد قتلت خططها للهواتف الذكية بعد ست سنوات. ربما لم يكن من المفيد أيضًا أن يكون ادعاء Atom الوحيد بالشهرة هو أجهزة netbook و "إنترنت الأشياء".

لكن مؤخرًا، وجدت إنتل أخيرًا موطنًا لـ Atom في أجهزة الشبكات ووحدات المعالجة المركزية الهجينة الجديدة مثل 13900K، الذي يحتوي على 16 نواة إلكترونية ينحدر من وحدات المعالجة المركزية Atom. هذا لا يغير حقيقة أن الذرة كانت كارثة لأكثر من عقد من الزمن، لكنها على الأقل مفيدة لشيء ما الآن.

Core i7-7700K: توقفت Intel عن المحاولة

استبدلت Intel Net Burst بـ Core، وهي بنية وجدت توازنًا بين IPC والتردد، وحققت نجاحًا فوريًا. كانت وحدات المعالجة المركزية مثل Core 2 Duo E6300 وCore 2 Quad Q6600 أسرع بكثير من خليفة AMD المخيب للآمال لـ Athlon، Phenom. بلغ هجوم إنتل المتجدد على أجهزة الكمبيوتر ذروته في المواجهة بين الجيل الثاني من معالجات ساندي بريدج ووحدات المعالجة المركزية FX Bulldozer من AMD في عام 2011، وفازت إنتل بسهولة. كانت إنتل في صعود مرة أخرى.

فكيف واصلت إنتل هذا الزخم؟ من خلال تشغيل نفس وحدة المعالجة المركزية مرارًا وتكرارًا. هذا لا يعني أن إنتل لم تحقق أي تقدم على الإطلاق؛ اتبعت الشركة نموذج "tick-tock"، حيث أصدرت Intel وحدة معالجة مركزية لكل جيل مع عقدة تصنيع جديدة (Tick) ثم وحدة معالجة مركزية ذات بنية جديدة (tock)، تتكرر مرارًا وتكرارًا. لكن هذه المكاسب التكنولوجية توقفت عن ترجمتها إلى تحسينات كبيرة في الأداء والقيمة كما كانت في الماضي، وكان السبب في ذلك هو أن إنتل لم تعد بحاجة إلى المنافسة بعد الآن.

ربما كان Core i7-7700K هو الأكثر شهرة بين هذه الرقائق لأنه كان حرفياً Core i7-6700K مع بضعة ميغاهرتز إضافية.

وكانت النتيجة النهائية هي الجيل السابع من Kaby Lake، الذي تم إطلاقه في عام 2017 ولم يكن علامة ولا علامة tock ولكن بدلاً من ذلك "تحسين"، وهذا يعني أنها كانت مجرد وحدات معالجة مركزية من الجيل الأخير ذات ساعة أعلى سرعات. ربما كان Core i7-7700K هو الأكثر شهرة بين هذه الرقائق لأنه كان حرفياً Core i7-6700K مع بضعة ميغاهرتز إضافية. كانت PCGamesN لاذعة بشكل خاص في مراجعتهاقائلًا إنها "شريحة سيليكون محبطة".

هذه القصة لها نهاية سعيدة لأن AMD عادت أخيرًا بعد شهرين بإطلاق Ryzen 1000 وحدة المعالجة المركزية. لم تكن شرائح الجيل الأول هذه فائزة في الألعاب، لكنها كانت تتمتع بنواة متعددة مذهلة أداء. تغلب Ryzen 7 1700 على 7700K في أي حمل عمل متعدد النواة بينما كان يكلف نفس التكلفة تقريبًا. كان الكرز في الأعلى هو اندفاع إنتل لإخراج وحدات المعالجة المركزية من الجيل الثامن في نفس العام، مما يعني أن Kaby Lake لم تتمكن حتى من الاستمرار لمدة عام كامل قبل أن تصبح قديمة.

Core i3-8121U: نحن لا نتحدث عن 10 نانومتر

على الرغم من أن إنتل كانت مريحة في إطلاق نفس وحدة المعالجة المركزية مرتين على التوالي، إلا أنه لم يكن من المفترض أن توجد بحيرة كابي على الإطلاق. كانت شركة إنتل تنوي دائمًا الالتزام بنموذج تيك توك وإطلاق وحدة معالجة مركزية بدقة 10 نانومتر بعد الجيل السادس، لكن التطوير كان يسير بشكل سيئ بالنسبة لعقدة الشركة ذات الدقة 10 نانومتر. كانت خطة 10nm طموحة للغاية. وكان من المفترض أن تبلغ كثافته ثلاثة أضعاف كثافة 14 نانومتر تقريبًا، بالإضافة إلى كفاءته الأعلى. كان ينبغي لشركة إنتل أن تعلم بعدم القيام بذلك بعد ذلك كافحت لإخراج وحدات المعالجة المركزية 14 نانومتر في الوقت المحددولكنها أرادت التفوق التكنولوجي، فمضيت قدماً.

كان الهدف الأصلي لدقة 10 نانومتر هو عام 2015، ولكن منذ أن تأخرت دقة 14 نانومتر، تأخرت دقة 10 نانومتر أيضًا. كان عام 2017 هو تاريخ الإطلاق الجديد، ولكن بدلاً من وحدات المعالجة المركزية 10 نانومتر، أطلقت إنتل معالجاتها الثالثة والرابعة 14 نانومتر. وحدات المعالجة المركزية. أخيرًا، أطلقت إنتل وحدة معالجة مركزية 10 نانومتر تعتمد على بنية Cannon Lake، Core i3-8121U، في 2018. ولسوء الحظ، لم يكن ذلك مؤشرًا على بداية جيل جديد تمامًا من وحدات المعالجة المركزية (CPUs) باستخدام أحدث التقنيات، بل كان بمثابة إشارة إلى نهاية ريادة إنتل.

أشار Core i3-8121U في عام 2018 إلى نهاية ريادة إنتل.

كان 8121U عرضًا رهيبًا لتقنية 10 نانومتر و منتج رهيب في حد ذاته. كانت عقدة 10 نانومتر معطلة للغاية لدرجة أن إنتل لم تتمكن إلا من تصنيع وحدة معالجة مركزية صغيرة ثنائية النواة مع تعطيل رسوماتها المدمجة عمدًا، ربما لأنها لم تعمل بشكل صحيح. لقد قضمت إنتل أكثر مما تستطيع مضغه باستخدام تقنية 10 نانومتر، وسوف تغير عواقب غطرسة الشركة مسارها إلى الأبد. مع وجود 10 نانومتر عالقة في جحيم التطوير، لم يكن بإمكان إنتل الاعتماد إلا على 14 نانومتر في أي شيء يتطلب قدرًا كبيرًا من الأداء.

كملاحظة جانبية، تدرج شركة Intel جميع وحدات المعالجة المركزية (CPUs) التي أطلقتها في العقدين الماضيين على موقعها الإلكتروني، وفي كل مرة لا تزال صفحة 8121U موجودة، الصفحة للجميع معالجات كانون ليك 10 نانومتر تم حذفه، كما لو كانت شركة إنتل محرجة.

Core i9-11900K: فشل في تحقيق الإقلاع

استمرت شركة Intel في استخدام تقنية 14 نانومتر لسنوات، وعلى الرغم من أن كل جيل جلب عددًا أكبر من النوى من الجيل السابق، إلا أن التردد كانت المكاسب من كل تحسين لـ 14 نانومتر تتضاءل، كما أدت إضافة المزيد من النوى إلى زيادة الطاقة بشكل كبير استهلاك. بحلول الوقت الذي أطلقت فيه Intel وحدات المعالجة المركزية من الجيل العاشر (السادسة على التوالي التي تستخدم 14 نانومتر)، كانت AMD تستخدم بالفعل TSMC 7 نانومتر لوحدات المعالجة المركزية Ryzen 3000. إنتل الراقية لم يتمكن Core i9-10900K من التغلب على AMD’s Ryzen 9 3900X، والتي لم تكن حتى الرائدة، ولم تكن تتمتع بدعم PCIe 4.0، على عكس وحدات المعالجة المركزية AMD.

إذا لم تكن دقة 10nm خيارًا، فالشيء الوحيد الذي يجب فعله هو تقديم بنية جديدة. قررت إنتل إعادة إنتاج رقائق Ice Lake الموجهة للهواتف المحمولة إلى 14 نانومتر، مما يوفر زيادة في IPC بنسبة 19%. ربما كان ينبغي على إنتل أن تفعل ذلك عاجلاً بدلاً من انتظار الجيل السابع من وحدات المعالجة المركزية 14 نانومتر ولكن أن تأتي متأخراً أفضل من ألا تأتي أبداً، أليس كذلك؟

لذلك، جاءت وحدات المعالجة المركزية Rocket Lake من الجيل الحادي عشر بهندسة معمارية جديدة تمامًا، ولكن ذلك جاء بثمن. أولاً، إن النقل الخلفي لوحدة المعالجة المركزية المصممة لعقدة أكثر كثافة يعني أن النوى كانت ضخمة عند 14 نانومتر. ثانيًا، يرتفع استهلاك الطاقة أيضًا في العمليات القديمة مما يجعل إضافة المزيد من النوى وزيادة سرعة الساعة أكثر صعوبة. وكانت النتيجة النهائية هي معالج Core i9-11900K "الرائد"، والذي يحتوي على ثمانية أنوية وحجم قالب يبلغ 276 ملم مربع - وهذا عدد أقل من النوى من 10900K بينما يكون أكبر.

كان 11900 ألف محكوم عليه بالفشل. لقد كان متخلفًا من الناحية التكنولوجية ومكلفًا للغاية بسعر 539 دولارًا. بالكاد يمكن أن يتطابق مع Ryzen 7 5800X بقيمة 450 دولارًا (ناهيك عن Ryzen 9 5900X و5950X) وحتى خسرت أمام 10900K في أي شيء لم يكن ذو خيط واحد للغاية. إنه لأمر صادم أن أنفقت شركة Intel البحث والتطوير على وحدة معالجة مركزية جديدة تمامًا لم تتمكن حتى من التغلب على سابقتها بشكل مقنع. من الممكن أن يكون Rocket Lake قد تم تصنيعه لغرض وحيد هو الحصول على PCIe 4.0 على وحدة المعالجة المركزية Intel Desktop. على الأقل كانت بقية تشكيلة Rocket Lake جيدة منذ أن توقفت AMD عن المنافسة في النطاق المنخفض والمتوسط.

العودة ولكن بأي ثمن؟

بفضل وحدات المعالجة المركزية من الجيلين الثاني عشر والثالث عشر، عادت إنتل أخيرًا إلى ريادة الأداء في أجهزة الكمبيوتر، ولكن الضرر قد حدث بالفعل. كان من المفترض إطلاق 10nm في عام 2015، لكنها تم إطلاقها بنجاح فقط في عام 2021 مع Alder Lake وIce Lake للخوادم. لقد أدت سبع سنوات كاملة من وحدات المعالجة المركزية مقاس 14 نانومتر إلى تحويل شركة Intel إلى مجرد ظل لما كانت عليه في السابق، وهو أمر لم يحدث عندما أخطأت Intel في استخدام Pentium 4 أو Itanium أو Atom.

القاسم المشترك بين كل هذه الإخفاقات هو تهور إنتل وعدم توخي الحذر. افترضت إنتل أن Pentium 4 سيكون رائعًا وسيصل إلى 10 جيجا هرتز، وحتى 30 جيجا هرتز، دون مشكلة. افترضت إنتل أن إيتانيوم سيحكم مركز البيانات ولم تفكر جديًا أبدًا في احتمال عدم رغبة أحد في إعادة كتابة كل جزء من برامج x86. افترضت إنتل أن Atom ستنجح ببساطة لأنها كانت قطعة رائعة من الأجهزة. افترضت إنتل أن مهندسيها يمكنهم فعل أي شيء، واستهدفت تحقيق مكاسب سخيفة للأجيال في تقنية 10 نانومتر.

من ناحية أخرى، من المثير للسخرية أيضًا أن اثنين من أبرز حالات فشل شركة إنتل قد سمحا للشركة بالعودة. وحدات المعالجة المركزية ذات البنية الهجينة مثل 13900K ممكنة فقط بسبب Atom، وبدون النوى الإلكترونية، ستكون وحدات المعالجة المركزية هذه كبيرة جدًا ومتعطشة للطاقة. تلعب 10nm أيضًا دورًا هائلاً في عودة Intel لأنها تضع شرائح الشركة على قدم المساواة تقريبًا مع تلك التي تم تصنيعها في TSMC. نأمل أن تكون هذه الكارثة التي حدثت بتقنية 10 نانومتر قد أعطت إنتل تقديرًا جديدًا لكيفية حدوث خطأ في الخطط.