माइक्रोसॉफ्ट कथित तौर पर इन-हाउस कस्टम एआई प्रोसेसर का निर्माण कर रहा है

click fraud protection

एक नई रिपोर्ट के अनुसार, एनवीडिया के अपने चिप्स पर निर्भरता को कम करने में मदद करने के लिए, माइक्रोसॉफ्ट के पास अपने उत्पादों के प्रशिक्षण में उपयोग के लिए पहले से ही अपने स्वयं के एआई चिप्स हैं।

Google और Microsoft जैसे प्रौद्योगिकी दिग्गजों में नए AI हथियारों की होड़ कंपनियों को नए चरम पर जाने के लिए मजबूर कर रही है। नवीनतम में, एक रिपोर्ट के अनुसार सूचना (भुगतान किया गया), जैसा कि देखा गया कगार माइक्रोसॉफ्ट पहले से ही अपने स्वयं के एआई चिप्स पर काम कर रहा है जिसका उपयोग एनवीडिया के स्वयं के सर्वर चिप्स पर निर्भरता को कम करने के प्रयास में, अपने उत्पादों को प्रशिक्षित करने के लिए किया जा सकता है।

स्पष्ट रूप से "एथेना" कोडनाम वाली यह Microsoft AI चिप 2019 की शुरुआत से ही काम में है और है चुनिंदा Microsoft और OpenAI कर्मचारियों द्वारा पहले से ही उपयोग किया जा रहा है, संभवतः आगे एक व्यापक आंतरिक रोलआउट होने वाला है वर्ष। हालाँकि, यह स्पष्ट नहीं है कि क्या चिप्स ऐसी चीज़ के रूप में रहेंगे जो केवल आंतरिक उपयोग के लिए होगी या अपने स्वयं के ग्राहकों को भी भेजी जाएगी जो Azure क्लाउड उत्पादों का उपयोग करते हैं। हालाँकि, चिप के कई भविष्य के संस्करणों की भी योजना बनाई गई है

सूचना और कगार ध्यान दें कि चिप्स कोई ऐसी चीज़ नहीं है जो सीधे तौर पर एनवीडिया के अपने H100 GPU को प्रतिस्थापित कर देगी।

कुछ साल पहले 2020 में आई एक रिपोर्ट से संकेत मिला था कि Microsoft विचार कर रहा था सर्वरों के लिए इसका अपना कस्टम एआरएम-आधारित चिप्स है, लेकिन यह स्पष्ट नहीं है कि यह एथेना से संबंधित है या नहीं। माइक्रोसॉफ्ट के पास पहले से ही सरफेस उपकरणों में आर्म-आधारित चिप्स की अपनी एसक्यू श्रृंखला है, जिस पर उसने क्वालकॉम के साथ मिलकर काम किया है। इसने सरफेस लैपटॉप श्रृंखला के उपकरणों के लिए कस्टम राइज़ेन सीपीयू पर एएमडी के साथ भी काम किया। इसलिए, माइक्रोसॉफ्ट के पास इस चिपसेट क्षेत्र में स्पष्ट रूप से अनुभव है क्योंकि यह अपने मुख्य उत्पादों में आर्टिफिशियल इंटेलिजेंस को बढ़ावा देना जारी रखता है।

यह कदम, उन लोगों के लिए बहुत चौंकाने वाला नहीं होना चाहिए जो उद्योग पर नज़र रखते हैं। Google अपने स्वयं के AI सुपर कंप्यूटर का उपयोग करता है जिसमें 4,000 से अधिक TPU और कस्टम भाग होते हैं जो AI मॉडल चला सकते हैं। पूरा दस्तावेज था हाल ही में ऑनलाइन खुलासा हुआ और यह 2020 से उपयोग में था। अमेज़न भी के पास अपने स्वयं के ट्रेनियम चिप्स हैं जिनका उपयोग प्राकृतिक भाषा प्रसंस्करण में मशीन-लर्निंग मॉडल को प्रशिक्षित करने के लिए किया जाता है। इस बीच, मेटा अपने सुपरकंप्यूटर में एनवीडिया और एआई चिप्स का उपयोग करता है सुपर कंप्यूटर पर शोध करें.