Berichten zufolge baut Microsoft eigene maßgeschneiderte KI-Prozessoren

Einem neuen Bericht zufolge verfügt Microsoft bereits über eigene KI-Chips für die Schulung seiner Produkte, um die Abhängigkeit von Nvidias eigenen Chips zu verringern.

Das neue KI-Wettrüsten bei Technologiegiganten wie Google und Microsoft scheint Unternehmen zu neuen Extremen zu zwingen. Spätestens laut einem Bericht von Die Information (kostenpflichtig), wie entdeckt von Der Rand Microsoft arbeitet bereits an eigenen KI-Chips, mit denen seine Produkte trainiert werden können, um die Abhängigkeit von Nvidias eigenen Serverchips zu verringern.

Dieser Microsoft-KI-Chip trägt offenbar den Codenamen „Athena“ und ist bereits seit 2019 im Einsatz wird bereits von ausgewählten Microsoft- und OpenAI-Mitarbeitern verwendet, ein breiterer interner Rollout steht möglicherweise als nächstes an Jahr. Es ist jedoch nicht klar, ob die Chips weiterhin nur für den internen Gebrauch bestimmt bleiben oder auch an die eigenen Kunden versendet werden, die Azure-Cloud-Produkte nutzen. Es sind jedoch auch mehrere zukünftige Versionen des Chips geplant

Die Information Und Der Rand Beachten Sie, dass die Chips Nvidias eigene H100-GPUs nicht direkt ersetzen werden.

Ein Bericht von vor einigen Jahren im Jahr 2020 wies darauf hin, dass Microsoft überlegte seine eigenen benutzerdefinierten ARM-basierten Chips für Server, aber es ist nicht klar, ob dies überhaupt mit Athena zusammenhängt. Microsoft verfügt bereits über eine eigene SQ-Serie von Arm-basierten Chips in Surface-Geräten, an denen das Unternehmen mit Qualcomm zusammengearbeitet hat. Es funktionierte auch mit AMD an benutzerdefinierten Ryzen-CPUs für die Geräteserie Surface Laptop. Microsoft verfügt also eindeutig über Erfahrung in diesem Chipsatzbereich, da das Unternehmen die künstliche Intelligenz weiterhin in seinen Kernprodukten vorantreibt.

Dieser Schritt sollte für diejenigen, die die Branche verfolgen, nicht allzu schockierend sein. Google verwendet seine eigenen KI-Supercomputer mit über 4.000 TPUs und benutzerdefinierten Teilen, auf denen KI-Modelle ausgeführt werden können. Die vollständige Dokumentation war kürzlich online enthüllt und das war seit 2020 im Einsatz. Amazon auch verfügt über eigene Trainium-Chips mit denen maschinelle Lernmodelle in der Verarbeitung natürlicher Sprache trainiert werden. Meta hingegen verwendet Nvidia- und AI-Chips in seinem Supercomputer, dem Erforsche Supercomputer.