Selon un nouveau rapport, Microsoft dispose déjà de ses propres puces d'IA à utiliser pour la formation de ses produits, afin de contribuer à réduire la dépendance à l'égard des propres puces de Nvidia.
La nouvelle course aux armements en matière d’IA chez les géants de la technologie comme Google et Microsoft semble obliger les entreprises à aller vers de nouveaux extrêmes. Dernièrement, selon un rapport de L'information (paywall), comme l'a repéré Le bord Microsoft travaille déjà sur ses propres puces d'IA pouvant être utilisées pour entraîner ses produits, dans le but de réduire la dépendance à l'égard des propres puces de serveur de Nvidia.
Apparemment nommée « Athena », cette puce Microsoft AI est opérationnelle depuis 2019 et est déjà utilisé par certains employés de Microsoft et d'OpenAI, avec un déploiement interne plus large éventuellement à venir année. Il n’est cependant pas clair si les puces resteront destinées à un usage interne uniquement ou si elles seront également expédiées à ses propres clients qui utilisent les produits cloud Azure. Plusieurs versions futures de la puce sont également prévues.
L'information et Le bord notez que les puces ne remplaceront pas directement les GPU H100 de Nvidia.Un rapport d'il y a quelques années en 2020 indiquait que Microsoft envisageait ses propres puces ARM personnalisées pour les serveurs, mais il n'est pas clair si cela est lié à Athena. Microsoft possède déjà sa propre série SQ de puces basées sur Arm dans les appareils Surface, sur lesquelles il a travaillé en collaboration avec Qualcomm. Il a également travaillé avec AMD sur des processeurs Ryzen personnalisés pour la série d'appareils Surface Laptop. Ainsi, Microsoft a clairement de l’expérience dans ce domaine des chipsets alors qu’il continue de promouvoir l’intelligence artificielle dans ses produits principaux.
Cette décision ne devrait pas être trop choquante pour ceux qui suivent l’industrie. Google utilise ses propres superordinateurs IA dotés de plus de 4 000 TPU et pièces personnalisées pouvant exécuter des modèles IA. La documentation complète a été récemment révélé en ligne et cela était utilisé depuis 2020. Amazon aussi a ses propres puces Trainium qui sont utilisés pour former des modèles d’apprentissage automatique au traitement du langage naturel. Meta, quant à elle, utilise des puces Nvidia et AI dans son supercalculateur, le Super ordinateur de recherche.