A Microsoft está supostamente construindo processadores internos de IA personalizados

click fraud protection

De acordo com um novo relatório, a Microsoft já possui seus próprios chips de IA para uso no treinamento de seus produtos, para ajudar a reduzir a dependência dos próprios chips da Nvidia.

A nova corrida armamentista de IA contra gigantes da tecnologia como Google e Microsoft parece estar forçando as empresas a irem a novos extremos. No mais recente, de acordo com um relatório da A informação (acesso pago), conforme observado por A beira A Microsoft já está trabalhando em seus próprios chips de IA que podem ser usados ​​para treinar seus produtos, em um esforço para reduzir a dependência dos próprios chips de servidor da Nvidia.

Aparentemente com o codinome "Athena", este chip de IA da Microsoft está em funcionamento desde 2019 e é já em uso por funcionários selecionados da Microsoft e da OpenAI, com uma implementação interna mais ampla possivelmente chegando a seguir ano. Não está claro, no entanto, se os chips permanecerão como algo que será apenas para uso interno ou também serão enviados para seus próprios clientes que usam produtos em nuvem Azure. Existem também várias versões futuras do chip planejadas, embora

A informação e A beira observe que os chips não são algo que substituirá diretamente as GPUs H100 da própria Nvidia.

Um relatório de alguns anos atrás, em 2020, indicou que a Microsoft estava considerando seus próprios chips personalizados baseados em ARM para servidores, mas não está claro se isso está relacionado ao Athena. A Microsoft já possui sua própria série SQ de chips baseados em Arm em dispositivos Surface, nos quais trabalhou em conjunto com a Qualcomm. Ele também funcionou com a AMD em CPUs Ryzen personalizadas para a série de dispositivos Surface Laptop. Portanto, a Microsoft claramente tem experiência nesta área de chipsets, à medida que continua a promover a Inteligência Artificial em seus principais produtos.

Essa mudança não deve ser muito chocante para quem acompanha o setor. O Google usa seus próprios supercomputadores de IA que possuem mais de 4.000 TPUs e peças personalizadas que podem executar modelos de IA. A documentação completa foi recentemente revelado on-line e isso estava em uso desde 2020. Amazon também tem seus próprios chips Trainium que são usados ​​para treinar modelos de aprendizado de máquina em processamento de linguagem natural. Enquanto isso, a Meta usa chips Nvidia e AI em seu supercomputador, o Supercomputador de pesquisa.