A Microsoft revelou dois chips personalizados e sistemas integrados: o Microsoft Azure Maia AI Accelerator, otimizado para tarefas de inteligência artificial (IA) e IA generativa, e o Microsoft Azure Cobalt CPU, um processador baseado em Arm adaptado para executar computação de uso geral. cargas de trabalho na nuvem da Microsoft. A introdução de dois novos

A Microsoft revelou dois chips personalizados e sistemas integrados: o Microsoft Azure Maia AI Accelerator, otimizado para tarefas de inteligência artificial (IA) e IA generativa, e o Microsoft Azure Cobalt CPU, um processador baseado em Arm adaptado para executar computação de uso geral. cargas de trabalho na nuvem da Microsoft.

A introdução de dois novos chips representa a primeira incursão da Microsoft em semicondutores. Esta mudança segue os passos dos rivais da nuvem pública da Microsoft, nomeadamente AWS da Amazon e Google Cloud, que executam os seus próprios chips nos seus centros de dados juntamente com os fornecidos por fornecedores como a Nvidia.

Os novos chips são projetados na arquitetura Arm, que está sendo cada vez mais implantada em data centers em nuvem como uma alternativa mais eficiente em termos energéticos e econômica aos semicondutores construídos usando o processo x86 da Intel. A Microsoft afirma que o Cobolt oferecerá um aumento de desempenho de 40% em relação às CPUs existentes baseadas em Arm no Azure, lançadas no ano passado em parceria com a Ampere Computing.

Os chips começarão a ser implementados no início do próximo ano nos data centers da Microsoft, inicialmente alimentando os serviços da empresa, como o Microsoft Copilot ou o Azure OpenAI Service.

O novo acelerador Maia 100 AI da empresa alimentará algumas das maiores cargas de trabalho internas de IA em execução no Microsoft Azure, como o assistente Microsoft Copilot AI e o serviço Azure OpenAI.

O acelerador de IA do Microsoft Azure Maia 100.

O Maia 100 AI Accelerator também foi projetado especificamente para a pilha de hardware do Azure. O alinhamento do design do chip com a maior infraestrutura de IA projetada com as cargas de trabalho da Microsoft em mente – pode gerar enormes ganhos em desempenho e eficiência, disse Brian Harry, pesquisador técnico da Microsoft que lidera a equipe Azure Maia.

“O Azure Maia foi projetado especificamente para IA e para alcançar a utilização máxima absoluta do hardware,” ele disse.

Enquanto isso, a CPU Cobalt 100 é construída na arquitetura Arm, um tipo de design de chip com eficiência energética, e otimizada para oferecer maior eficiência e desempenho em ofertas nativas da nuvem. A escolha da tecnologia Arm foi um elemento-chave no objetivo de sustentabilidade da Microsoft. O objetivo é otimizar o “desempenho por watt” em todos os seus data centers, o que significa essencialmente obter mais poder de computação para cada unidade de energia consumida.

“A arquitetura e a implementação são projetadas tendo em mente a eficiência energética”, Harry disse. “Estamos fazendo o uso mais eficiente dos transistores no silício. Multiplicar esses ganhos de eficiência em servidores em todos os nossos data centers; isso resulta em um número muito grande.”

A CPU Microsoft Azure Cobalt 100.

A Microsoft introduziu uma nova arquitetura de silício que permite à empresa melhorar a eficiência do resfriamento, otimizar o uso de seus ativos atuais de data center e maximizar a capacidade do servidor dentro de sua área atual.

Os requisitos exclusivos das placas para servidores Maia 100 exigiram a criação de racks novos e mais largos para acomodá-las. Esses racks expandidos oferecem espaço suficiente para cabos de alimentação e de rede, essenciais para as demandas das cargas de trabalho de IA.

Os chips de alto desempenho usados ​​para tarefas de IA exigem demandas computacionais intensivas, que consomem mais energia do que os métodos tradicionais de refrigeração a ar podem suportar. Como resultado, o arrefecimento líquido surgiu como a solução preferida para estes desafios térmicos, utilizando fluidos circulantes para dissipar o calor e garantir um funcionamento eficiente sem sobreaquecimento.

Um rack personalizado para o acelerador Maia 100 AI e seu “companheiro” dentro de uma câmara térmica em um laboratório da Microsoft em Redmond, Washington.

Contudo, os atuais data centers da Microsoft não foram projetados para grandes resfriadores de líquidos. Para resolver isso, a empresa desenvolveu um “sidekick” que fica próximo ao rack Maia 100. Esses ajudantes funcionam de forma semelhante aos radiadores dos carros, com líquido frio fluindo deles para placas frias fixadas na superfície dos chips Maia 100. Cada placa possui canais através dos quais o líquido circula para absorver e transportar o calor, que então flui de volta para o sidekick para remover o calor do líquido e enviá-lo de volta ao rack para continuar absorvendo mais calor.

O design conjunto de rack e sidekick ressalta o valor de uma abordagem de sistemas para infraestrutura, disse Wes McCullough, vice-presidente corporativo de desenvolvimento de produtos de hardware. Ao controlar todas as facetas, a Microsoft pode orquestrar uma interação harmoniosa entre cada componente, garantindo que o todo é de facto maior do que a soma das suas partes na redução do impacto ambiental.

“A Microsoft está construindo a infraestrutura para apoiar a inovação em IA e estamos reimaginando todos os aspectos de nossos data centers para atender às necessidades de nossos clientes”, disse Scott Guthrie, vice-presidente executivo do Cloud + AI Group da Microsoft. “Na escala em que operamos, é importante otimizar e integrar todas as camadas da pilha de infraestrutura para maximizar o desempenho, diversificar nossa cadeia de fornecimento e oferecer aos clientes opções de infraestrutura.”

Atualizado em by Kyle Hilliard
Registro Rápido

3 Estratégias pré-construídas Incluídas, automatize suas ideias de negociação sem escrever código .

100%
Pontuação de Confiança

Ganhe $10.000 Virtuais Ilimitados! Depósito Inicial Não é Necessário.

icon Saiba Mais! icon Saiba Mais!
Pontuação de Confiança
icon Saiba Mais! icon Saiba Mais!
Pontuação de Confiança
icon Saiba Mais! icon Saiba Mais!
Risco de Perda de Capital
Pontuação de Confiança
A Microsoft revelou dois chips personalizados e sistemas integrados: o Microsoft Azure Maia AI Accelerator, otimizado para tarefas de inteligência artificial (IA) e IA generativa, e o Microsoft Azure Cobalt CPU, um processador baseado em Arm adaptado para executar computação de uso geral. cargas de trabalho na nuvem da Microsoft. A introdução de dois novos
banner image