A Microsoft anunciou o Maia 200, um chip revolucionário para inferência de inteligência artificial no Azure. Projetado para reduzir drasticamente os custos de geração de tokens em escala de nuvem, o acelerador desafia a dependência de GPUs da Nvidia e promete eficiência recorde para workloads de IA.Fabricado no processo de 3 nanômetros da TSMC, cada chip Maia 200 possui mais de 140 bilhões de transistores. Ele entrega mais de 10 petaFLOPS em precisão FP4 e 5 petaFLOPS em FP8, tudo dentro de um envelope térmico de 750W. Com 216GB de HBM3e a 7 TB/s e 272MB de SRAM on-chip, o design otimiza memória e movimentação de dados para modelos massivos.No mercado, o Maia 200 supera concorrentes como o Trainium 3 da AWS em performance FP4 e o TPU v7 do Google em FP8. Já implantado em data centers nos EUA, como Iowa e Arizona, ele integra-se perfeitamente ao Azure, suportando modelos como GPT-5.2 da OpenAI e acelerando o Microsoft 365 Copilot.Para o Brasil, isso significa inferência de IA mais acessível via Azure, beneficiando empresas locais em genIAção de dados sintéticos e aprendizado por reforço. A Microsoft também lançou o SDK Maia, com suporte a PyTorch e Triton, facilitando otimizações para desenvolvedores.Olhando adiante, o Maia 200 pavimenta o caminho para clusters de até 6.144 aceleradores, expandindo a infraestrutura global de IA. Essa jogada estratégica reforça a liderança da Microsoft na corrida por silício customizado, impactando custos e inovação em toda a cadeia de valor.

Deixe um comentário