Maia 200: Microsoft Lança Chip de IA que Supera Nvidia e Revoluciona Inferência no Azure

A Microsoft anunciou o Maia 200, seu novo acelerador de IA otimizado para inferência, marcando um avanço significativo na infraestrutura de nuvem Azure. Fabricado em processo de 3nm da TSMC, o chip chega para desafiar a dominância da Nvidia, oferecendo desempenho superior em modelos de IA em larga escala.O Maia 200 entrega mais de 10 petaFLOPS em precisão FP4 e 5 petaFLOPS em FP8, com 140 bilhões de transistores e 216GB de HBM3e a 7 TB/s. Isso representa 3x o desempenho FP4 do Trainium 3 da Amazon e superioridade em FP8 sobre o TPU v7 do Google, reduzindo custos operacionais em 30% por dólar em comparação a hardware anterior.Para o mercado brasileiro, essa inovação significa acesso mais eficiente a ferramentas como Copilot e Azure AI Foundry via data centers globais. Empresas locais podem otimizar workloads de IA multimodal, incluindo texto, imagem e vídeo, sem depender exclusivamente de fornecedores como Nvidia, aliviando pressões de custo e suprimento.Futuramente, o Maia 200 será implantado em clusters de até 6.144 unidades, suportando modelos como GPT-5.2 da OpenAI. O SDK lançado, com suporte a PyTorch e Triton, já está disponível para desenvolvedores, acadêmicos e labs de IA, prometendo acelerar a adoção de agentes autônomos e aprendizado por reforço no Brasil e mundo.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *