A Microsoft colocou em operação nesta semana seus primeiros chips de inteligência artificial desenvolvidos internamente, em um de seus data centers. A empresa planeja expandir a implantação dos processadores Maia 200 nos próximos meses, segundo comunicado.
O chip foi projetado para ser um "poderoso motor de inferência de IA", otimizado para a tarefa computacionalmente intensa de executar modelos de IA em produção. A empresa divulgou especificações de velocidade de processamento que, segundo ela, superam os mais recentes chips Trainium da Amazon e as Unidades de Processamento Tensorial (TPUs) da Google.
Estratégia de múltiplos fornecedores
Apesar de ter em mãos seu próprio chip de alto desempenho, o CEO da Microsoft, Satya Nadella, afirmou que a companhia continuará adquirindo processadores de outros fabricantes, como Nvidia e AMD. "Temos uma ótima parceria com a Nvidia, com a AMD. Eles estão inovando. Nós estamos inovando", explicou Nadella.
Ele complementou: "Porque podemos integrar verticalmente não significa que vamos apenas integrar verticalmente", referindo-se à construção de seus próprios sistemas do inÃcio ao fim, sem usar produtos de outros fornecedores.
Uso prioritário e desafios de fornecimento
O chip Maia 200 será utilizado primeiramente pela equipe de "Superinteligência" da Microsoft, os especialistas em IA que constroem os próprios modelos de fronteira da gigante de software. A informação foi confirmada por Mustafa Suleyman, ex-cofundador do Google DeepMind e atual lÃder da equipe.
Em uma publicação na rede social X, Suleyman comemorou o acesso prioritário de sua equipe ao novo hardware. "É um grande dia. Nossa equipe de Superinteligência será a primeira a usar o Maia 200 enquanto desenvolvemos nossos modelos de IA de fronteira", escreveu ele.
A Microsoft trabalha em seus próprios modelos para, possivelmente, um dia reduzir sua dependência de empresas como OpenAI e Anthropic. O Maia 200 também dará suporte aos modelos da OpenAI em execução na plataforma de nuvem Azure da Microsoft.
No entanto, garantir acesso ao hardware de IA mais avançado continua sendo um desafio para todos, incluindo clientes pagantes e equipes internas. As grandes empresas de nuvem estão recorrendo a seus próprios projetos de chips de IA, em parte devido à dificuldade e ao custo de obter os mais recentes e melhores produtos da Nvidia – uma escassez de oferta que não mostra sinais de diminuição.