Duas de 20 mil milhões de dólares: OpenAI e Nvidia travam uma “batalha de raciocínio”

nulo

Escrito por: xiaopi

Em dezembro de 2025, a Nvidia silenciosamente gastou 20 bilhões de dólares para adquirir uma empresa chamada Groq, especializada em chips de IA.

Em 17 de abril de 2026, a OpenAI anunciou que iria comprar mais de 20 bilhões de dólares em chips de outra empresa de chips de IA, a Cerebras. No mesmo dia, a Cerebras apresentou oficialmente seus documentos para IPO na NASDAQ, com uma avaliação alvo de 35 bilhões de dólares.

Duas transações, valores quase idênticos. Uma é uma aquisição, a outra é uma compra. Uma vem do maior vendedor de chips de IA do mundo, a outra do maior comprador de IA do planeta.

Não são eventos independentes, são dois movimentos simétricos na mesma guerra. O nome do campo de batalha é: raciocínio de IA.

A maioria das pessoas não percebeu essa guerra, pois ela não tem explosões, apenas anúncios financeiros e discussões técnicas que circulam entre engenheiros do Vale do Silício. Mas seu impacto pode ser mais profundo do que qualquer lançamento de IA nos últimos dois anos — porque ela está redistribuindo o controle de um mercado que provavelmente se tornará o maior mercado de tecnologia da história.

O que é raciocínio, por que em 2026 a palavra-chave não é mais “treinamento”

Antes de falar sobre os 200 bilhões, é preciso entender um contexto: o campo de batalha dos chips de IA está passando por uma mudança de foco.

Treinamento e raciocínio são as duas fases do consumo de poder computacional de IA. Treinamento é criar modelos — alimentar uma quantidade enorme de dados em redes neurais para que elas aprendam alguma habilidade. Esse processo geralmente ocorre uma única vez ou é atualizado periodicamente. Raciocínio é usar o modelo — cada vez que um usuário faz uma pergunta, o ChatGPT fornece uma resposta, que é uma solicitação de raciocínio.

Em 2023, a maior parte do gasto global em poder de computação de IA foi em treinamento, com raciocínio sendo um coadjuvante.

Mas essa proporção está mudando rapidamente.

Segundo dados de pesquisa de mercado da Deloitte e CES 2026, em 2025, o raciocínio já representava 50% de todo o gasto com poder de IA; em 2026, essa proporção saltará para dois terços. O CEO da Lenovo, Yang Yuanqing, foi mais direto na CES: a estrutura de gastos em IA vai se inverter de “80% treinamento + 20% raciocínio” para “20% treinamento + 80% raciocínio”.

A lógica não é complexa. Treinamento é um custo único, raciocínio é um custo contínuo. O GPT-4 foi treinado uma vez, mas responde a bilhões de perguntas por dia — cada diálogo é uma solicitação de raciocínio. Após a implantação em larga escala, o consumo acumulado de raciocínio supera em muito o de treinamento.

O que isso significa? Significa que o pedaço mais lucrativo do mercado de IA está migrando de “chips de treinamento” para “chips de raciocínio”. E esses dois tipos de chips exigem arquiteturas completamente diferentes.

O problema da Nvidia: chips projetados para treinamento não são naturalmente bons para raciocínio

Os chips H100 e H200 da Nvidia foram feitos para treinamento. Sua vantagem principal é uma taxa de processamento extremamente alta — treinamento exige muitas multiplicações de matrizes massivas, e GPUs são boas em “computação paralela de múltiplos núcleos”.

Mas o gargalo no raciocínio não é o cálculo, é a largura de banda da memória.

Quando um usuário faz uma pergunta, o chip precisa mover os pesos do modelo da memória para as unidades de cálculo, antes de gerar a resposta. Esse processo de “movimentação” é a verdadeira fonte de latência no raciocínio. As GPUs da Nvidia usam memória de alta largura de banda (HBM), e essa transferência inevitavelmente introduz atrasos — para o ChatGPT, que precisa processar dezenas de milhões de requisições por segundo, essa latência, multiplicada pelo volume, se torna um gargalo de desempenho real.

Engenheiros internos da OpenAI perceberam esse problema ao otimizar o Codex (ferramenta de geração de código), e descobriram que, independentemente de ajustes, a velocidade de resposta era limitada pela arquitetura das GPUs da Nvidia.

Em outras palavras, a desvantagem da Nvidia no raciocínio não é uma questão de esforço, mas de arquitetura.

A chip WSE-3 da Cerebras seguiu um caminho completamente diferente. Essa placa é tão grande que requer encapsulamento em wafer — uma área de 46.255 mm², maior que a palma da mão — integrando 900 mil núcleos de IA e 44 GB de SRAM ultrarrápida em um único chip de silício. A memória fica ao lado do núcleo de cálculo, reduzindo a distância de “movimentação” de centímetros para micrômetros. Como resultado, o raciocínio é de 15 a 20 vezes mais rápido que o H100 da Nvidia.

É importante acrescentar: a Nvidia não está de braços cruzados. Sua arquitetura Blackwell (B200), lançada recentemente, oferece um desempenho de raciocínio quatro vezes maior que o H100, e já está em implantação em larga escala. Mas Blackwell está mirando um alvo móvel — a Cerebras também está evoluindo, e o mercado de chips está vendo surgir concorrentes além da Cerebras.

Os 20 bilhões da Nvidia: uma carta de admissão por trás da maior aquisição da história

Em 24 de dezembro de 2025, a Nvidia anunciou sua maior aquisição até então.

O alvo era a Groq.

A Groq é uma concorrente direta da Cerebras, especializada em chips de arquitetura SRAM otimizados para raciocínio — ela chama-se LPU (Unidade de Processamento de Linguagem), e na avaliação pública era o chip mais rápido do mundo para raciocínio. A Nvidia gastou 20 bilhões de dólares para comprar toda a tecnologia central e a equipe fundadora da Groq, incluindo o fundador Jonathan Ross e vários engenheiros de chips que vieram do time TPU do Google.

Essa foi a maior aquisição desde a compra da Mellanox por 7 bilhões de dólares em 2019, triplicando o valor.

Para muitos analistas, o que essa quantia transmite é mais importante do que o valor em si: a Nvidia acredita que tem uma lacuna estrutural no raciocínio, e que essa lacuna é grande o suficiente para justificar gastar 20 bilhões de dólares para fechá-la.

Se a Nvidia realmente acreditasse que seus GPUs são imbatíveis no raciocínio, ela não precisaria comprar a Groq. Essa compra é, na essência, uma ordem de compra de tecnologia avaliada em 20 bilhões — uma admissão de que a arquitetura SRAM embutida tem vantagens reais em raciocínio, e que a Nvidia, com sua linha de produtos atual, não consegue cobri-la naturalmente. Então, ela paga o preço mais alto para adquirir uma tecnologia que ela mesma não consegue preencher.

Claro que, após a aquisição, a narrativa oficial da Nvidia é outra: “Integração profunda com a Groq, oferecendo uma solução de raciocínio mais completa.” Em linguagem técnica, é: percebemos que nossos recursos não são suficientes, então compramos o que falta.

Os 20 bilhões da OpenAI: comprar chips é só a superfície, o investimento em participação é o verdadeiro ponto

Voltando à OpenAI.

Em janeiro de 2026, a OpenAI assinou um acordo de compra de capacidade de computação de 10 bilhões de dólares com a Cerebras, válido por três anos — a cobertura da mídia focou na “diversificação de fornecedores de chips”, com tom neutro.

Mas os detalhes revelados em 17 de abril mudam completamente a natureza do negócio:

Primeiro, o valor da compra dobrou, de 10 bilhões para 20 bilhões de dólares.

Segundo, a OpenAI receberá opções de compra de ações da Cerebras, que, com o aumento do volume de compras, podem chegar a até 10% do total de ações da empresa.

Terceiro, a OpenAI também fornecerá 1 bilhão de dólares em financiamento para construção de data centers para a Cerebras — ou seja, está ajudando a construir fábricas para ela.

Esses três detalhes, juntos, pintam um quadro totalmente diferente: a OpenAI não está apenas comprando chips, ela está incubando um fornecedor.

Esse padrão tem precedentes claros na história da tecnologia. Em 2006, a Apple começou a trabalhar com a Samsung na customização de chips da série A, inicialmente com contratos de compra em grande escala, mas, à medida que a Apple aprofundou sua participação e passou a desenvolver seus próprios chips M, o controle da cadeia de suprimentos foi totalmente transferido da Intel e Samsung para a Apple. O que a OpenAI faz é semelhante — mas com uma diferença importante: a Apple sempre controlou o design do chip desde o início, enquanto a OpenAI ainda é uma compradora, e a Cerebras, após seu IPO, seguirá uma trajetória de crescimento independente, atendendo a mais clientes. O fim dessa história não é necessariamente a OpenAI dominar a Cerebras, mas talvez uma relação de dependência mútua mais profunda.

Por um lado, usando 20 bilhões e participações acionárias para garantir o fornecimento contínuo de poder de raciocínio fora da Nvidia; por outro, a OpenAI está colaborando com a Broadcom no desenvolvimento de seus próprios chips ASIC, com produção prevista para o final de 2026. Caminhando com as duas pernas, o objetivo final é autonomia em capacidade de computação.

A IPO da Cerebras: o que você está comprando

Em 17 de abril, a Cerebras apresentou oficialmente seu pedido de IPO na NASDAQ, com avaliação de 35 bilhões de dólares, planejando captar 3 bilhões.

Essa avaliação, que era de 8,1 bilhões em setembro de 2025, mais que quadruplicou. Em fevereiro, a empresa concluiu uma nova rodada de financiamento, com avaliação de 23 bilhões de dólares, e a meta de 35 bilhões na IPO já representa um prêmio de 52% sobre esse valor.

Quem conhece a história da Cerebras sabe que essa é sua segunda tentativa de listar na bolsa. A primeira foi em 2024, mas foi abortada porque seu cliente principal, G42 (Fundo de Investimento em Tecnologia do Governo dos Emirados Árabes), respondia por 83% a 97% da receita daquele ano, e a CFIUS (Comitê de Investimento Estrangeiro nos EUA) interveio por motivos de segurança nacional, obrigando a retirada do IPO.

Desta vez, a G42 saiu da lista de acionistas, sendo substituída pela OpenAI.

Em outras palavras, a dependência de grandes clientes ainda não foi resolvida — o nome do maior cliente mudou, mas o padrão de dependência permanece. Os investidores devem avaliar: esse cliente é melhor ou pior? Do ponto de vista de crédito, a OpenAI é claramente mais confiável que a G42; do ponto de vista estratégico, ela também é uma concorrente que pode substituir a Cerebras — uma vez que seus chips ASIC próprios, se maturados, representam uma ameaça real.

Para ser justo, a Cerebras também está buscando diversificar sua base de clientes, e o prospecto de IPO deve listar mais fontes de receita, o que deve melhorar a concentração. Mas, até que a produção de chips próprios da OpenAI esteja em escala, essa questão ainda não tem resposta definitiva.

Ao comprar ações da Cerebras, você está, na prática, apostando: que a OpenAI continuará escolhendo a Cerebras, e que seus chips ASIC próprios não chegarão antes do esperado. Ambas as apostas não são garantidas.

Claro que há motivos para acreditar na alta: se o mercado de raciocínio crescer conforme previsto, mesmo uma pequena fatia de participação da Cerebras nesse mercado pode gerar números realmente expressivos. O problema não é se a Cerebras terá chance, mas se a avaliação de 35 bilhões já reflete o cenário mais otimista.

Duas transações de 20 bilhões, de forma simétrica, ocorreram entre o final de 2025 e abril de 2026.

Uma, de um dos maiores vendedores de chips de IA do mundo, comprando tecnologia de um concorrente do mercado de raciocínio.

Outra, de um dos maiores compradores de IA do mundo, incubando uma empresa que desafia a Nvidia nesse mercado.

Os 20 bilhões da Nvidia representam uma defesa — ela usou o preço mais alto para fechar uma lacuna tecnológica que não consegue preencher por si mesma.

Os 20 bilhões da OpenAI representam um ataque — ela está gastando para construir uma via rápida de raciocínio que não depende da Nvidia, enquanto adquire uma participação que pode cobrar pedágio nessa estrada.

Essa guerra não tem tiros, mas o fluxo de dinheiro nunca mente. Essas duas transações mostram claramente: o controle sobre a infraestrutura de raciocínio de IA está sendo disputado. E esse mercado, em 2026, responderá por dois terços de toda a capacidade computacional do setor.

O IPO da Cerebras é o sinal de que essa guerra está ganhando força.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar