Quando todos em Silicon Valley estão a correr loucamente, há um laboratório que decidiu seguir o caminho oposto. Há um ano, neste dia (20 de janeiro de 2025), nasceu o DeepSeek R1, que quebrou o mito das altas barreiras da indústria com uma abordagem extremamente eficiente e de baixo custo. Olhando para trás, isso não foi apenas o lançamento de um modelo, mas uma redefinição das regras de toda a competição de IA. Mas o mais interessante é que, quando este “atrasado”, que deveria ser esquecido, parecia destinado a desaparecer, o mundo inteiro começou a mudar por causa dele.
No “combate” de Silicon Valley, por que o DeepSeek seguiu o caminho oposto
No último ano, a palavra-chave na IA global foi uma só: competição.
OpenAI investiu pesado, Microsoft investiu fortemente, Anthropic valorizou-se, até Elon Musk não resistiu à tentação do capital, arrecadando 20 bilhões de dólares para a xAI. Todos os gigantes estão sendo levados pelo capital, buscando lucro através da comercialização. Mas, nesta corrida onde todos querem monetizar rapidamente, o DeepSeek optou por um caminho de “sem financiamento externo”.
Qual é a sua base de confiança?
A empresa-mãe do DeepSeek, a Fantasia Quant, alcançou no ano passado um retorno de 53%, com lucros superiores a 700 milhões de dólares (cerca de 50 bilhões de RMB). Liang Wenfeng usou esse dinheiro antigo para financiar o novo sonho do “DeepSeek AGI”. Este modelo permitiu ao DeepSeek exercer um controle quase absoluto sobre o dinheiro — sem interferências de investidores, sem doenças de grandes empresas, apenas focado na tecnologia.
Em comparação com laboratórios que receberam enormes financiamentos, as vantagens do DeepSeek são evidentes. Muitos financiadores caíram na vaidade de riqueza fictícia e conflitos internos, como o Thinking Machine Lab, que recentemente enfrentou várias saídas de funcionários, ou o Meta AI de Zuckerberg, envolvido em diversos escândalos. Mas o DeepSeek não precisa lançar aplicativos multifuncionais para parecer bem nos relatórios financeiros, nem se esforçar para competir em multimodalidade só para seguir tendências de mercado.
Entre concorrentes que querem colocar “multifuncionalidade, multimodalidade, busca por IA” na cara, o DeepSeek mantém um pacote de instalação extremamente leve de 51,7MB, sem seguir modismos ou fazer campanhas de marketing agressivas, concentrando-se na melhoria contínua do seu modelo de raciocínio. À primeira vista, parece que está “atrasado”. Mas, na prática, a chamada “atraso” faz com que a sua chamada ao modelo continue sendo a preferência na maioria das plataformas.
Quando o mundo está a “competir”, o DeepSeek compete por eficiência
O ponto central é que o DeepSeek reescreveu as regras de toda a competição de IA.
Se há um ano a competição era quem tinha mais GPUs ou maiores parâmetros de modelos, a chegada do DeepSeek mudou tudo: passou a ser uma disputa por quem é mais eficiente, por quem tem menor custo. A OpenAI e sua equipe tiveram que admitir, em um recente resumo, que o lançamento do R1 causou um “grande impacto” na competição de IA, chegando a ser descrito como um “choque sísmico”.
Segundo a análise da ICIS Intelligence, o DeepSeek quebrou de vez a teoria de que “poder de cálculo decide tudo”. Demonstrou ao mundo que, mesmo com chips limitados e custos extremamente baixos, é possível treinar modelos com desempenho comparável aos melhores sistemas americanos. Isso mudou a direção da competição global de IA, que passou de “criar o modelo mais inteligente” para “quem consegue fazer modelos mais eficientes, mais baratos e mais fáceis de implantar”.
A Microsoft, no seu recente “Relatório de Adoção Global de IA 2025”, colocou a ascensão do DeepSeek como uma das “desenvolvimentos mais inesperados”. O relatório revela que o DeepSeek não só domina o mercado doméstico (com 89% de quota), mas também se enraiza em regiões onde os gigantes tecnológicos americanos têm pouca presença, como África, Bielorrússia e Cuba. Na África, a taxa de uso do DeepSeek é de duas a quatro vezes maior do que em outras regiões. Graças à sua estratégia gratuita e de código aberto, eliminando custos de assinatura caros e barreiras de cartão de crédito.
A Microsoft também reconhece que o próximo bilhão de usuários de IA pode não vir das tradicionais regiões tecnológicas, mas dessas áreas cobertas pelo DeepSeek.
Europa: de passiva a inovadora
O impacto do DeepSeek já atravessou o planeta.
A Europa sempre foi uma usuária passiva da IA americana, embora tenha seu próprio modelo, o Mistral, que nunca ganhou grande destaque. O sucesso do DeepSeek mostrou aos europeus uma nova possibilidade: se laboratórios chineses com recursos limitados conseguiram, por que eles não podem?
Segundo a revista Wired, a comunidade tecnológica europeia está em uma corrida para “criar uma versão europeia do DeepSeek”. Muitos desenvolvedores europeus estão criando grandes modelos de código aberto, sendo o projeto SOOFI um exemplo claro, que afirma: “Vamos nos tornar o DeepSeek europeu”. A influência do DeepSeek também aumentou a ansiedade na Europa quanto à “soberania de IA” — eles perceberam que depender excessivamente de modelos fechados americanos é arriscado, e que o modelo eficiente e de código aberto do DeepSeek é uma referência necessária.
A maior comunidade de código aberto de IA, a Hugging Face, publicou uma análise do impacto de um ano do lançamento do R1, destacando que “a IA chinesa realmente se levantou”. Eles veem o R1 como um divisor de águas, provando que, mesmo com recursos limitados, é possível alcançar uma vantagem tecnológica por meio do código aberto. Para eles, o valor real do R1 está em reduzir a barreira de entrada:
Tecnologia: divulgar detalhes de raciocínio, permitindo reutilização de capacidades avançadas. Aplicação: licenças permissivas (MIT) facilitam a integração comercial. Mentalidade: fortalecer a confiança de que a IA chinesa pode liderar, não apenas seguir.
Hoje, em 2026, os modelos de código aberto chineses dominam as downloads globais. Grandes empresas e startups no país adotam amplamente o código aberto, e muitos modelos estrangeiros são baseados em modelos chineses de código aberto.
V4: o segundo capítulo da “revolta” contra a competição
Se o R1 foi uma demonstração do DeepSeek para a indústria de IA, será que o próximo V4 será uma operação contra o senso comum?
Segundo recentes vazamentos técnicos e códigos oficiais, há alguns sinais importantes sobre o V4:
Revelação do novo modelo MODEL1
No repositório oficial do DeepSeek no GitHub, um indício de um novo modelo, chamado “MODEL1”, foi acidentalmente divulgado. Na estrutura do código, o MODEL1 aparece como uma ramificação independente, paralela ao V32 (DeepSeek V3.2). Isso indica que o MODEL1 não compartilha os parâmetros ou a arquitetura do V3, sendo uma abordagem totalmente nova e independente.
O código mostra que ele usa uma estratégia de cache KV completamente diferente, com novas mecânicas para lidar com esparsidade. No caminho de decodificação FP8, há várias otimizações de memória específicas, sugerindo que o novo modelo pode ter melhor desempenho em inferência e uso de memória.
Especialistas especulam que as duas principais publicações recentes do DeepSeek — sobre otimização de conexões residuais “mHC” e o módulo de memória “Engram” — provavelmente serão integradas na arquitetura do MODEL1.
Capacidades principais: geração de código e contexto estendido
Num momento em que diálogos genéricos se tornam cada vez mais homogêneos, o V4 aposta em uma inovação mais radical: capacidade de produção de código de nível produtivo. Fontes próximas ao DeepSeek revelam que, em testes internos, a geração e manipulação de código do V4 já superou Claude (Anthropic) e GPT (OpenAI).
Mais importante, o V4 tenta resolver um grande problema atual de IA de programação: lidar com “contexto de código ultra longo”. Isso significa que o V4 não será apenas um assistente para escrever alguns scripts, mas terá capacidade de entender projetos complexos e lidar com grandes bases de código. Para isso, aprimorou seu treinamento, garantindo que o modelo mantenha desempenho ao lidar com grandes volumes de dados.
Tecnologia-chave: Engram
Mais do que o próprio modelo V4, o que chama atenção é uma publicação recente de uma equipe do Peking University, que revela a verdadeira arma secreta do DeepSeek para continuar avançando com recursos limitados: uma tecnologia chamada “Engram” (impressão digital/memória condicional).
Enquanto concorrentes acumulam GPUs H100 para aumentar a memória, o DeepSeek opta por um caminho diferente. A tecnologia Engram permite que o modelo acesse informações essenciais de forma eficiente, sem gastar tanto poder de cálculo. O que sobra de capacidade é direcionado para tarefas de raciocínio mais complexas.
Pesquisadores afirmam que essa técnica pode contornar limitações de memória, suportando expansões paramétricas agressivas. Em um cenário de recursos cada vez mais escassos, essa inovação mostra que o DeepSeek não depende apenas de hardware para evoluir.
Lançamento antes ou depois do Ano Novo Chinês
Há rumores de que o DeepSeek planeja lançar sua nova geração, o V4, antes ou após o Ano Novo Chinês. No ano passado, o R1 foi lançado nesta época, causando um impacto global durante o feriado. Essa estratégia evita o congestionamento de lançamentos na indústria ocidental e aproveita o período de férias para gerar curiosidade.
Contra o senso comum, o maior senso
A evolução do DeepSeek neste último ano é, essencialmente, uma solução contra o senso comum da indústria de IA.
Ele faturou 5 bilhões de dólares, consegue treinar milhares de R1 sem competir apenas por poder de cálculo ou GPUs, não há notícias de IPO ou captação de recursos, e começou a estudar como substituir memórias caras por memórias baratas. No último ano, praticamente abandonou a corrida por modelos multifuncionais, focando na melhoria contínua de modelos de raciocínio, mesmo com a concorrência lançando atualizações semanais.
Essas escolhas parecem “erradas” a curto prazo: sem financiamento, como competir com a OpenAI? Sem criar modelos multimodais, como reter usuários com imagens e vídeos? A lei da escala ainda não morreu, como criar o melhor modelo sem aumentar o poder de cálculo?
Por outro lado, a longo prazo, essas “erros” podem estar pavimentando o caminho para o V4 do DeepSeek e seus próximos passos. Essa é a essência do DeepSeek: enquanto todos competem por recursos, ele compete por eficiência; enquanto todos buscam monetização, ele busca limites tecnológicos.
Quando a indústria questiona “por que não competir”, o DeepSeek, com um ano de resultados, prova que a resposta — às vezes, a melhor estratégia é não competir.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
DeepSeek um ano de luta contra a "corrida" de esforço excessivo: por que manter-se firme acabou por vencer
Quando todos em Silicon Valley estão a correr loucamente, há um laboratório que decidiu seguir o caminho oposto. Há um ano, neste dia (20 de janeiro de 2025), nasceu o DeepSeek R1, que quebrou o mito das altas barreiras da indústria com uma abordagem extremamente eficiente e de baixo custo. Olhando para trás, isso não foi apenas o lançamento de um modelo, mas uma redefinição das regras de toda a competição de IA. Mas o mais interessante é que, quando este “atrasado”, que deveria ser esquecido, parecia destinado a desaparecer, o mundo inteiro começou a mudar por causa dele.
No “combate” de Silicon Valley, por que o DeepSeek seguiu o caminho oposto
No último ano, a palavra-chave na IA global foi uma só: competição.
OpenAI investiu pesado, Microsoft investiu fortemente, Anthropic valorizou-se, até Elon Musk não resistiu à tentação do capital, arrecadando 20 bilhões de dólares para a xAI. Todos os gigantes estão sendo levados pelo capital, buscando lucro através da comercialização. Mas, nesta corrida onde todos querem monetizar rapidamente, o DeepSeek optou por um caminho de “sem financiamento externo”.
Qual é a sua base de confiança?
A empresa-mãe do DeepSeek, a Fantasia Quant, alcançou no ano passado um retorno de 53%, com lucros superiores a 700 milhões de dólares (cerca de 50 bilhões de RMB). Liang Wenfeng usou esse dinheiro antigo para financiar o novo sonho do “DeepSeek AGI”. Este modelo permitiu ao DeepSeek exercer um controle quase absoluto sobre o dinheiro — sem interferências de investidores, sem doenças de grandes empresas, apenas focado na tecnologia.
Em comparação com laboratórios que receberam enormes financiamentos, as vantagens do DeepSeek são evidentes. Muitos financiadores caíram na vaidade de riqueza fictícia e conflitos internos, como o Thinking Machine Lab, que recentemente enfrentou várias saídas de funcionários, ou o Meta AI de Zuckerberg, envolvido em diversos escândalos. Mas o DeepSeek não precisa lançar aplicativos multifuncionais para parecer bem nos relatórios financeiros, nem se esforçar para competir em multimodalidade só para seguir tendências de mercado.
Entre concorrentes que querem colocar “multifuncionalidade, multimodalidade, busca por IA” na cara, o DeepSeek mantém um pacote de instalação extremamente leve de 51,7MB, sem seguir modismos ou fazer campanhas de marketing agressivas, concentrando-se na melhoria contínua do seu modelo de raciocínio. À primeira vista, parece que está “atrasado”. Mas, na prática, a chamada “atraso” faz com que a sua chamada ao modelo continue sendo a preferência na maioria das plataformas.
Quando o mundo está a “competir”, o DeepSeek compete por eficiência
O ponto central é que o DeepSeek reescreveu as regras de toda a competição de IA.
Se há um ano a competição era quem tinha mais GPUs ou maiores parâmetros de modelos, a chegada do DeepSeek mudou tudo: passou a ser uma disputa por quem é mais eficiente, por quem tem menor custo. A OpenAI e sua equipe tiveram que admitir, em um recente resumo, que o lançamento do R1 causou um “grande impacto” na competição de IA, chegando a ser descrito como um “choque sísmico”.
Segundo a análise da ICIS Intelligence, o DeepSeek quebrou de vez a teoria de que “poder de cálculo decide tudo”. Demonstrou ao mundo que, mesmo com chips limitados e custos extremamente baixos, é possível treinar modelos com desempenho comparável aos melhores sistemas americanos. Isso mudou a direção da competição global de IA, que passou de “criar o modelo mais inteligente” para “quem consegue fazer modelos mais eficientes, mais baratos e mais fáceis de implantar”.
A Microsoft, no seu recente “Relatório de Adoção Global de IA 2025”, colocou a ascensão do DeepSeek como uma das “desenvolvimentos mais inesperados”. O relatório revela que o DeepSeek não só domina o mercado doméstico (com 89% de quota), mas também se enraiza em regiões onde os gigantes tecnológicos americanos têm pouca presença, como África, Bielorrússia e Cuba. Na África, a taxa de uso do DeepSeek é de duas a quatro vezes maior do que em outras regiões. Graças à sua estratégia gratuita e de código aberto, eliminando custos de assinatura caros e barreiras de cartão de crédito.
A Microsoft também reconhece que o próximo bilhão de usuários de IA pode não vir das tradicionais regiões tecnológicas, mas dessas áreas cobertas pelo DeepSeek.
Europa: de passiva a inovadora
O impacto do DeepSeek já atravessou o planeta.
A Europa sempre foi uma usuária passiva da IA americana, embora tenha seu próprio modelo, o Mistral, que nunca ganhou grande destaque. O sucesso do DeepSeek mostrou aos europeus uma nova possibilidade: se laboratórios chineses com recursos limitados conseguiram, por que eles não podem?
Segundo a revista Wired, a comunidade tecnológica europeia está em uma corrida para “criar uma versão europeia do DeepSeek”. Muitos desenvolvedores europeus estão criando grandes modelos de código aberto, sendo o projeto SOOFI um exemplo claro, que afirma: “Vamos nos tornar o DeepSeek europeu”. A influência do DeepSeek também aumentou a ansiedade na Europa quanto à “soberania de IA” — eles perceberam que depender excessivamente de modelos fechados americanos é arriscado, e que o modelo eficiente e de código aberto do DeepSeek é uma referência necessária.
A maior comunidade de código aberto de IA, a Hugging Face, publicou uma análise do impacto de um ano do lançamento do R1, destacando que “a IA chinesa realmente se levantou”. Eles veem o R1 como um divisor de águas, provando que, mesmo com recursos limitados, é possível alcançar uma vantagem tecnológica por meio do código aberto. Para eles, o valor real do R1 está em reduzir a barreira de entrada:
Tecnologia: divulgar detalhes de raciocínio, permitindo reutilização de capacidades avançadas.
Aplicação: licenças permissivas (MIT) facilitam a integração comercial.
Mentalidade: fortalecer a confiança de que a IA chinesa pode liderar, não apenas seguir.
Hoje, em 2026, os modelos de código aberto chineses dominam as downloads globais. Grandes empresas e startups no país adotam amplamente o código aberto, e muitos modelos estrangeiros são baseados em modelos chineses de código aberto.
V4: o segundo capítulo da “revolta” contra a competição
Se o R1 foi uma demonstração do DeepSeek para a indústria de IA, será que o próximo V4 será uma operação contra o senso comum?
Segundo recentes vazamentos técnicos e códigos oficiais, há alguns sinais importantes sobre o V4:
Revelação do novo modelo MODEL1
No repositório oficial do DeepSeek no GitHub, um indício de um novo modelo, chamado “MODEL1”, foi acidentalmente divulgado. Na estrutura do código, o MODEL1 aparece como uma ramificação independente, paralela ao V32 (DeepSeek V3.2). Isso indica que o MODEL1 não compartilha os parâmetros ou a arquitetura do V3, sendo uma abordagem totalmente nova e independente.
O código mostra que ele usa uma estratégia de cache KV completamente diferente, com novas mecânicas para lidar com esparsidade. No caminho de decodificação FP8, há várias otimizações de memória específicas, sugerindo que o novo modelo pode ter melhor desempenho em inferência e uso de memória.
Especialistas especulam que as duas principais publicações recentes do DeepSeek — sobre otimização de conexões residuais “mHC” e o módulo de memória “Engram” — provavelmente serão integradas na arquitetura do MODEL1.
Capacidades principais: geração de código e contexto estendido
Num momento em que diálogos genéricos se tornam cada vez mais homogêneos, o V4 aposta em uma inovação mais radical: capacidade de produção de código de nível produtivo. Fontes próximas ao DeepSeek revelam que, em testes internos, a geração e manipulação de código do V4 já superou Claude (Anthropic) e GPT (OpenAI).
Mais importante, o V4 tenta resolver um grande problema atual de IA de programação: lidar com “contexto de código ultra longo”. Isso significa que o V4 não será apenas um assistente para escrever alguns scripts, mas terá capacidade de entender projetos complexos e lidar com grandes bases de código. Para isso, aprimorou seu treinamento, garantindo que o modelo mantenha desempenho ao lidar com grandes volumes de dados.
Tecnologia-chave: Engram
Mais do que o próprio modelo V4, o que chama atenção é uma publicação recente de uma equipe do Peking University, que revela a verdadeira arma secreta do DeepSeek para continuar avançando com recursos limitados: uma tecnologia chamada “Engram” (impressão digital/memória condicional).
Enquanto concorrentes acumulam GPUs H100 para aumentar a memória, o DeepSeek opta por um caminho diferente. A tecnologia Engram permite que o modelo acesse informações essenciais de forma eficiente, sem gastar tanto poder de cálculo. O que sobra de capacidade é direcionado para tarefas de raciocínio mais complexas.
Pesquisadores afirmam que essa técnica pode contornar limitações de memória, suportando expansões paramétricas agressivas. Em um cenário de recursos cada vez mais escassos, essa inovação mostra que o DeepSeek não depende apenas de hardware para evoluir.
Lançamento antes ou depois do Ano Novo Chinês
Há rumores de que o DeepSeek planeja lançar sua nova geração, o V4, antes ou após o Ano Novo Chinês. No ano passado, o R1 foi lançado nesta época, causando um impacto global durante o feriado. Essa estratégia evita o congestionamento de lançamentos na indústria ocidental e aproveita o período de férias para gerar curiosidade.
Contra o senso comum, o maior senso
A evolução do DeepSeek neste último ano é, essencialmente, uma solução contra o senso comum da indústria de IA.
Ele faturou 5 bilhões de dólares, consegue treinar milhares de R1 sem competir apenas por poder de cálculo ou GPUs, não há notícias de IPO ou captação de recursos, e começou a estudar como substituir memórias caras por memórias baratas. No último ano, praticamente abandonou a corrida por modelos multifuncionais, focando na melhoria contínua de modelos de raciocínio, mesmo com a concorrência lançando atualizações semanais.
Essas escolhas parecem “erradas” a curto prazo: sem financiamento, como competir com a OpenAI? Sem criar modelos multimodais, como reter usuários com imagens e vídeos? A lei da escala ainda não morreu, como criar o melhor modelo sem aumentar o poder de cálculo?
Por outro lado, a longo prazo, essas “erros” podem estar pavimentando o caminho para o V4 do DeepSeek e seus próximos passos. Essa é a essência do DeepSeek: enquanto todos competem por recursos, ele compete por eficiência; enquanto todos buscam monetização, ele busca limites tecnológicos.
Quando a indústria questiona “por que não competir”, o DeepSeek, com um ano de resultados, prova que a resposta — às vezes, a melhor estratégia é não competir.