Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Anthropic afirma ter sido alvo de ataques massivos de destilação
(MENAFN- Crypto Breaking) A Anthropic, desenvolvedora da Frontier AI, acusou publicamente três laboratórios de IA chineses — DeepSeek, Moonshot e Minimax — de realizarem ataques de destilação destinados a extrair capacidades do Claude, o grande modelo de linguagem da Anthropic. Em um artigo detalhado, a empresa descreve campanhas que supostamente geraram mais de 16 milhões de trocas em cerca de 24.000 contas fraudulentas, explorando as saídas do Claude para treinar modelos menos capazes. A destilação, uma tática reconhecida no treinamento de IA, torna-se problemática quando usada em larga escala para replicar recursos poderosos sem arcar com os mesmos custos de desenvolvimento. A Anthropic destaca que, embora a destilação tenha usos legítimos, ela pode permitir que concorrentes contornem avanços e aprimorem seus próprios produtos a uma fração do tempo e do custo.
Principais pontos
A destilação envolve treinar um modelo mais fraco com as saídas de um mais forte, método amplamente utilizado para criar versões menores e mais baratas de sistemas de IA.
A Anthropic alega que DeepSeek, Moonshot e Minimax organizaram campanhas de destilação em grande escala, gerando milhões de interações com o Claude através de dezenas de milhares de contas falsas.
As ataques supostamente visaram as capacidades diferenciadas do Claude, incluindo raciocínio agentico, uso de ferramentas e codificação, indicando foco em competências de alto valor e transferíveis.
A empresa argumenta que campanhas de destilação estrangeiras representam riscos geopolíticos, podendo fornecer a atores autoritários capacidades avançadas para operações cibernéticas, desinformação e vigilância.
A Anthropic afirma que irá reforçar a detecção, compartilhar inteligência de ameaças e fortalecer controles de acesso, enquanto apela à cooperação mais ampla da indústria e ao envolvimento regulatório para combater essas ameaças.
** Contexto de mercado:** O incidente ocorre em meio a uma maior atenção à interoperabilidade de modelos de IA e à segurança de ofertas de IA baseadas na nuvem, um cenário que também envolve sistemas automatizados usados em mercados de criptomoedas e ferramentas de gestão de risco. À medida que os modelos de IA se tornam mais integrados em negociações, avaliação de risco e suporte à decisão, garantir a integridade dos dados de entrada e das saídas dos modelos torna-se cada vez mais importante para desenvolvedores e usuários no espaço cripto.
Por que isso importa
As alegações destacam uma tensão central na fronteira da IA: a linha entre destilação legítima de modelos e replicação exploratória. A destilação é uma prática comum e legítima usada por laboratórios para oferecer versões mais enxutas de um modelo para clientes com orçamentos modestos de computação. No entanto, quando usada em larga escala contra um único ecossistema, a técnica pode ser cooptada para extrair capacidades que, de outra forma, exigiriam pesquisa e engenharia substanciais. Se confirmadas, as campanhas podem levar a uma revisão mais ampla de como o acesso a modelos poderosos é controlado, monitorado e auditado, especialmente por empresas com alcance global e infraestrutura complexa na nuvem.
A Anthropic afirma que as três empresas envolvidas realizaram atividades destinadas a extrair as habilidades avançadas do Claude por meio de correlação de endereços IP, metadados de requisições e indicadores de infraestrutura, com corroboramento independente de parceiros do setor. Isso indica um esforço coordenado, baseado em dados, para mapear e replicar capacidades de IA na nuvem, não apenas experimentos isolados. A escala descrita — dezenas de milhões de interações em milhares de contas — levanta questões sobre as medidas de defesa existentes para detectar e interromper tais padrões, bem como os frameworks de responsabilidade que regulam concorrentes estrangeiros operando em espaços de IA com implicações nacionais e econômicas diretas.
Além da preocupação com IP, a Anthropic relaciona a atividade alegada a riscos estratégicos para a segurança nacional, argumentando que ataques de destilação por laboratórios estrangeiros poderiam alimentar sistemas militares, de inteligência e de vigilância. A empresa sustenta que capacidades não protegidas poderiam viabilizar operações cibernéticas ofensivas, campanhas de desinformação e vigilância em massa, complicando a análise geopolítica para formuladores de políticas e atores do setor. A afirmação enquadra a questão não apenas como uma disputa competitiva, mas como uma problemática de ampla repercussão na proteção e governança das tecnologias de IA de fronteira.
Para avançar, a Anthropic diz que irá aprimorar sistemas de detecção para identificar tráfego suspeito, acelerar o compartilhamento de inteligência de ameaças e reforçar controles de acesso. A empresa também convoca atores domésticos e legisladores a colaborarem mais estreitamente na defesa contra agentes de destilação estrangeiros, defendendo uma resposta coordenada e de toda a indústria para conter essas atividades em escala.
Para quem acompanha a política de IA, as alegações refletem debates contínuos sobre como equilibrar inovação e salvaguardas — questões que já estão presentes em discussões sobre governança, controles de exportação e fluxos de dados transfronteiriços. A indústria há tempos luta para impedir usos ilícitos sem sufocar a experimentação legítima, uma tensão que provavelmente será foco de futuras regulamentações e padronizações.
O que observar a seguir
A Anthropic e as empresas acusadas podem divulgar mais detalhes ou esclarecimentos sobre as alegações e suas respostas respectivas.
Órgãos de inteligência de ameaças e provedores de nuvem podem lançar novos indicadores de comprometimento ou orientações defensivas relacionadas a ataques de destilação.
Reguladores e legisladores podem emitir ou aprimorar políticas sobre acesso a modelos de IA, compartilhamento de dados transfronteiriços e medidas anti-pirataria para modelos de alta capacidade.
Pesquisadores independentes e empresas de segurança podem replicar ou contestar as metodologias usadas para identificar as campanhas alegadas, potencialmente ampliando a base de evidências.
Colaborações na indústria podem surgir para estabelecer melhores práticas na proteção de capacidades de modelos de fronteira e na auditoria de processos de destilação.
Fontes e verificação
Post do blog da Anthropic: Detectando e Prevenindo Ataques de Destilação — declaração oficial detalhando as acusações e as campanhas descritas.
Publicação no X da Anthropic referenciada na divulgação — registro público contemporâneo das descobertas da empresa.
Cobertura do Cointelegraph e materiais vinculados discutindo agentes de IA, IA de fronteira e preocupações de segurança relacionadas.
Discussões relacionadas ao papel da destilação no treinamento de IA e seu potencial uso indevido em ambientes competitivos.
Ataques de destilação e segurança na IA de fronteira
A alegação central baseia-se em um abuso estruturado da destilação, onde as saídas de um modelo mais forte — neste caso, o Claude — são usadas para treinar modelos alternativos que imitam ou aproximam suas capacidades. A Anthropic sustenta que isso não é um vazamento menor, mas uma campanha sustentada, envolvendo milhões de interações, permitindo que as três empresas reproduzam habilidades avançadas de tomada de decisão, uso de ferramentas e codificação sem arcar com o custo total da pesquisa original. Os números citados — mais de 16 milhões de trocas em cerca de 24.000 contas fraudulentas — ilustram uma escala que pode desestabilizar expectativas sobre desempenho de modelos, experiência do usuário e integridade de dados para quem depende de serviços baseados no Claude.
O que as alegações implicam para usuários e desenvolvedores
Para quem constrói com IA, o caso reforça a importância de uma proveniência robusta, controles de acesso e monitoramento contínuo do uso de modelos. Se a destilação estrangeira puder ser escalada para produzir substitutos viáveis de capacidades líderes, abre-se a porta para a comercialização generalizada de recursos poderosos que antes exigiam investimentos substanciais. As consequências podem ir além da perda de propriedade intelectual, incluindo desvios no comportamento do modelo, falhas inesperadas na integração de ferramentas ou propagação de saídas sutilmente alteradas para os usuários finais. Desenvolvedores e operadores de serviços habilitados por IA — seja em finanças, saúde ou tecnologia de consumo — podem responder com maior rigor na análise de integrações de terceiros, termos de licenciamento mais rígidos e detecção aprimorada de anomalias em tráfego de API e consultas ao modelo.
Considerações-chave para o ecossistema cripto
Embora o incidente se concentre na segurança de modelos de IA, seu impacto no mercado cripto está na dependência de suporte à decisão automatizado, bots de negociação e ferramentas de avaliação de risco. Participantes do mercado e desenvolvedores devem permanecer vigilantes quanto à integridade de serviços de IA e ao potencial de capacidades replicadas ou comprometidas influenciarem sistemas automatizados. A situação também evidencia a necessidade de colaboração entre setores na troca de inteligência de ameaças, padrões de proveniência de modelos e melhores práticas compartilhadas para evitar que vulnerabilidades de IA se espalhem para tecnologias financeiras e plataformas de ativos digitais.
O que monitorar a curto prazo
Atualizações públicas da Anthropic sobre descobertas, indicadores de comprometimento e marcos de remediação.
Esclarecimentos ou declarações de DeepSeek, Moonshot e Minimax sobre as alegações.
Novas diretrizes ou ações de fiscalização de legisladores voltadas a destilação estrangeira e controles de exportação de capacidades de IA.
Ferramentas de monitoramento aprimoradas e estratégias de controle de acesso adotadas por provedores de nuvem que hospedam modelos de IA de fronteira.
Pesquisas independentes que validem ou contestem os métodos utilizados para detectar padrões de destilação e a escala da atividade alegada.
** Aviso de risco e afiliados:** Os ativos cripto são voláteis e o capital está em risco. Este artigo pode conter links de afiliados.