Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Anthropic a accusé les laboratoires d'IA chinois de « vol » de données - ForkLog : cryptomonnaies, IA, singularité, avenir
La société Anthropic a accusé trois startups chinoises d’IA — DeepSeek, Moonshot et MiniMax — d’une vaste campagne d’utilisation de Claude pour améliorer leurs propres modèles.
Les laboratoires en Chine ont généré plus de 16 millions d’interactions avec le chatbot via environ 24 000 comptes frauduleux, violant les conditions d’utilisation et les restrictions régionales.
Les entreprises ont utilisé la distillation — entraînement d’un réseau de neurones moins puissant à partir des conclusions d’un modèle plus fort.
C’est une méthode largement utilisée et légitime. Les principaux laboratoires d’IA distillent régulièrement leurs propres modèles pour créer des versions compactes et économiques pour leurs clients.
L’entreprise a souligné que la fenêtre pour réagir à ce type de « vol » est limitée, et que la menace dépasse une seule entreprise ou région. Pour y faire face, des actions rapides et coordonnées de l’industrie, des régulateurs et de la communauté mondiale de l’IA seront nécessaires.
Pourquoi cela est dangereux
Chez Anthropic, ils expliquent les risques liés à cette approche. Les modèles distillés illégalement ne conservent pas les mécanismes de protection nécessaires — cela pose des problèmes pour la sécurité nationale.
Les entreprises américaines mettent en place des systèmes pour empêcher l’utilisation de l’intelligence artificielle dans le développement d’armes biologiques, d’attaques cybernétiques malveillantes et d’autres actions dangereuses. Les modèles créés via une distillation illégale ne sont pas soumis à ces restrictions.
Les laboratoires étrangers peuvent intégrer des fonctionnalités non protégées dans des systèmes militaires et de renseignement, permettant aux gouvernements autoritaires d’utiliser l’IA de pointe pour des cyberattaques, de la désinformation et de la surveillance de masse, ont ajouté les entreprises.
Moyens de lutte
Les experts d’Anthropic soutiennent l’imposition de restrictions à l’exportation pour maintenir la domination des États-Unis dans l’IA. Selon eux, les attaques par distillation sapent ces mesures, permettant aux laboratoires étrangers de réduire l’écart technologique.
Anthropic a présenté ses propres méthodes de lutte :
Ce n’est pas la première accusation de ce genre. En janvier 2025, peu après la sortie explosive de DeepSeek-R1, l’entreprise a été soupçonnée de vol de données chez OpenAI.
Poursuite de la lutte contre le Pentagone
Le PDG d’Anthropic, Dario Amodei, rencontrera le secrétaire à la Défense, P. Hegset, au Pentagone pour discuter des moyens d’utiliser les modèles d’IA de l’entreprise par l’armée.
Récemment, des désaccords sont apparus — Anthropic s’oppose à l’utilisation de l’IA pour la surveillance de masse des citoyens américains et la création d’armes autonomes. Le ministère de la Défense a clairement indiqué qu’il prévoit d’utiliser les LLM « pour tous les scénarios légaux » sans restrictions.
Il en est même venu à déclarer qu’il pourrait résilier le contrat avec Anthropic.
Scanner de vulnérabilités IA
Les actions des principales entreprises publiques dans le domaine de la cybersécurité ont chuté après le lancement par Anthropic de Claude Code Security — un scanner de vulnérabilités dans le code basé sur l’IA.
Sur le site de l’entreprise, il est indiqué que ce nouveau service « analyse toute la base de code pour détecter les vulnérabilités, vérifie chaque détection pour minimiser les faux positifs et propose des correctifs ».
Claude effectue une analyse « comme un chercheur en sécurité expérimenté » : comprend le contexte, suit les flux de données, détecte les vulnérabilités.
Selon VentureBeat, Claude Opus 4.6 a identifié plus de 500 vulnérabilités critiques, présentes depuis des décennies malgré les vérifications d’experts.
Cinq des plus grandes entreprises américaines cotées en bourse dans le domaine de la sécurité informatique ont enregistré une baisse à deux chiffres de leurs cours ces cinq derniers jours, suite à l’arrivée d’un concurrent IA :
Rappelons qu’en février, OpenAI, en collaboration avec Paradigm, a présenté EVMbench — un benchmark pour évaluer la capacité des agents IA à détecter, corriger et exploiter les failles dans les contrats intelligents.