Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
🇺🇸 FLASH : Trump ordonne une interdiction fédérale de l'IA Anthropic 🚫🤖
Le 27 février 2026, le président américain Donald Trump a publié une directive générale ordonnant à chaque agence fédérale du gouvernement des États-Unis d’arrêter immédiatement d’utiliser la technologie d’intelligence artificielle développée par Anthropic, la startup derrière le système d’IA connu sous le nom de Claude. Trump a décrit la direction d’Anthropic comme « de gauche » et a déclaré que le refus de l’entreprise de céder complètement le contrôle sur l’utilisation de son IA mettait en danger la sécurité nationale américaine. �
mint
📌 Que s’est-il passé ?
Interdiction fédérale émise : Trump a déclaré que toutes les agences fédérales doivent « CESSER IMMÉDIATEMENT » toute utilisation des produits d’IA d’Anthropic. Des agences comme le Département de la Défense ont bénéficié d’une période de transition de six mois pour retirer Claude des systèmes où il est déjà profondément intégré. �
mint
Raison de l’interdiction : La décision découle d’un différend public entre Anthropic et le Pentagone concernant l’utilisation de Claude dans les opérations militaires. Le gouvernement américain voulait une utilisation sans restriction de l’IA pour tous « usages légaux », tandis qu’Anthropic insistait sur des garanties éthiques, refusant de permettre que son IA soit utilisée pour la surveillance de masse intérieure ou des systèmes d’armes entièrement autonomes. �
Business Standard
Étiquette de risque pour la sécurité nationale : Le Pentagone, dirigé par le secrétaire Pete Hegseth, a qualifié Anthropic de « risque pour la chaîne d’approvisionnement de la sécurité nationale » — une classification généralement réservée aux adversaires étrangers comme Huawei. Cette désignation pourrait empêcher les contractants militaires et partenaires de faire affaire avec l’entreprise. �
Free Press Journal
🧠 Pourquoi cela est-il important ?
Conflit sans précédent : C’est l’un des affrontements publics les plus dramatiques entre le gouvernement américain et une grande entreprise d’IA. Auparavant, les désaccords entre agences fédérales et entreprises technologiques privées étaient généralement privés ou derrière des portes closes ; celui-ci s’est déroulé sur les réseaux sociaux et dans les gros titres. �
Defense News
Éthique vs. Demande militaire : Au cœur du conflit se trouve un désaccord fondamental sur l’utilisation de l’IA. La direction d’Anthropic soutient que ses limites de sécurité sont nécessaires pour prévenir la mauvaise utilisation d’une IA puissante, notamment pour la surveillance ou les armes autonomes. Le Pentagone, cependant, affirme qu’il doit avoir toute latitude pour déployer l’IA où il le juge utile pour la défense nationale. �
mint
Conséquences juridiques et industrielles : Anthropic a promis de contester l’interdiction fédérale devant la justice, qualifiant la désignation de risque pour la chaîne d’approvisionnement d’« inédite » et juridiquement infondée. Les entreprises technologiques et les chercheurs en IA suivent cela de près, car cela pourrait établir un précédent majeur sur la façon dont les gouvernements et les entreprises d’IA négocient les politiques de sécurité. �
Business Standard
🧩 Ce que cela signifie pour l’avenir
Systèmes militaires et gouvernementaux : Les agences doivent progressivement éliminer l’IA d’Anthropic en six mois, une tâche complexe car Claude est déjà intégré dans de nombreux outils utilisés pour le renseignement, la planification et l’analyse. �
mint
Impact sur les affaires et la technologie : L’interdiction pourrait suspendre les contrats de défense et fédéraux d’Anthropic d’une valeur de centaines de millions de dollars, remodeler l’opinion publique sur les entreprises d’IA, et influencer la manière dont les futurs débats sur la sécurité et l’éthique de l’IA seront gérés au niveau fédéral. �
Business Standard