Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
#TrumpordersfederalbanonAnthropicAI #TrumpOrdersFederalBanOnAnthropicAI Le paysage de l'intelligence artificielle entre dans une phase géopolitique décisive suite aux actions entreprises sous la direction de Donald Trump, qui a ordonné aux agences fédérales de suspendre l'utilisation opérationnelle des technologies développées par Anthropic. Ce qui semblait initialement être un différend d'approvisionnement s'est transformé en une confrontation stratégique plus large sur le contrôle ultime du déploiement de l'IA avancée dans les systèmes de défense nationale. Au cœur de la controverse se trouve le modèle phare d'Anthropic, Claude, et les limitations éthiques intégrées dans ses politiques d'utilisation militaire. Le PDG Dario Amodei a constamment maintenu des restrictions contre le déploiement dans des armes de destruction massive, des systèmes létaux autonomes et des infrastructures de surveillance de masse—des garde-fous qui, selon les rapports, ont été en conflit avec les attentes de défense évolutives du Pentagone et des responsables de la Maison Blanche. Suite à la critique publique, le secrétaire à la Défense Pete Hegseth a décidé de classer l'entreprise sous une désignation de risque de chaîne d'approvisionnement, déclenchant un désengagement obligatoire pour tous les contractants fédéraux et les entreprises alignées sur la défense. La décision inclut une période de transition structurée de six mois permettant aux agences de réduire progressivement leurs intégrations existantes tout en évaluant d'autres fournisseurs d'IA capables de respecter les normes de conformité en matière de défense sans restriction. Les observateurs du marché considèrent désormais cela comme un point d'inflexion déterminant où la gouvernance de l'IA, la doctrine de sécurité nationale et l'éthique d'entreprise se croisent à grande échelle. L'implication plus large dépasse une seule entreprise : les futurs contrats de défense pourraient de plus en plus privilégier des systèmes d'IA conçus avec des capacités de override souverain, garantissant la primauté du gouvernement dans les décisions de déploiement. Par ailleurs, les leaders de l'innovation font face à une pression croissante pour clarifier si les contraintes éthiques représentent une gestion responsable ou une friction stratégique à une époque où l'intelligence artificielle n'est plus considérée comme une infrastructure expérimentale—mais comme un levier géopolitique central.