Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
New
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
#TrumpordersfederalbanonAnthropicAI
Етика штучного інтелекту проти національної безпеки: федеральний забор Anthropic
Напруга між етичними межами в AI та політикою національної безпеки досягла нового рівня з радикальним рішенням президента США Дональда Трампа щодо Anthropic. Ця подія розглядається не просто як обмеження діяльності однієї технологічної компанії, а як фундаментальне переосмислення балансу сил між державою та приватним сектором.
Конфлікт безпеки та автономії у технологіях
Адміністрація США запровадила всебічний заборонний режим на використання моделей штучного інтелекту, розроблених Anthropic, у федеральних агентствах. У центрі цього рішення — відмова компанії дозволити використання своєї моделі AI, Claude, у військових та національно безпекових операціях без обмежень. Вирішальність Anthropic у збереженні етичних "червоних ліній" — особливо щодо повністю автономних озброєнь та масового спостереження — поставила її у прямий конфлікт із вимогами уряду щодо "необмеженого доступу для національної безпеки".
Позначення ризику для національної безпеки та економічні наслідки
Міністерство оборони офіційно визначило Anthropic як "ризик для ланцюга постачань у національну безпеку", надавши компанії статус, раніше майже виключно зарезервований для іноземних противників. Хоча цей крок дає федеральним агентствам шість місяців для очищення своїх систем від технологій Anthropic, він також забороняє військовим підрядникам співпрацювати з компанією. Генеральний директор Anthropic Даріо Амодей описав ситуацію як "найамериканськіший акт", що можливий у рамках захисту свободи слова та демократичних цінностей, і оголосив про намір подати юридичний позов проти цього рішення.
Нові динаміки у гонці AI
Цей заборонний режим відкрив нову еру для інших гігантів галузі. З відстороненням Anthropic, стосунки інших технологічних лідерів, таких як OpenAI і Google, із Пентагоном опинилися під пильним контролем. Зокрема, крок OpenAI щодо укладення нової угоди з урядом, незважаючи на подібні етичні застереження, підживлює дебати про те, як буде встановлено баланс між "етикою та безпекою" у секторі.
Жорстка позиція уряду свідчить про те, що розробники AI тепер мають пріоритетно враховувати геополітичну відповідність поряд із технологічними інноваціями. Питання про те, чи зможуть компанії ставити свої етичні принципи вище за стратегічні потреби держави, залишатиметься одним із найважливіших юридичних і технологічних дебатів наступного періоду.