Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Anthropic cáo buộc các phòng thí nghiệm AI của Trung Quốc về việc "ăn cắp" dữ liệu - ForkLog: tiền điện tử, AI, siêu trí tuệ, tương lai
Công ty Anthropic đã cáo buộc ba startup AI Trung Quốc — DeepSeek, Moonshot và MiniMax — trong một chiến dịch quy mô lớn sử dụng Claude để cải thiện các mô hình của riêng họ.
Các phòng thí nghiệm từ Trung Quốc đã tạo ra hơn 16 triệu tương tác với chatbot qua khoảng 24.000 tài khoản lừa đảo, vi phạm điều khoản sử dụng và hạn chế khu vực.
Các công ty đã áp dụng phương pháp distillation — huấn luyện một mạng nơ-ron ít mạnh hơn dựa trên kết luận của mạng mạnh hơn.
Đây là phương pháp phổ biến và hợp pháp. Các phòng thí nghiệm AI hàng đầu thường xuyên distill các mô hình của chính họ để tạo ra các phiên bản nhỏ gọn, rẻ hơn cho khách hàng.
Công ty nhấn mạnh rằng cửa sổ để phản ứng với “ăn cắp” như vậy là hẹp, và mối đe dọa vượt ra ngoài một công ty hoặc khu vực. Để khắc phục, cần có các hành động nhanh chóng và phối hợp từ ngành công nghiệp, các cơ quan quản lý và cộng đồng AI toàn cầu.
Tại sao điều này nguy hiểm
Anthropic giải thích các rủi ro của phương pháp này. Các mô hình distillation trái phép không giữ các cơ chế bảo vệ cần thiết — điều này gây ra vấn đề về an ninh quốc gia.
Các công ty Mỹ đang triển khai hệ thống để ngăn chặn việc sử dụng trí tuệ nhân tạo trong phát triển vũ khí sinh học, các cuộc tấn công mạng độc hại và các hành động nguy hiểm khác. Các mô hình được tạo ra qua distillation trái phép không có các hạn chế này.
Các phòng thí nghiệm nước ngoài có thể tích hợp các khả năng không được bảo vệ vào các hệ thống quân sự và tình báo, cho phép các chính phủ độc tài sử dụng AI tiên tiến để tấn công mạng, gây nhiễu thông tin và giám sát quy mô lớn, các công ty bổ sung.
Các phương pháp đối phó
Các chuyên gia của Anthropic ủng hộ các hạn chế xuất khẩu để duy trì vị thế dẫn đầu của Mỹ trong lĩnh vực AI. Theo họ, các cuộc tấn công distillation phá vỡ các biện pháp này, cho phép các phòng thí nghiệm nước ngoài rút ngắn khoảng cách công nghệ.
Anthropic đã đề xuất các phương pháp đối phó của riêng mình:
Đây không phải là lần đầu tiên có cáo buộc như vậy. Vào tháng 1 năm 2025, ngay sau khi DeepSeek-R1 ra mắt đột ngột, công ty này đã bị nghi ngờ ăn cắp dữ liệu của OpenAI.
Tiếp tục cuộc chiến với Pentagon
CEO của Anthropic, Dario Amodei, sẽ gặp Bộ trưởng Quốc phòng Pita Hegset tại Pentagon để thảo luận về các cách sử dụng các mô hình AI của công ty trong quân đội.
Gần đây, giữa hai bên đã xuất hiện những bất đồng — Anthropic phản đối việc sử dụng trí tuệ nhân tạo để giám sát quy mô lớn công dân Mỹ và tạo ra vũ khí tự hành. Bộ Quốc phòng rõ ràng cho biết họ dự định sử dụng LLM “cho tất cả các kịch bản hợp pháp” mà không có hạn chế.
Đến mức Pentagon đã tuyên bố có thể chấm dứt hợp đồng với Anthropic.
Máy quét lỗ hổng AI
Cổ phiếu của các công ty công nghệ an ninh mạng hàng đầu đã giảm sau khi Anthropic ra mắt công cụ Claude Code Security — một máy quét lỗ hổng trong mã nguồn.
Trang web của công ty cho biết dịch vụ mới “phân tích toàn bộ cơ sở mã để phát hiện lỗ hổng, kiểm tra từng phát hiện để giảm thiểu báo động giả và đề xuất các sửa chữa.”
Claude thực hiện phân tích “như một nhà nghiên cứu an ninh giàu kinh nghiệm”: hiểu ngữ cảnh, theo dõi luồng dữ liệu, phát hiện lỗ hổng.
Theo VentureBeat, Claude Opus 4.6 đã phát hiện hơn 500 lỗ hổng nghiêm trọng, tồn tại hàng thập kỷ bất chấp các kiểm tra của chuyên gia.
Năm công ty Mỹ lớn nhất về an ninh mạng đã giảm giá cổ phiếu hai chữ số trong năm ngày qua do sự xuất hiện của đối thủ AI:
Nhắc lại, vào tháng 2, OpenAI cùng Paradigm đã giới thiệu EVMbench — một chuẩn đánh giá khả năng của các AI trong việc phát hiện, sửa chữa và khai thác các lỗ hổng trong hợp đồng thông minh.