Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Nghiên cứu phát hiện ra thành kiến của các mô hình AI đối với các phương ngữ - ForkLog: tiền điện tử, AI, siêu việt, tương lai
Các mô hình ngôn ngữ lớn có xu hướng thành kiến đối với người nói phương ngữ, gán cho họ các định kiến tiêu cực. Các nhà khoa học từ Đức và Mỹ đã đi đến kết luận này, theo DW
Phân tích của Đại học Johannes Gutenberg cho thấy, mười mô hình thử nghiệm, bao gồm ChatGPT-5 mini và Llama 3.1, mô tả người nói phương ngữ Đức (bavarian) và (Kölner) là “kém học thức”, “làm việc trên các trang trại” và “dễ nổi giận”.
Thành kiến càng rõ rệt hơn khi AI rõ ràng chỉ ra phương ngữ.
Các trường hợp khác
Các vấn đề tương tự cũng được các nhà khoa học ghi nhận trên toàn cầu. Trong nghiên cứu của Đại học California tại Berkeley năm 2024, phản hồi của ChatGPT về các phương ngữ tiếng Anh khác nhau (tiếng Ấn, tiếng Ireland, tiếng Nigeria) đã được so sánh.
Kết quả cho thấy, chatbot phản hồi với các phương ngữ này mang nhiều định kiến hơn, nội dung xúc phạm và giọng điệu khinh thường so với phản hồi bằng tiếng Anh tiêu chuẩn của Mỹ hoặc Anh.
Nghiên cứu sinh của Đại học Cornell, Mỹ, chuyên ngành khoa học máy tính, Emma Harvey, gọi thành kiến đối với phương ngữ là “có ý nghĩa và đáng lo ngại”.
Vào mùa hè năm 2025, cô cùng các đồng nghiệp cũng phát hiện ra rằng trợ lý mua sắm AI của Amazon, Rufus, đưa ra các câu trả lời mơ hồ hoặc thậm chí sai lệch cho những người viết bằng phương ngữ tiếng Anh của người Mỹ gốc Phi. Nếu có lỗi trong yêu cầu, mô hình phản hồi một cách thô lỗ.
Một ví dụ khác về thành kiến của mạng neural là trường hợp của ứng viên người Ấn Độ, đã sử dụng ChatGPT để kiểm tra sơ yếu lý lịch bằng tiếng Anh. Kết quả, chatbot đã thay đổi họ của anh ta thành một họ liên kết với tầng lớp cao hơn.
Tuy nhiên, cuộc khủng hoảng không chỉ dừng lại ở thành kiến — một số mô hình đơn giản là không nhận diện được các phương ngữ. Ví dụ, vào tháng 7, trợ lý AI của Hội đồng thành phố Derby (Anh) đã không thể nhận diện phương ngữ của người dẫn chương trình phát thanh khi cô sử dụng các từ như mardy (“kẻ hay cáu”) và duck “người thân yêu” trong phát sóng trực tiếp.
Nên làm gì?
Vấn đề không nằm ở chính các mô hình AI, mà chủ yếu ở cách chúng được huấn luyện. Các chatbot đọc hàng tỷ văn bản từ internet, dựa trên đó để đưa ra câu trả lời.
Bà cũng nhấn mạnh rằng công nghệ có lợi thế:
Một số nhà khoa học đề xuất tạo ra các mô hình tùy chỉnh phù hợp với từng phương ngữ cụ thể. Tháng 8 năm 2024, công ty Acree AI đã giới thiệu mô hình Arcee-Meraj, hoạt động với nhiều phương ngữ Ả Rập.
Theo Holtermann, sự xuất hiện của các LLM mới và phù hợp hơn cho phép xem AI “không phải là kẻ thù của phương ngữ, mà là một công cụ chưa hoàn thiện, có thể được cải tiến”.
Nhắc lại, các nhà báo của The Economist đã cảnh báo về rủi ro của các trò chơi AI đối với tâm lý trẻ em.