Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Дослідження виявило упередженість ІІ-моделей до діалектів - ForkLog: криптовалюти, ІІ, сингулярність, майбутнє
Великі мовні моделі упереджено ставляться до носіїв діалектів, приписуючи їм негативні стереотипи. До такого висновку дійшли вчені з Німеччини та США, пише DW
Аналіз Університету імені Йоханнеса Гутенберга показав, що десять протестованих моделей, включаючи ChatGPT-5 mini і Llama 3.1, описували носіїв німецьких діалектів (баварського, кельнського) як «неграмотних», «працюючих на фермах» і «схильних до гніву».
Упередженість посилювалася, коли ІІ явно вказували на діалект.
Інші випадки
Аналогічні проблеми фіксують вчені глобально. У дослідженні Каліфорнійського університету в Берклі 2024 року порівнювали відповіді ChatGPT на різні діалекти англійської (індійський, ірландський, нігерійський)
Виявилося, що чат-бот відповідав на них із більш вираженими стереотипами, принизливим змістом і поблажливим тоном у порівнянні з зверненнями на стандартній американській або британській англійській
Аспірант Корнелльського університету США у галузі інформатики Емма Харві назвала упередженість щодо діалектів «значущою і тривожною»
Влітку 2025 року вона та її колеги також виявили, що ІІ-помічник для покупок Amazon Rufus давав розпливчасті або навіть неправильні відповіді людям, які писали на афроамериканському діалекті англійської. Якщо у запитах були помилки, модель відповідала грубо
Ще один наочний приклад упереджень нейромереж — ситуація з претендентом з Індії, який звернувся до ChatGPT для перевірки резюме англійською. В результаті чат-бот змінив його прізвище на те, що асоціюється з більш високою кастою
Однак криза не обмежується упередженістю — деякі моделі просто не розпізнають діалекти. Наприклад, у липні ІІ-помічник міської ради Дербі (Англія) не зміг розпізнати діалект радіоведучої, коли вона використовувала в прямому ефірі слова на кшталт mardy («нытик») і duck («дорогуша»)
Що робити?
Проблема полягає не в самих ІІ-моделях, а швидше в тому, як вони навчаються. Чат-боти читають гігантські обсяги текстів з інтернету, на основі яких потім дають відповіді
При цьому вона підкреслила, що у технології є перевага:
Деякі вчені пропонують як перевагу створювати кастомізовані моделі під конкретні діалекти. У серпні 2024 року компанія Acree AI вже представила модель Arcee-Meraj, яка працює з кількома арабськими діалектами
За словами Хольтерманн, появлення нових і більш адаптованих LLM дозволяє розглядати ІІ «не як ворога діалектів, а як недосконалий інструмент, який може вдосконалюватися».
Нагадаємо, журналісти The Economist попередили про ризики ІІ-іграшок для дитячої психіки