Нові дослідження показують, що політичні чат-боти на основі ШІ можуть впливати на виборців

Коротко

  • Дослідження в Nature та Science показали, що чат-боти зі штучним інтелектом зміщували вподобання виборців до 15%.
  • Дослідники виявили нерівномірну точність у різних політичних контекстах та зафіксували занепокоєння щодо упередженості.
  • Останнє опитування показало, що молодші консерватори найбільше довіряють ШІ.

Центр мистецтва, моди та розваг Decrypt.


Відкрийте SCENE

Нові дослідження Корнельського університету та Британського інституту безпеки ШІ виявили, що широко використовувані системи штучного інтелекту можуть змінити вподобання виборців у контрольованих умовах виборів до 15%.

Опубліковані в Science та Nature, ці результати з’явилися на тлі того, як уряди та дослідники вивчають, як ШІ може вплинути на майбутні виборчі цикли, в той час як розробники намагаються позбавити споживчі моделі упередженості.

«Існує велике суспільне занепокоєння щодо потенційного використання генеративного штучного інтелекту для політичного переконання та його впливу на вибори й демократію», — написали дослідники. «Ми інформуємо про ці занепокоєння, використовуючи попередньо зареєстровані експерименти для оцінки здатності великих мовних моделей впливати на ставлення виборців».

У дослідженні в Nature було протестовано майже 6 000 учасників у США, Канаді та Польщі. Учасники оцінювали політичного кандидата, спілкувалися з чат-ботом, що підтримував цього кандидата, і знову оцінювали кандидата.

У частині дослідження в США, яка охоплювала 2 300 осіб напередодні президентських виборів 2024 року, чат-бот підсилював ефект, коли збігався із заявленими вподобаннями учасника. Значніші зміни відбувалися, коли чат-бот підтримував кандидата, якого учасник раніше не підтримував. Дослідники повідомили про схожі результати в Канаді та Польщі.

У дослідженні також було виявлено, що повідомлення, зосереджені на політиці, мали сильніший переконуючий ефект, ніж повідомлення про особистість.

Точність варіювалася залежно від розмови, а чат-боти, що підтримували кандидатів з правими поглядами, робили більше неточних тверджень, ніж ті, що підтримували кандидатів з лівими поглядами.

«Ці результати мають неприємний наслідок: політичне переконання за допомогою ШІ може використовувати дисбаланси у знаннях моделей, поширюючи нерівномірні неточності навіть за явних інструкцій залишатися правдивими», — зазначили дослідники.

Окреме дослідження в Science розглядало причини виникнення переконання. У ньому було протестовано 19 мовних моделей із 76 977 дорослими у Великій Британії з понад 700 політичних питань.

«Широко поширені побоювання, що розмовний штучний інтелект незабаром зможе безпрецедентно впливати на людські переконання», — написали дослідники.

Вони виявили, що техніки підказування мали більший вплив на переконання, ніж розмір моделі. Підказки, які заохочували моделі вводити нову інформацію, підвищували переконливість, але зменшували точність.

«Підказка, яка спонукала LLM надавати нову інформацію, була найуспішнішою у переконанні людей», — йдеться у висновках дослідників.

Обидва дослідження були опубліковані на тлі оцінки аналітиками та аналітичними центрами того, як виборці сприймають ідею використання ШІ у державному управлінні.

Недавнє опитування Інституту Хартленду та Rasmussen Reports показало, що молодші консерватори частіше, ніж ліберали, готові віддати ШІ повноваження приймати ключові державні рішення. Респондентів віком від 18 до 39 років запитували, чи повинен ШІ допомагати формувати державну політику, тлумачити конституційні права або командувати основними військовими силами. Консерватори висловили найвищий рівень підтримки.

Дональд Кендал, директор Центру актуальних питань Гленна С. Хаскінса при Інституті Хартленду, зазначив, що виборці часто неправильно оцінюють нейтральність великих мовних моделей.

«Одна з речей, яку я намагаюся донести — це розвінчання ілюзії, що штучний інтелект є неупередженим. Він явно упереджений, і частково це пасивна упередженість», — сказав Кендал у коментарі Decrypt, додавши, що довіра до цих систем може бути хибною, оскільки їхня поведінка формується корпоративними рішеннями щодо навчання.

«Цими моделями займаються великі корпорації Кремнієвої долини, і ми вже бачили під час скандалів з цензурою у сфері технологій останніх років, що деякі компанії не соромились впливати на те, який контент поширюється на їхніх платформах», — додав він. — «Якщо подібний підхід застосовується у великих мовних моделях, то ми отримуємо упереджену модель».

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити