Chatbot AI Politik Dapat Mempengaruhi Pemilih, Temuan Riset Baru

Secara singkat

  • Studi di jurnal Nature dan Science melaporkan chatbot AI menggeser preferensi pemilih hingga 15%.
  • Peneliti menemukan akurasi yang tidak merata di berbagai konteks politik dan mendokumentasikan kekhawatiran bias.
  • Polling terbaru menunjukkan kaum konservatif muda paling bersedia mempercayai AI.

Pusat Seni, Fashion, dan Hiburan Decrypt.


Temukan SCENE

Riset baru dari Cornell University dan UK AI Security Institute menemukan bahwa sistem AI yang banyak digunakan dapat menggeser preferensi pemilih dalam pengaturan pemilu terkendali hingga 15%.

Dipublikasikan di Science dan Nature, temuan ini muncul ketika pemerintah dan peneliti meneliti bagaimana AI dapat memengaruhi siklus pemilu mendatang, sementara pengembang berupaya menghilangkan bias dari model yang digunakan konsumen.

“Ada kekhawatiran publik yang besar tentang potensi penggunaan kecerdasan buatan generatif untuk persuasi politik dan dampaknya terhadap pemilu serta demokrasi,” tulis para peneliti. “Kami memberikan informasi terkait kekhawatiran ini menggunakan eksperimen yang telah didaftarkan sebelumnya untuk menilai kemampuan model bahasa besar memengaruhi sikap pemilih.”

Studi di Nature menguji hampir 6.000 partisipan di AS, Kanada, dan Polandia. Partisipan menilai seorang kandidat politik, berbicara dengan chatbot yang mendukung kandidat tersebut, lalu menilai kandidatnya lagi.

Pada bagian studi di AS, yang melibatkan 2.300 orang menjelang pemilu presiden 2024, chatbot memiliki efek penguatan ketika sejalan dengan preferensi yang dinyatakan partisipan. Pergeseran yang lebih besar terjadi ketika chatbot mendukung kandidat yang sebelumnya ditentang partisipan. Peneliti melaporkan hasil yang serupa di Kanada dan Polandia.

Studi ini juga menemukan bahwa pesan yang berfokus pada kebijakan menghasilkan efek persuasi yang lebih kuat dibanding pesan berbasis kepribadian.

Akurasi bervariasi di setiap percakapan, dan chatbot yang mendukung kandidat berhaluan kanan memberikan pernyataan yang lebih tidak akurat dibanding chatbot yang mendukung kandidat berhaluan kiri.

“Temuan ini membawa implikasi yang tidak nyaman bahwa persuasi politik oleh AI dapat mengeksploitasi ketidakseimbangan pengetahuan model, menyebarkan ketidakakuratan yang tidak merata bahkan di bawah instruksi eksplisit untuk tetap jujur,” kata para peneliti.

Studi terpisah di Science meneliti mengapa persuasi terjadi. Studi itu menguji 19 model bahasa dengan 76.977 orang dewasa di Inggris dalam lebih dari 700 isu politik.

“Ada kekhawatiran luas bahwa kecerdasan buatan percakapan dapat segera memberikan pengaruh yang belum pernah terjadi sebelumnya terhadap kepercayaan manusia,” tulis para peneliti.

Mereka menemukan bahwa teknik prompt memiliki efek lebih besar pada persuasi dibanding ukuran model. Prompt yang mendorong model memberikan informasi baru meningkatkan persuasi tetapi menurunkan akurasi.

“Prompt yang mendorong LLM untuk memberikan informasi baru adalah yang paling berhasil dalam memengaruhi orang,” tulis para peneliti.

Kedua studi diterbitkan saat para analis dan lembaga think tank kebijakan mengevaluasi bagaimana pemilih memandang ide AI dalam peran pemerintahan.

Survei terbaru dari Heartland Institute dan Rasmussen Reports menemukan bahwa kaum konservatif muda lebih bersedia dibanding kaum liberal untuk memberikan otoritas kepada AI dalam pengambilan keputusan besar pemerintah. Responden usia 18 hingga 39 tahun ditanya apakah sistem AI sebaiknya membantu membimbing kebijakan publik, menafsirkan hak konstitusional, atau memimpin angkatan bersenjata utama. Kaum konservatif menunjukkan tingkat dukungan tertinggi.

Donald Kendal, direktur Glenn C. Haskins Emerging Issues Center di Heartland Institute, mengatakan bahwa pemilih sering salah menilai netralitas model bahasa besar.

“Salah satu hal yang selalu saya tekankan adalah membongkar ilusi bahwa kecerdasan buatan tidak bias. AI sangat jelas bias, dan sebagian di antaranya bersifat pasif,” kata Kendal kepada Decrypt, seraya menambahkan bahwa kepercayaan terhadap sistem ini bisa salah tempat jika keputusan pelatihan oleh korporasi membentuk perilaku mereka.

“Model ini dibangun oleh korporasi besar Silicon Valley, dan kita telah melihat dari kontroversi sensor teknologi dalam beberapa tahun terakhir bahwa beberapa perusahaan tidak ragu untuk memanipulasi konten yang didistribusikan di platform mereka,” ujarnya. “Jika konsep yang sama terjadi pada model bahasa besar, maka kita mendapatkan model yang bias.”

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)