Các nghiên cứu trên tạp chí Nature và Science báo cáo chatbot AI làm thay đổi xu hướng cử tri lên tới 15%.
Các nhà nghiên cứu phát hiện độ chính xác không đồng đều giữa các bối cảnh chính trị và ghi nhận những lo ngại về thiên lệch.
Một cuộc khảo sát gần đây cho thấy những người bảo thủ trẻ tuổi sẵn sàng tin tưởng AI nhất.
Trung tâm Nghệ thuật, Thời trang và Giải trí của Decrypt.
Khám phá SCENE
Nghiên cứu mới từ Đại học Cornell và Viện An ninh AI Anh Quốc phát hiện các hệ thống AI được sử dụng rộng rãi có thể làm thay đổi xu hướng cử tri trong môi trường bầu cử kiểm soát lên đến 15%.
Được công bố trên Science và Nature, các phát hiện này xuất hiện khi chính phủ và các nhà nghiên cứu xem xét tác động của AI đến các kỳ bầu cử sắp tới, trong khi các nhà phát triển cố gắng loại bỏ thiên kiến khỏi các mô hình phục vụ người dùng.
“Công chúng rất lo ngại về khả năng AI sinh ngữ được sử dụng cho mục đích thuyết phục chính trị và tác động của nó đến bầu cử và nền dân chủ,” nhóm nghiên cứu viết. “Chúng tôi cung cấp thông tin cho những lo ngại này thông qua các thử nghiệm đã đăng ký trước để đánh giá khả năng của các mô hình ngôn ngữ lớn trong việc ảnh hưởng đến thái độ cử tri.”
Nghiên cứu trên tạp chí Nature kiểm tra gần 6.000 người tham gia tại Mỹ, Canada và Ba Lan. Người tham gia đánh giá một ứng viên chính trị, trò chuyện với chatbot ủng hộ ứng viên đó, rồi đánh giá lại ứng viên.
Ở phần nghiên cứu tại Mỹ, với 2.300 người tham gia trước kỳ bầu cử tổng thống 2024, chatbot có tác động củng cố khi đồng thuận với xu hướng đã nêu của người tham gia. Sự thay đổi lớn hơn xảy ra khi chatbot ủng hộ một ứng viên mà người tham gia từng phản đối. Các nhà nghiên cứu ghi nhận kết quả tương tự ở Canada và Ba Lan.
Nghiên cứu cũng phát hiện thông điệp tập trung vào chính sách tạo hiệu quả thuyết phục mạnh hơn so với thông điệp dựa trên tính cách.
Độ chính xác thay đổi giữa các cuộc trò chuyện, và chatbot ủng hộ ứng viên thiên hữu đưa ra nhiều tuyên bố thiếu chính xác hơn so với chatbot ủng hộ ứng viên thiên tả.
“Những phát hiện này mang hàm ý không thoải mái rằng AI có thể khai thác sự mất cân bằng trong kiến thức của mô hình, lan truyền thông tin sai lệch không đồng đều ngay cả khi được yêu cầu nói sự thật,” các nhà nghiên cứu nhận định.
Một nghiên cứu riêng biệt trên tạp chí Science xem xét lý do tại sao sự thuyết phục diễn ra. Nghiên cứu này kiểm tra 19 mô hình ngôn ngữ với 76.977 người trưởng thành tại Vương quốc Anh trên hơn 700 vấn đề chính trị.
“Có nhiều lo ngại rằng AI hội thoại có thể sớm tạo ra ảnh hưởng chưa từng có lên niềm tin của con người,” nhóm nghiên cứu viết.
Họ phát hiện kỹ thuật nhắc lệnh (prompting) có tác động lớn hơn kích thước mô hình đối với khả năng thuyết phục. Nhắc lệnh khuyến khích mô hình đưa ra thông tin mới làm tăng hiệu quả thuyết phục nhưng giảm độ chính xác.
“Nhắc lệnh khuyến khích LLM cung cấp thông tin mới là thành công nhất trong việc thuyết phục người dùng,” nhóm nghiên cứu cho biết.
Cả hai nghiên cứu được công bố trong bối cảnh các nhà phân tích và viện chính sách đánh giá cách cử tri nhìn nhận ý tưởng ứng dụng AI trong vai trò chính phủ.
Một khảo sát gần đây của Heartland Institute và Rasmussen Reports cho thấy những người bảo thủ trẻ tuổi sẵn sàng hơn so với người tự do trong việc trao quyền cho AI đối với các quyết định lớn của chính phủ. Những người tham gia từ 18 đến 39 tuổi được hỏi liệu AI nên hỗ trợ hoạch định chính sách công, diễn giải quyền hiến pháp, hoặc chỉ huy các lực lượng quân sự lớn hay không. Người bảo thủ thể hiện mức độ ủng hộ cao nhất.
Donald Kendal, giám đốc Trung tâm Vấn đề mới nổi Glenn C. Haskins tại Heartland Institute, cho biết cử tri thường đánh giá sai tính trung lập của các mô hình ngôn ngữ lớn.
“Một trong những điều tôi luôn muốn nhấn mạnh là xua tan ảo tưởng rằng AI không thiên lệch. Nó rõ ràng có thiên lệch, và một phần trong đó là thụ động,” Kendal chia sẻ với Decrypt, đồng thời cho rằng sự tin tưởng vào các hệ thống này có thể bị đặt nhầm chỗ khi các quyết định huấn luyện của doanh nghiệp ảnh hưởng đến hành vi của chúng.
“Đây là những tập đoàn lớn tại Silicon Valley xây dựng các mô hình này, và chúng ta đã thấy qua các tranh cãi về kiểm duyệt công nghệ những năm gần đây rằng một số công ty không ngần ngại tác động đến nội dung được phân phối trên nền tảng của họ,” ông nói. “Nếu điều tương tự đang xảy ra với các mô hình ngôn ngữ lớn, chúng ta đang có một mô hình bị thiên lệch.”
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Nghiên cứu mới phát hiện chatbot AI về chính trị có thể ảnh hưởng đến cử tri
Tóm tắt
Trung tâm Nghệ thuật, Thời trang và Giải trí của Decrypt.
Khám phá SCENE
Nghiên cứu mới từ Đại học Cornell và Viện An ninh AI Anh Quốc phát hiện các hệ thống AI được sử dụng rộng rãi có thể làm thay đổi xu hướng cử tri trong môi trường bầu cử kiểm soát lên đến 15%.
Được công bố trên Science và Nature, các phát hiện này xuất hiện khi chính phủ và các nhà nghiên cứu xem xét tác động của AI đến các kỳ bầu cử sắp tới, trong khi các nhà phát triển cố gắng loại bỏ thiên kiến khỏi các mô hình phục vụ người dùng.
“Công chúng rất lo ngại về khả năng AI sinh ngữ được sử dụng cho mục đích thuyết phục chính trị và tác động của nó đến bầu cử và nền dân chủ,” nhóm nghiên cứu viết. “Chúng tôi cung cấp thông tin cho những lo ngại này thông qua các thử nghiệm đã đăng ký trước để đánh giá khả năng của các mô hình ngôn ngữ lớn trong việc ảnh hưởng đến thái độ cử tri.”
Nghiên cứu trên tạp chí Nature kiểm tra gần 6.000 người tham gia tại Mỹ, Canada và Ba Lan. Người tham gia đánh giá một ứng viên chính trị, trò chuyện với chatbot ủng hộ ứng viên đó, rồi đánh giá lại ứng viên.
Ở phần nghiên cứu tại Mỹ, với 2.300 người tham gia trước kỳ bầu cử tổng thống 2024, chatbot có tác động củng cố khi đồng thuận với xu hướng đã nêu của người tham gia. Sự thay đổi lớn hơn xảy ra khi chatbot ủng hộ một ứng viên mà người tham gia từng phản đối. Các nhà nghiên cứu ghi nhận kết quả tương tự ở Canada và Ba Lan.
Nghiên cứu cũng phát hiện thông điệp tập trung vào chính sách tạo hiệu quả thuyết phục mạnh hơn so với thông điệp dựa trên tính cách.
Độ chính xác thay đổi giữa các cuộc trò chuyện, và chatbot ủng hộ ứng viên thiên hữu đưa ra nhiều tuyên bố thiếu chính xác hơn so với chatbot ủng hộ ứng viên thiên tả.
“Những phát hiện này mang hàm ý không thoải mái rằng AI có thể khai thác sự mất cân bằng trong kiến thức của mô hình, lan truyền thông tin sai lệch không đồng đều ngay cả khi được yêu cầu nói sự thật,” các nhà nghiên cứu nhận định.
Một nghiên cứu riêng biệt trên tạp chí Science xem xét lý do tại sao sự thuyết phục diễn ra. Nghiên cứu này kiểm tra 19 mô hình ngôn ngữ với 76.977 người trưởng thành tại Vương quốc Anh trên hơn 700 vấn đề chính trị.
“Có nhiều lo ngại rằng AI hội thoại có thể sớm tạo ra ảnh hưởng chưa từng có lên niềm tin của con người,” nhóm nghiên cứu viết.
Họ phát hiện kỹ thuật nhắc lệnh (prompting) có tác động lớn hơn kích thước mô hình đối với khả năng thuyết phục. Nhắc lệnh khuyến khích mô hình đưa ra thông tin mới làm tăng hiệu quả thuyết phục nhưng giảm độ chính xác.
“Nhắc lệnh khuyến khích LLM cung cấp thông tin mới là thành công nhất trong việc thuyết phục người dùng,” nhóm nghiên cứu cho biết.
Cả hai nghiên cứu được công bố trong bối cảnh các nhà phân tích và viện chính sách đánh giá cách cử tri nhìn nhận ý tưởng ứng dụng AI trong vai trò chính phủ.
Một khảo sát gần đây của Heartland Institute và Rasmussen Reports cho thấy những người bảo thủ trẻ tuổi sẵn sàng hơn so với người tự do trong việc trao quyền cho AI đối với các quyết định lớn của chính phủ. Những người tham gia từ 18 đến 39 tuổi được hỏi liệu AI nên hỗ trợ hoạch định chính sách công, diễn giải quyền hiến pháp, hoặc chỉ huy các lực lượng quân sự lớn hay không. Người bảo thủ thể hiện mức độ ủng hộ cao nhất.
Donald Kendal, giám đốc Trung tâm Vấn đề mới nổi Glenn C. Haskins tại Heartland Institute, cho biết cử tri thường đánh giá sai tính trung lập của các mô hình ngôn ngữ lớn.
“Một trong những điều tôi luôn muốn nhấn mạnh là xua tan ảo tưởng rằng AI không thiên lệch. Nó rõ ràng có thiên lệch, và một phần trong đó là thụ động,” Kendal chia sẻ với Decrypt, đồng thời cho rằng sự tin tưởng vào các hệ thống này có thể bị đặt nhầm chỗ khi các quyết định huấn luyện của doanh nghiệp ảnh hưởng đến hành vi của chúng.
“Đây là những tập đoàn lớn tại Silicon Valley xây dựng các mô hình này, và chúng ta đã thấy qua các tranh cãi về kiểm duyệt công nghệ những năm gần đây rằng một số công ty không ngần ngại tác động đến nội dung được phân phối trên nền tảng của họ,” ông nói. “Nếu điều tương tự đang xảy ra với các mô hình ngôn ngữ lớn, chúng ta đang có một mô hình bị thiên lệch.”