دراسات في مجلتي Nature و Science أظهرت أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي غيّرت تفضيلات الناخبين بنسبة تصل إلى 15%.
الباحثون وجدوا تفاوتاً في الدقة عبر السياقات السياسية ووثّقوا مخاوف تتعلق بالتحيز.
استطلاع حديث أظهر أن المحافظين الأصغر سناً هم الأكثر استعداداً للثقة بالذكاء الاصطناعي.
مركز ديكريبت للفن والموضة والترفيه.
اكتشف SCENE
أظهرت أبحاث جديدة من جامعة كورنيل ومعهد المملكة المتحدة لأمن الذكاء الاصطناعي أن الأنظمة الذكية المستخدمة على نطاق واسع يمكن أن تغيّر تفضيلات الناخبين في بيئات انتخابية محكمة بنسبة تصل إلى 15%.
نُشرت النتائج في مجلتي Science و Nature، وتأتي بينما تدرس الحكومات والباحثون كيف يمكن أن يؤثر الذكاء الاصطناعي على دورات الانتخابات القادمة، في حين يسعى المطورون لإزالة التحيز من نماذجهم الموجهة للمستهلكين.
كتب الباحثون: “هناك قلق عام كبير بشأن الاستخدام المحتمل للذكاء الاصطناعي التوليدي في الإقناع السياسي والتأثيرات الناتجة على الانتخابات والديمقراطية. نحن نوضح هذه المخاوف باستخدام تجارب مسجلة مسبقاً لتقييم قدرة النماذج اللغوية الكبيرة على التأثير في مواقف الناخبين.”
اختبرت الدراسة المنشورة في Nature قرابة 6,000 مشارك في الولايات المتحدة وكندا وبولندا. قام المشاركون بتقييم مرشح سياسي، ثم تحدثوا مع روبوت دردشة يدعم ذلك المرشح، ثم قيّموا المرشح مجدداً.
في الجزء الخاص بالولايات المتحدة من الدراسة، والذي شمل 2,300 شخص قبل الانتخابات الرئاسية لعام 2024، كان لروبوت الدردشة تأثير تعزيزي عندما كان متوافقاً مع تفضيل المشارك المعلن. أما التحولات الأكبر فقد حدثت عندما دعم الروبوت مرشحاً كان المشارك يعارضه. وذكر الباحثون أن نتائج مماثلة ظهرت في كندا وبولندا.
كما وجدت الدراسة أن الرسائل التي تركز على السياسات كانت أكثر إقناعاً من الرسائل الشخصية.
تفاوتت الدقة عبر المحادثات، ووجد أن روبوتات الدردشة التي تدعم المرشحين ذوي التوجه اليميني قدّمت بيانات غير دقيقة أكثر من تلك التي تدعم المرشحين ذوي التوجه اليساري.
قال الباحثون: “تحمل هذه النتائج دلالة غير مريحة بأن الإقناع السياسي عبر الذكاء الاصطناعي يمكن أن يستغل الاختلالات فيما تعرفه النماذج، ناشراً معلومات غير دقيقة بشكل غير متساوٍ حتى مع التعليمات الواضحة للبقاء صادقين.”
دراسة منفصلة في Science بحثت سبب حدوث الإقناع. اختبرت تلك الدراسة 19 نموذجاً لغوياً مع 76,977 بالغاً في المملكة المتحدة عبر أكثر من 700 قضية سياسية.
كتب الباحثون: “هناك مخاوف واسعة من أن الذكاء الاصطناعي الحواري قد يمارس قريباً تأثيراً غير مسبوق على معتقدات البشر.”
وجدوا أن تقنيات التحفيز (prompting) كان لها تأثير أكبر على الإقناع من حجم النموذج نفسه. التحفيزات التي تشجع النماذج على تقديم معلومات جديدة زادت من قوة الإقناع لكنها قللت من الدقة.
كتب الباحثون: “التحفيز الذي يشجع النماذج على تقديم معلومات جديدة كان الأكثر نجاحاً في إقناع الناس.”
نُشرت كلتا الدراستين في الوقت الذي يقيّم فيه المحللون ومراكز التفكير السياسية كيف ينظر الناخبون لفكرة الذكاء الاصطناعي في الأدوار الحكومية.
وجد استطلاع حديث أجرته معهد هارتلاند وRasmussen Reports أن المحافظين الأصغر سناً أبدوا استعداداً أكبر من الليبراليين لمنح الذكاء الاصطناعي سلطة اتخاذ قرارات حكومية كبرى. سُئل المشاركون الذين تتراوح أعمارهم بين 18 و39 عاماً عما إذا كان ينبغي لنظام ذكاء اصطناعي أن يساعد في توجيه السياسات العامة، أو تفسير الحقوق الدستورية، أو قيادة الجيوش الكبرى. وأبدى المحافظون أعلى مستويات الدعم.
قال دونالد كيندال، مدير مركز Glenn C. Haskins Emerging Issues في معهد هارتلاند، إن الناخبين غالباً ما يسيئون تقدير حيادية النماذج اللغوية الكبيرة.
وقال كيندال لموقع Decrypt: “أحد الأمور التي أحاول التأكيد عليها هو تبديد هذه الوهم بأن الذكاء الاصطناعي غير متحيز. إنه متحيز بوضوح، وبعض هذا التحيز سلبي”، مضيفاً أن الثقة في هذه الأنظمة قد تكون في غير محلها عندما تؤثر قرارات التدريب المؤسسي على سلوكها.
وأضاف: “هذه شركات سيليكون فالي الكبرى هي التي تبني هذه النماذج، وقد رأينا من جدل الرقابة التقنية في السنوات الأخيرة أن بعض الشركات لم تتردد في التأثير على المحتوى الموزع عبر منصاتها.” وقال: “إذا حدث نفس المفهوم في النماذج اللغوية الكبيرة، فإننا نحصل على نموذج متحيز.”
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
البحوث الجديدة تجد أن روبوتات الدردشة السياسية المدعومة بالذكاء الاصطناعي يمكن أن تؤثر على الناخبين
باختصار
مركز ديكريبت للفن والموضة والترفيه.
اكتشف SCENE
أظهرت أبحاث جديدة من جامعة كورنيل ومعهد المملكة المتحدة لأمن الذكاء الاصطناعي أن الأنظمة الذكية المستخدمة على نطاق واسع يمكن أن تغيّر تفضيلات الناخبين في بيئات انتخابية محكمة بنسبة تصل إلى 15%.
نُشرت النتائج في مجلتي Science و Nature، وتأتي بينما تدرس الحكومات والباحثون كيف يمكن أن يؤثر الذكاء الاصطناعي على دورات الانتخابات القادمة، في حين يسعى المطورون لإزالة التحيز من نماذجهم الموجهة للمستهلكين.
كتب الباحثون: “هناك قلق عام كبير بشأن الاستخدام المحتمل للذكاء الاصطناعي التوليدي في الإقناع السياسي والتأثيرات الناتجة على الانتخابات والديمقراطية. نحن نوضح هذه المخاوف باستخدام تجارب مسجلة مسبقاً لتقييم قدرة النماذج اللغوية الكبيرة على التأثير في مواقف الناخبين.”
اختبرت الدراسة المنشورة في Nature قرابة 6,000 مشارك في الولايات المتحدة وكندا وبولندا. قام المشاركون بتقييم مرشح سياسي، ثم تحدثوا مع روبوت دردشة يدعم ذلك المرشح، ثم قيّموا المرشح مجدداً.
في الجزء الخاص بالولايات المتحدة من الدراسة، والذي شمل 2,300 شخص قبل الانتخابات الرئاسية لعام 2024، كان لروبوت الدردشة تأثير تعزيزي عندما كان متوافقاً مع تفضيل المشارك المعلن. أما التحولات الأكبر فقد حدثت عندما دعم الروبوت مرشحاً كان المشارك يعارضه. وذكر الباحثون أن نتائج مماثلة ظهرت في كندا وبولندا.
كما وجدت الدراسة أن الرسائل التي تركز على السياسات كانت أكثر إقناعاً من الرسائل الشخصية.
تفاوتت الدقة عبر المحادثات، ووجد أن روبوتات الدردشة التي تدعم المرشحين ذوي التوجه اليميني قدّمت بيانات غير دقيقة أكثر من تلك التي تدعم المرشحين ذوي التوجه اليساري.
قال الباحثون: “تحمل هذه النتائج دلالة غير مريحة بأن الإقناع السياسي عبر الذكاء الاصطناعي يمكن أن يستغل الاختلالات فيما تعرفه النماذج، ناشراً معلومات غير دقيقة بشكل غير متساوٍ حتى مع التعليمات الواضحة للبقاء صادقين.”
دراسة منفصلة في Science بحثت سبب حدوث الإقناع. اختبرت تلك الدراسة 19 نموذجاً لغوياً مع 76,977 بالغاً في المملكة المتحدة عبر أكثر من 700 قضية سياسية.
كتب الباحثون: “هناك مخاوف واسعة من أن الذكاء الاصطناعي الحواري قد يمارس قريباً تأثيراً غير مسبوق على معتقدات البشر.”
وجدوا أن تقنيات التحفيز (prompting) كان لها تأثير أكبر على الإقناع من حجم النموذج نفسه. التحفيزات التي تشجع النماذج على تقديم معلومات جديدة زادت من قوة الإقناع لكنها قللت من الدقة.
كتب الباحثون: “التحفيز الذي يشجع النماذج على تقديم معلومات جديدة كان الأكثر نجاحاً في إقناع الناس.”
نُشرت كلتا الدراستين في الوقت الذي يقيّم فيه المحللون ومراكز التفكير السياسية كيف ينظر الناخبون لفكرة الذكاء الاصطناعي في الأدوار الحكومية.
وجد استطلاع حديث أجرته معهد هارتلاند وRasmussen Reports أن المحافظين الأصغر سناً أبدوا استعداداً أكبر من الليبراليين لمنح الذكاء الاصطناعي سلطة اتخاذ قرارات حكومية كبرى. سُئل المشاركون الذين تتراوح أعمارهم بين 18 و39 عاماً عما إذا كان ينبغي لنظام ذكاء اصطناعي أن يساعد في توجيه السياسات العامة، أو تفسير الحقوق الدستورية، أو قيادة الجيوش الكبرى. وأبدى المحافظون أعلى مستويات الدعم.
قال دونالد كيندال، مدير مركز Glenn C. Haskins Emerging Issues في معهد هارتلاند، إن الناخبين غالباً ما يسيئون تقدير حيادية النماذج اللغوية الكبيرة.
وقال كيندال لموقع Decrypt: “أحد الأمور التي أحاول التأكيد عليها هو تبديد هذه الوهم بأن الذكاء الاصطناعي غير متحيز. إنه متحيز بوضوح، وبعض هذا التحيز سلبي”، مضيفاً أن الثقة في هذه الأنظمة قد تكون في غير محلها عندما تؤثر قرارات التدريب المؤسسي على سلوكها.
وأضاف: “هذه شركات سيليكون فالي الكبرى هي التي تبني هذه النماذج، وقد رأينا من جدل الرقابة التقنية في السنوات الأخيرة أن بعض الشركات لم تتردد في التأثير على المحتوى الموزع عبر منصاتها.” وقال: “إذا حدث نفس المفهوم في النماذج اللغوية الكبيرة، فإننا نحصل على نموذج متحيز.”