يمكن لوكلاء الذكاء الاصطناعي الآن إعادة إنتاج المقالات الأكاديمية المعقدة بشكل مستقل: مولّيك يقول إن الأخطاء غالبًا ما تكون في النص الأصلي البشري وليست في الذكاء الاصطناعي

賓州華頓商學院教授 Ethan Mollick 於 4/25 的 X 平台貼文提出一個對學術界具強烈衝擊的觀察:當前的 AI agent 已經能在沒有原始論文與沒有原始碼的情況下,僅憑公開的方法描述與資料,獨立重現複雜的學術研究結果。Mollick 進一步指出,這些 AI 重現的版本與原論文有出入時,「錯誤往往出在人類論文本身,而非 AI」。這是科研可重現性危機在生成式 AI 時代的一個實質轉折—過去需要昂貴人力才能進行的同行驗證,正在被 AI 大規模、低成本完成。

كلود يعيد إنتاج عدة أوراق ثم يستخدم GPT-5 Pro للتحقق المزدوج

في مدونته OneUsefulThing وفي تغريدته الحالية، وصف Mollick تجاربه المحددة مع Claude: أن يسلم ورقة بحثية أكاديمية إلى Claude، بحيث يقوم بفتح الأرشيف، وتنظيم الملفات، وتحويل كود STATA المستخدم للإحصاءات تلقائيًا إلى Python، ثم تشغيل كل النتائج الواردة في الورقة واحدة تلو الأخرى. بعد أن ينجز Claude ذلك، يقوم Mollick بإجراء جولة ثانية من الفحص باستخدام GPT-5 Pro لنفس نتائج إعادة الإنتاج. تمت تجربة عدة أوراق بالطريقة نفسها، وكانت النتائج ناجحة بشكل عام، مع التعثر فقط عندما تكون ملفات البيانات كبيرة جدًا أو عندما تكون بيانات replication الأصلية نفسها بها مشكلة.

بالنسبة للأوساط الأكاديمية، كان هذا الإجراء في العادة يتطلب من مساعدين بحثيين قضاء أسابيع وحتى أشهر. يصف Mollick نطاق الوقت الذي تتحدث عنه تجربته بأنه من بعد ظهر إلى يوم كامل، وأن تكلفة التشغيل تقتصر على رسوم التوكن الخاصة بواجهة برمجة التطبيقات الخاصة بـ LLM التجارية.

الأخطاء غالبًا من النص البشري، وليست من الذكاء الاصطناعي

الأكثر إثارة للجدل هو حكم Mollick على «من المخطئ». فقد ذكر صراحةً في تغريدته أنه عندما تكون نتائج إعادة الإنتاج بالذكاء الاصطناعي غير متطابقة مع الورقة الأصلية، ففي معظم الحالات لا يكون الذكاء الاصطناعي هو من يخطئ، بل تكون الورقة الأصلية قد حدثت فيها أخطاء في معالجة البيانات، أو سوء استخدام للنموذج، أو أن الاستنتاج يتجاوز نطاق ما تدعمه البيانات. خلال العقد الأخير، شهدت العلوم الاجتماعية مثل علم النفس والاقتصاد السلوكي وعلم الإدارة عدة وقائع كبيرة لأزمات قابلية التكرار، وأشهرها دراسة إعادة الإنتاج الكبيرة التي أجراها 2015 Open Science Collaboration، والتي لم يُعَدْ فيها بشكل مستقل سوى حوالي 36% من نتائج أوراق علم النفس. تدفع agent بالذكاء الاصطناعي عملية الاختبار من حد «تتطلب مواءمة بشرية» إلى حد «يمكن تنفيذها على نطاق واسع».

تعلّم، ومع ذلك تُحظر AI على التحكيم في مراجعة الأبحاث، والمؤسسات متأخرة عن التقنية

في تغريدة أخرى بتاريخ 4/25، حدّد Mollick بشكل ملموس أكبر جمعية في مجال تخصصه، وهي Academy of Management، إذ لا تزال تحظر إدخال الذكاء الاصطناعي بشكل صريح في عملية تقديم الأوراق للتحكيم. وقد استشهد بدراسات قائمة تشير إلى أن تحكيم الذكاء الاصطناعي يتفوق بالفعل على بعض المحكمين البشر التقليديين من حيث الدقة والاتساق والتحكم في الانحيازات، وبالتالي فإن موقف «المنع» قد يؤدي بشكل عكسي إلى تعظيم إخفاقات أنظمة التحكيم القائمة. إن الفجوة بين هذا النظام وبين التقنية هي قضية سياسات يتعين على قطاع النشر الأكاديمي والجمعيات ومؤسسات التمويل مواجهتها خلال العامين القادمين.

بالنسبة للقراء، فإن هذا الجدل لا يقتصر على الأوساط الأكاديمية. عندما يستطيع agent بالذكاء الاصطناعي التحقق من نتائج البحث على الفور، فإن الأدلة الأكاديمية في الاستشهادات البحثية داخل الصناعة، وتقارير السياسات، والقرارات المالية، ستدخل إلى عتبة تحقق جديدة بعنوان: «هل يمكن للاستنتاج أن يصمد أمام إعادة إنتاج مستقلة بالذكاء الاصطناعي؟». وبالاستناد إلى الإضافة التي ذكرها Mollick في تغريدة أخرى، يرى أن الحكومة هي الجهة الوحيدة التي يمكنها وضع مرساة لهذا معيار الاختبار عندما يستمر مستوى قوة الأدوات بالارتفاع—وأن تعقيد تصميم السياسات سيتحول بالتوازي إلى محور غير مُلتفت إليه نسبيًا ضمن نقاشات حوكمة الذكاء الاصطناعي.

هذه المقالة: يستطيع AI Agent إعادة إنتاج أوراق بحثية أكاديمية معقدة بشكل مستقل — يذكر Mollick أن الأخطاء غالبًا من النص البشري وليس من الذكاء الاصطناعي ظهرت لأول مرة في 鏈新聞 ABMedia.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

新加坡外交部长在 Raspberry Pi 上部署使用 Claude Code 的定制 AI 助手

Gate News 消息,4 月 27 日——新加坡外交部长 Vivian Balakrishnan 最近宣布,他已经打造了一个定制的 AI 助手系统,他称之为“外交官的第二大脑”,运行在一台 Raspberry Pi 5 (信用卡大小的微型计算机) 上。该系统与他的 WhatsApp 和

GateNewsمنذ 44 د

印度电商平台为 ChatGPT、Perplexity 和 Gemini 推出 AI 商店入口

Gate 新闻消息,4 月 27 日——印度电商平台 Flipkart、BigBasket、Ajio 和 FirstCry 正在为 ChatGPT、Perplexity 和 Google Gemini 构建 AI 商店入口,以支持代理式电商:AI 工具代表用户进行购物。快商公司 Swiggy 也已为 ChatGPT、Claude 和 Gemini 构建了连接器。

GateNewsمنذ 56 د

أطلقت تيليجرام أداة روبوتات ذكاء اصطناعي بالاعتماد على الذكاء الاصطناعي بدون برمجة، تدعم نماذج GPT وLlama

وفقًا لما أوردته Techiexpert في 27 أبريل، أطلقت Telegram أداة لإنشاء روبوتات ذكاء اصطناعي بدون الحاجة إلى كتابة كود. لا يحتاج المستخدمون إلى أي مهارات برمجية، ويمكنهم من خلال النقرات إنشاء روبوتات ذكاء اصطناعي ونشرها. تدعم الأداة نماذج ذكاء اصطناعي متعددة مثل GPT وLlama، كما تم دمجها في Telegram Business.

MarketWhisperمنذ 1 س

الهند تطلق مشروع مدينة $650M للذكاء الاصطناعي في بنغالور بهدف استهداف 25,000 باحث بحلول عام 2030

بوابة الأخبار، 27 أبريل — تقوم الهند بتطوير مدينة ذكاء اصطناعي بقيمة $650 مليون في بنغالور، وتضم منشأة بمساحة 500,000 قدم مربع صُممت لتكون أول مختبر مادي في العالم للذكاء الاصطناعي الوكيل. يوفر المشروع اتصالاً بسرعة 400 جيجابت في الثانية مع أربعة من كبار موفري سحابة الذكاء الاصطناعي، ويخطط إلى

GateNewsمنذ 2 س

OpenAI 招揽顶级企业软件人才,前沿代理颠覆行业

Gate News 消息,4月26日——OpenAI 和 Anthropic 一直在从包括 Salesforce、Snowflake、Datadog 和 Palantir 在内的主要企业软件公司招募资深高管和专业工程师。Denise Dresser,曾任 Salesforce 旗下 Slack 首席执行官,已加入 OpenAI 担任首席收入官

GateNewsمنذ 13 س

Worxphere 以 AI 驱动的招聘工具重新打造 JobKorea

Gate News 消息,4 月 26 日——韩国人力资源平台 Worxphere 已将 JobKorea 更名为其品牌,随着其从传统在线招聘网站转向由 AI 驱动的招聘解决方案。该公司正将包括 JobKorea 和 Albamon 在内的服务整合到一个统一平台中,涵盖长期雇佣、零工业务以及外籍劳工招聘。

GateNewsمنذ 23 س
تعليق
0/400
لا توجد تعليقات