بالأمس نشرت مجلة ذا نيو يوركر تقريرًا لا أستطيع التوقف عن التفكير فيه. بشكل أساسي، قام محققون من هناك بمقابلة أكثر من 100 شخص مشارك في OpenAI وتمكنوا من الوصول إلى وثائق داخلية لم تكن قد ظهرت للجمهور من قبل. ماذا خرج من ذلك؟ قصة أكثر تعقيدًا بكثير من تلك الدراما في عام 2023.



بدأ كل شيء بوثيقة من 70 صفحة جمعها إيليا سوتسكييفر، كبير العلماء في OpenAI، في عام 2023. جمع رسائل من Slack، اتصالات مع قسم الموارد البشرية، محاضر اجتماعات داخلية... كل ذلك للإجابة على سؤال: هل يمكن الوثوق بسام ألتمان، الشخص الذي يتحكم ربما بأخطر تقنية في التاريخ؟ كانت استنتاجاته في الصفحة الأولى؟ "سام يظهر نمط سلوك متكرر من الكذب."

ما لفت انتباهي كان مثالًا محددًا جدًا. في ديسمبر 2022، خلال اجتماع مجلس الإدارة، أكد ألتمان أن العديد من وظائف GPT-4 قد خضعت لمراجعة أمنية. عندما طلبوا الاطلاع على الوثائق، اكتشفوا أن اثنتين من الوظائف الأكثر إثارة للجدل لم تمر أبدًا عبر لجنة الأمن. ببساطة.

لكن هناك المزيد. داريو أموداي، الذي أسس شركة أنثروبيك لاحقًا، ترك أكثر من 200 صفحة من الملاحظات الشخصية أثناء عمله في OpenAI. سجل كيف تراجعت الشركة خطوة بخطوة تحت ضغط تجاري. شيء أزعجه بشكل خاص: عندما استثمرت مايكروسوفت في 2019، كانت هناك بند ينص على أنه إذا وجد منافس آخر طريقًا أكثر أمانًا نحو الذكاء العام الاصطناعي، يتعين على OpenAI التوقف عن المنافسة والمساعدة. لكن مايكروسوفت حصلت على حق النقض على ذلك. بشكل أساسي، تحولت تلك الضمانات الأمنية إلى ورقة فارغة.

هناك تفصيل مخيف نوعًا ما. في منتصف 2023، أعلن ألتمان علنًا أن OpenAI ستخصص 20% من قدرتها الحاسوبية لـ "فريق التوافق الفائق" - بقدرة تزيد عن مليار دولار. لكن أربعة أشخاص عملوا هناك يقولون إن القدرة الحقيقية المخصصة كانت بين 1% و2%، مع أجهزة أقدم. ثم تم تفكيك الفريق لاحقًا. عندما طلب الصحفيون مقابلة المسؤولين عن أبحاث السلامة الوجودية، كانت ردود فريق العلاقات العامة في OpenAI: "هذا ليس شيئًا موجودًا حقًا."

الأحدث: سارة فريار، المديرة المالية لـ OpenAI، كانت لديها خلافات جدية مع ألتمان بشأن طرح عام أولي. تعتقد أن الشركة ليست جاهزة، نظرًا للمخاطر المالية الناتجة عن وعد ألتمان بإنفاق 600 مليار على القدرة الحاسوبية. لكن الجزء الغريب هو أنها لم تعد ترفع تقارير مباشرة إلى ألتمان. الآن، ترفع تقاريرها إلى فيجي سيمو، التي أخذت إجازة مرضية الأسبوع الماضي. شركة في عملية طرح عام أولي، والمدير التنفيذي والمدير المالي في خلاف جوهري، والمدير المالي لا يرفع تقاريره إلى المدير التنفيذي، والمشرف على المدير المالي في إجازة. حتى مسؤولو شركة مايكروسوفت لم يعودوا يتحملون، قائلين إن ألتمان "حرف الحقائق، وكسر الوعود."

وصف أحد أعضاء المجلس السابق ألتمان بطريقة مثيرة للاهتمام: لديه رغبة قوية جدًا في إرضاء الآخرين في كل تفاعل وجهًا لوجه، لكنه في الوقت نفسه يظهر تجاهلًا شبه نفسي تجاه عواقب خداع الآخرين. مزيج نادر - ومثالي لبائع.

إليك المشكلة: إذا كان ألتمان هو المدير التنفيذي لأي شركة تقنية عادية، لكان مجرد إشاعة شركات جيدة. لكن OpenAI تطور تقنية يمكن أن تعيد تشكيل الاقتصادات العالمية، وتُستخدم لصنع أسلحة بيوكيميائية أو شن هجمات إلكترونية. يراه العالم السابق في الأبحاث والأمان غير موثوق به. يقارنه الشركاء بـ SBF. ومع ذلك، يريد أن يقود هذه الشركة إلى طرح عام أولي بقيمة تتجاوز 850 مليار دولار.

سأل جاري ماركوس، أستاذ الذكاء الاصطناعي في نيويورك، سؤالًا مباشرًا بعد قراءة كل ذلك: هل تشعر حقًا بالأمان عندما تترك قرار إصدار نموذج يمكن أن يغير مصير البشرية بأيدي ألتمان وحده؟

كانت إجابة OpenAI أساسًا التشكيك في دوافع المصادر، دون نفي شيء محدد. لم يرد ألتمان على الاتهامات المباشرة.

هذه قصة عن كيف أن مجموعة من المثاليين القلقين من مخاطر الذكاء الاصطناعي أنشأت منظمة غير ربحية ذات مهمة واضحة. ثم تطورت التكنولوجيا، ووصل رأس المال الضخم، وطلب رأس المال عائدًا، وبدأت المهمة تتراجع. تم تفكيك فريق الأمان، وطُرد الأشخاص الذين كانوا يعترضون، وتحولت المنظمة غير الربحية إلى كيان ربحي، وها هو المجلس الذي يمكن أن يوقف الشركة الآن مليء بحلفاء المدير التنفيذي. أكثر من مئة شاهد استخدموا الوصف ذاته: "غير مقيد بالحقيقة."
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت