العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عروض ترويجية
AI
Gate AI
شريكك الذكي الشامل في الذكاء الاصطناعي
Gate AI Bot
استخدم Gate AI مباشرة في تطبيقك الاجتماعي
GateClaw
Gate الأزرق، جاهز للاستخدام
Gate for AI Agent
البنية التحتية للذكاء الاصطناعي، Gate MCP، Skills و CLI
Gate Skills Hub
أكثر من 10 آلاف مهارة
من المكتب إلى التداول، مكتبة المهارات الشاملة تجعل الذكاء الاصطناعي أكثر فعالية
GateRouter
ختر بذكاء من أكثر من 30 نموذج ذكاء اصطناعي، بدون أي رسوم إضافية 0%
بالأمس نشرت مجلة ذا نيو يوركر تقريرًا لا أستطيع التوقف عن التفكير فيه. بشكل أساسي، قام محققون من هناك بمقابلة أكثر من 100 شخص مشارك في OpenAI وتمكنوا من الوصول إلى وثائق داخلية لم تكن قد ظهرت للجمهور من قبل. ماذا خرج من ذلك؟ قصة أكثر تعقيدًا بكثير من تلك الدراما في عام 2023.
بدأ كل شيء بوثيقة من 70 صفحة جمعها إيليا سوتسكييفر، كبير العلماء في OpenAI، في عام 2023. جمع رسائل من Slack، اتصالات مع قسم الموارد البشرية، محاضر اجتماعات داخلية... كل ذلك للإجابة على سؤال: هل يمكن الوثوق بسام ألتمان، الشخص الذي يتحكم ربما بأخطر تقنية في التاريخ؟ كانت استنتاجاته في الصفحة الأولى؟ "سام يظهر نمط سلوك متكرر من الكذب."
ما لفت انتباهي كان مثالًا محددًا جدًا. في ديسمبر 2022، خلال اجتماع مجلس الإدارة، أكد ألتمان أن العديد من وظائف GPT-4 قد خضعت لمراجعة أمنية. عندما طلبوا الاطلاع على الوثائق، اكتشفوا أن اثنتين من الوظائف الأكثر إثارة للجدل لم تمر أبدًا عبر لجنة الأمن. ببساطة.
لكن هناك المزيد. داريو أموداي، الذي أسس شركة أنثروبيك لاحقًا، ترك أكثر من 200 صفحة من الملاحظات الشخصية أثناء عمله في OpenAI. سجل كيف تراجعت الشركة خطوة بخطوة تحت ضغط تجاري. شيء أزعجه بشكل خاص: عندما استثمرت مايكروسوفت في 2019، كانت هناك بند ينص على أنه إذا وجد منافس آخر طريقًا أكثر أمانًا نحو الذكاء العام الاصطناعي، يتعين على OpenAI التوقف عن المنافسة والمساعدة. لكن مايكروسوفت حصلت على حق النقض على ذلك. بشكل أساسي، تحولت تلك الضمانات الأمنية إلى ورقة فارغة.
هناك تفصيل مخيف نوعًا ما. في منتصف 2023، أعلن ألتمان علنًا أن OpenAI ستخصص 20% من قدرتها الحاسوبية لـ "فريق التوافق الفائق" - بقدرة تزيد عن مليار دولار. لكن أربعة أشخاص عملوا هناك يقولون إن القدرة الحقيقية المخصصة كانت بين 1% و2%، مع أجهزة أقدم. ثم تم تفكيك الفريق لاحقًا. عندما طلب الصحفيون مقابلة المسؤولين عن أبحاث السلامة الوجودية، كانت ردود فريق العلاقات العامة في OpenAI: "هذا ليس شيئًا موجودًا حقًا."
الأحدث: سارة فريار، المديرة المالية لـ OpenAI، كانت لديها خلافات جدية مع ألتمان بشأن طرح عام أولي. تعتقد أن الشركة ليست جاهزة، نظرًا للمخاطر المالية الناتجة عن وعد ألتمان بإنفاق 600 مليار على القدرة الحاسوبية. لكن الجزء الغريب هو أنها لم تعد ترفع تقارير مباشرة إلى ألتمان. الآن، ترفع تقاريرها إلى فيجي سيمو، التي أخذت إجازة مرضية الأسبوع الماضي. شركة في عملية طرح عام أولي، والمدير التنفيذي والمدير المالي في خلاف جوهري، والمدير المالي لا يرفع تقاريره إلى المدير التنفيذي، والمشرف على المدير المالي في إجازة. حتى مسؤولو شركة مايكروسوفت لم يعودوا يتحملون، قائلين إن ألتمان "حرف الحقائق، وكسر الوعود."
وصف أحد أعضاء المجلس السابق ألتمان بطريقة مثيرة للاهتمام: لديه رغبة قوية جدًا في إرضاء الآخرين في كل تفاعل وجهًا لوجه، لكنه في الوقت نفسه يظهر تجاهلًا شبه نفسي تجاه عواقب خداع الآخرين. مزيج نادر - ومثالي لبائع.
إليك المشكلة: إذا كان ألتمان هو المدير التنفيذي لأي شركة تقنية عادية، لكان مجرد إشاعة شركات جيدة. لكن OpenAI تطور تقنية يمكن أن تعيد تشكيل الاقتصادات العالمية، وتُستخدم لصنع أسلحة بيوكيميائية أو شن هجمات إلكترونية. يراه العالم السابق في الأبحاث والأمان غير موثوق به. يقارنه الشركاء بـ SBF. ومع ذلك، يريد أن يقود هذه الشركة إلى طرح عام أولي بقيمة تتجاوز 850 مليار دولار.
سأل جاري ماركوس، أستاذ الذكاء الاصطناعي في نيويورك، سؤالًا مباشرًا بعد قراءة كل ذلك: هل تشعر حقًا بالأمان عندما تترك قرار إصدار نموذج يمكن أن يغير مصير البشرية بأيدي ألتمان وحده؟
كانت إجابة OpenAI أساسًا التشكيك في دوافع المصادر، دون نفي شيء محدد. لم يرد ألتمان على الاتهامات المباشرة.
هذه قصة عن كيف أن مجموعة من المثاليين القلقين من مخاطر الذكاء الاصطناعي أنشأت منظمة غير ربحية ذات مهمة واضحة. ثم تطورت التكنولوجيا، ووصل رأس المال الضخم، وطلب رأس المال عائدًا، وبدأت المهمة تتراجع. تم تفكيك فريق الأمان، وطُرد الأشخاص الذين كانوا يعترضون، وتحولت المنظمة غير الربحية إلى كيان ربحي، وها هو المجلس الذي يمكن أن يوقف الشركة الآن مليء بحلفاء المدير التنفيذي. أكثر من مئة شاهد استخدموا الوصف ذاته: "غير مقيد بالحقيقة."