أعد إيليا سوتسكيڤر حالة مكونة من 52 صفحة ضد سام ألتمان تستند تقريباً بالكامل إلى ادعاءات غير مؤكدة من مصدر واحد—المدير التقني ميرا مورات.
كانت OpenAI على بُعد أيام من الاندماج مع المنافس Anthropic خلال الأزمة، حيث جادلت عضو مجلس الإدارة هيلين تونر بأن تدمير الشركة قد يكون “متوافقًا مع المهمة”
كانت اللجنة “مستعجلة” و"غير متجربة"، حسبما قال إيليا نفسه، الذي كان يخطط لإقالة التمان لمدة عام على الأقل أثناء انتظاره لظروف إيجابية في اللجنة.
مركز فنون الموضة والترفيه لـ Decrypt.
اكتشف SCENE
<br>
جلس إيليا سوتسكيبر لمدة تقارب 10 ساعات من الشهادات المسجلة بالفيديو في دعوى ماسك ضد ألتمن، في 1 أكتوبر من هذا العام.
المؤسس المشارك الذي ساعد في بناء ChatGPT وأصبح مشهورًا بسبب تصويته على طرد سام ألتمان في نوفمبر 2023 كان أخيرًا تحت القسم ومجبرًا على الإجابة. تم إصدار نص من 365 صفحة هذا الأسبوع.
ما تكشفه هو صورة لعلماء بارزين يتخذون قرارات حكومية كارثية، واتهامات غير مثبتة تُعامل كحقائق، وانقسامات أيديولوجية عميقة لدرجة أن بعض أعضاء مجلس الإدارة فضلوا تدمير OpenAI بدلاً من السماح لها بالاستمرار تحت قيادة ألتمن.
تدور دعوى ماسک ضد ألتمن حول ادعاء إيلون ماسك بأن OpenAI ومديرها التنفيذي، ألتمن، قد خانوا المهمة غير الربحية الأصلية للشركة من خلال تحويل أبحاثهم إلى مشروع ربحي مرتبط بمايكروسوفت—م raising high-stakes questions about who controls advanced AI models and whether they can be developed safely in the public interest.
بالنسبة لأولئك الذين يتابعون دراما OpenAI، فإن الوثيقة قراءة مثيرة للدهشة ومُدانة. إنها دراسة حالة حول كيف تسير الأمور بشكل خاطئ عندما يلتقي العبقرية التقنية بالقصور التنظيمي.
إليك أهم خمس اكتشافات.
الملف المكون من 52 صفحة الذي لم يره الجمهور
كتب سوتسكيبر حالة موسعة لإزالة ألتمن، كاملة مع لقطات شاشة، ومنظمة في ملخص مكون من 52 صفحة.
شهد سوتسكيبر أنه قال صراحة في المذكرة: “يظهر سام نمطًا متسقًا من الكذب، وتقويض تنفيذييه، وتحريض تنفيذييه ضد بعضهم البعض.”
أرسل المذكرة إلى المديرين المستقلين باستخدام تقنية البريد الإلكتروني المتلاشي “لأنني كنت قلقًا من أن تلك المذكرات ستتسرب بطريقة ما.” لم يتم إنتاج الملخص الكامل من خلال الاكتشاف.
“سياق هذا الوثيقة هو أن الأعضاء المستقلين في مجلس الإدارة طلبوا مني إعدادها. وقد فعلت. وكنت حذرًا جدًا،” شهد سوتسكيفر، قائلًا إن أجزاء من المذكرة موجودة في لقطات الشاشة التي تم إنشاؤها بواسطة مديرة التكنولوجيا في OpenAI، ميرا مورات.
لعبة شطرنج لوحية لمدة عام
عند سؤاله عن المدة التي كان يفكر فيها في فصل ألتمن، أجاب سوتسكيبر: “على الأقل عام.”
سُئل عن الديناميكيات التي كان ينتظرها، فقال: “إن الغالبية العظمى من مجلس الإدارة ليست ودودة بوضوح مع سام.”
الرئيس التنفيذي الذي يتحكم في تكوين مجلس الإدارة لا يمكن المساس به من الناحية الوظيفية. شهادة سوتسكيبر تظهر أنه كان يفهم هذا تمامًا وضبط استراتيجيته وفقًا لذلك.
عندما أدت مغادرة أعضاء مجلس الإدارة إلى فتح ذلك المنصب، انتقل. كان يمارس سياسة مجلس الإدارة طويلة الأمد، على الرغم من مدى قرب ألتمان وسوتسكيبر علنًا.
عطلة نهاية الأسبوع التي كادت أن تختفي OpenAI
في يوم السبت، 18 نوفمبر 2023—خلال 48 ساعة من إقالة ألتمان—كانت هناك مناقشات نشطة حول دمج OpenAI مع Anthropic.
هيلين تونر، عضو مجلس إدارة OpenAI السابق، كانت “الأكثر دعمًا” في هذا الاتجاه، وفقًا لسوتسكيڤر.
لو حدث الاندماج، لكانت OpenAI قد توقفت عن الوجود ككيان مستقل.
“لا أعرف ما إذا كانت هيلين هي التي تواصلت مع أنثروبيك أو إذا كانت أنثروبيك هي التي تواصلت مع هيلين،” شهد سوتسكيڤر. “لكنهم تواصلوا مع اقتراح للاندماج مع OpenAI وتولي قيادتها.”
قال سوتسكيver إنه “غير سعيد للغاية بذلك”، مضيفًا لاحقًا أنه “لم يرغب حقًا في دمج OpenAI مع Anthropic.”
“تدمير OpenAI قد يتماشى مع المهمة”
عندما حذر المسؤولون التنفيذيون في OpenAI من أن الشركة ستنهار بدون ألتمان، رد تونر بأن تدمير OpenAI يمكن أن يتماشى مع مهمتها في السلامة.
هذه هي القلب الفكري للأزمة. مثلت تونر جانبًا من تفكير سلامة الذكاء الاصطناعي الذي يعتبر التطور السريع للذكاء الاصطناعي خطراً وجودياً - قد يكون أكثر خطورة من عدم وجود تطوير للذكاء الاصطناعي على الإطلاق.
“أخبر التنفيذيون—كانت هناك اجتماع مع أعضاء المجلس والفريق التنفيذي—أخبر التنفيذيون المجلس أنه إذا لم يعد سام، فإن OpenAI ستُدمّر، وهذا يتعارض مع مهمة OpenAI،” شهد سوتسكي. “وقالت هيلين تونر شيئًا على هذا النحو أنه يتماشى، لكن أعتقد أنها قالت ذلك بشكل أكثر مباشرة من ذلك.”
إذا كنت تعتقد حقًا أن OpenAI تشكل مخاطر تفوق فوائدها، فإن تمرد الموظفين الوشيك لم يكن له أي أهمية. تساعد هذه البيان في تفسير سبب تمسك المجلس بموقفه حتى مع تهديد أكثر من 700 موظف بالمغادرة.
حسابات خاطئة: مصدر واحد لكل شيء، مجلس إدارة غير متمرس وولاء عمالي يشبه الطائفة
جاءت تقريبًا كل شيء في مذكرة سوتسكيفر التي تتكون من 52 صفحة من شخص واحد: ميرا مورات.
لم يتحقق من الادعاءات مع براد لايتكاب، جريج بروكمان، أو غيرهم من التنفيذيين المذكورين في الشكاوى. لقد وثق في موراتى تمامًا، ولم “يخطر له (ذلك).”
“لقد كنت أؤمن تمامًا بالمعلومات التي كانت تقدمها لي ميرا”، قال سوتسكيفر. “في hindsight، أدركت أنني لم أكن أعرفها. لكن في ذلك الوقت، كنت أعتقد أنني أعرفها. لكنني كنت أعرفها من خلال معرفة غير مباشرة.”
عند سؤاله عن عملية المجلس، كان سوتسكيبر صريحًا بشأن ما حدث خطأ.
“يمكنني أن أقول إن العملية كانت متسرعة،” شهد. “أعتقد أنها كانت متسرعة لأن المجلس كان غير متمرس.”
توقع سوتسكيور أيضًا أن يكون موظفو OpenAI غير مبالين بإزالة ألتمان.
عندما وقع 700 من أصل 770 موظفًا على رسالة تطالب بعودة ألتمان وتهدد بالمغادرة إلى مايكروسوفت، كان متفاجئًا حقًا. لقد أخطأ في حساب ولاء القوى العاملة وعزلة مجلس الإدارة عن الواقع التنظيمي.
“لم أتوقع أن يصفقوا، لكن لم أتوقع أيضًا أن يشعروا بقوة في أي اتجاه،” قال سوتسكيڤر.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
داخل الإيداع الذي أظهر كيف كادت OpenAI أن تدمر نفسها
باختصار
مركز فنون الموضة والترفيه لـ Decrypt.
اكتشف SCENE
<br>
جلس إيليا سوتسكيبر لمدة تقارب 10 ساعات من الشهادات المسجلة بالفيديو في دعوى ماسك ضد ألتمن، في 1 أكتوبر من هذا العام.
المؤسس المشارك الذي ساعد في بناء ChatGPT وأصبح مشهورًا بسبب تصويته على طرد سام ألتمان في نوفمبر 2023 كان أخيرًا تحت القسم ومجبرًا على الإجابة. تم إصدار نص من 365 صفحة هذا الأسبوع.
ما تكشفه هو صورة لعلماء بارزين يتخذون قرارات حكومية كارثية، واتهامات غير مثبتة تُعامل كحقائق، وانقسامات أيديولوجية عميقة لدرجة أن بعض أعضاء مجلس الإدارة فضلوا تدمير OpenAI بدلاً من السماح لها بالاستمرار تحت قيادة ألتمن.
تدور دعوى ماسک ضد ألتمن حول ادعاء إيلون ماسك بأن OpenAI ومديرها التنفيذي، ألتمن، قد خانوا المهمة غير الربحية الأصلية للشركة من خلال تحويل أبحاثهم إلى مشروع ربحي مرتبط بمايكروسوفت—م raising high-stakes questions about who controls advanced AI models and whether they can be developed safely in the public interest.
بالنسبة لأولئك الذين يتابعون دراما OpenAI، فإن الوثيقة قراءة مثيرة للدهشة ومُدانة. إنها دراسة حالة حول كيف تسير الأمور بشكل خاطئ عندما يلتقي العبقرية التقنية بالقصور التنظيمي.
إليك أهم خمس اكتشافات.
كتب سوتسكيبر حالة موسعة لإزالة ألتمن، كاملة مع لقطات شاشة، ومنظمة في ملخص مكون من 52 صفحة.
شهد سوتسكيبر أنه قال صراحة في المذكرة: “يظهر سام نمطًا متسقًا من الكذب، وتقويض تنفيذييه، وتحريض تنفيذييه ضد بعضهم البعض.”
أرسل المذكرة إلى المديرين المستقلين باستخدام تقنية البريد الإلكتروني المتلاشي “لأنني كنت قلقًا من أن تلك المذكرات ستتسرب بطريقة ما.” لم يتم إنتاج الملخص الكامل من خلال الاكتشاف.
“سياق هذا الوثيقة هو أن الأعضاء المستقلين في مجلس الإدارة طلبوا مني إعدادها. وقد فعلت. وكنت حذرًا جدًا،” شهد سوتسكيفر، قائلًا إن أجزاء من المذكرة موجودة في لقطات الشاشة التي تم إنشاؤها بواسطة مديرة التكنولوجيا في OpenAI، ميرا مورات.
عند سؤاله عن المدة التي كان يفكر فيها في فصل ألتمن، أجاب سوتسكيبر: “على الأقل عام.”
سُئل عن الديناميكيات التي كان ينتظرها، فقال: “إن الغالبية العظمى من مجلس الإدارة ليست ودودة بوضوح مع سام.”
الرئيس التنفيذي الذي يتحكم في تكوين مجلس الإدارة لا يمكن المساس به من الناحية الوظيفية. شهادة سوتسكيبر تظهر أنه كان يفهم هذا تمامًا وضبط استراتيجيته وفقًا لذلك.
عندما أدت مغادرة أعضاء مجلس الإدارة إلى فتح ذلك المنصب، انتقل. كان يمارس سياسة مجلس الإدارة طويلة الأمد، على الرغم من مدى قرب ألتمان وسوتسكيبر علنًا.
في يوم السبت، 18 نوفمبر 2023—خلال 48 ساعة من إقالة ألتمان—كانت هناك مناقشات نشطة حول دمج OpenAI مع Anthropic.
هيلين تونر، عضو مجلس إدارة OpenAI السابق، كانت “الأكثر دعمًا” في هذا الاتجاه، وفقًا لسوتسكيڤر.
لو حدث الاندماج، لكانت OpenAI قد توقفت عن الوجود ككيان مستقل.
“لا أعرف ما إذا كانت هيلين هي التي تواصلت مع أنثروبيك أو إذا كانت أنثروبيك هي التي تواصلت مع هيلين،” شهد سوتسكيڤر. “لكنهم تواصلوا مع اقتراح للاندماج مع OpenAI وتولي قيادتها.”
قال سوتسكيver إنه “غير سعيد للغاية بذلك”، مضيفًا لاحقًا أنه “لم يرغب حقًا في دمج OpenAI مع Anthropic.”
عندما حذر المسؤولون التنفيذيون في OpenAI من أن الشركة ستنهار بدون ألتمان، رد تونر بأن تدمير OpenAI يمكن أن يتماشى مع مهمتها في السلامة.
هذه هي القلب الفكري للأزمة. مثلت تونر جانبًا من تفكير سلامة الذكاء الاصطناعي الذي يعتبر التطور السريع للذكاء الاصطناعي خطراً وجودياً - قد يكون أكثر خطورة من عدم وجود تطوير للذكاء الاصطناعي على الإطلاق.
“أخبر التنفيذيون—كانت هناك اجتماع مع أعضاء المجلس والفريق التنفيذي—أخبر التنفيذيون المجلس أنه إذا لم يعد سام، فإن OpenAI ستُدمّر، وهذا يتعارض مع مهمة OpenAI،” شهد سوتسكي. “وقالت هيلين تونر شيئًا على هذا النحو أنه يتماشى، لكن أعتقد أنها قالت ذلك بشكل أكثر مباشرة من ذلك.”
إذا كنت تعتقد حقًا أن OpenAI تشكل مخاطر تفوق فوائدها، فإن تمرد الموظفين الوشيك لم يكن له أي أهمية. تساعد هذه البيان في تفسير سبب تمسك المجلس بموقفه حتى مع تهديد أكثر من 700 موظف بالمغادرة.
جاءت تقريبًا كل شيء في مذكرة سوتسكيفر التي تتكون من 52 صفحة من شخص واحد: ميرا مورات.
لم يتحقق من الادعاءات مع براد لايتكاب، جريج بروكمان، أو غيرهم من التنفيذيين المذكورين في الشكاوى. لقد وثق في موراتى تمامًا، ولم “يخطر له (ذلك).”
“لقد كنت أؤمن تمامًا بالمعلومات التي كانت تقدمها لي ميرا”، قال سوتسكيفر. “في hindsight، أدركت أنني لم أكن أعرفها. لكن في ذلك الوقت، كنت أعتقد أنني أعرفها. لكنني كنت أعرفها من خلال معرفة غير مباشرة.”
عند سؤاله عن عملية المجلس، كان سوتسكيبر صريحًا بشأن ما حدث خطأ.
“يمكنني أن أقول إن العملية كانت متسرعة،” شهد. “أعتقد أنها كانت متسرعة لأن المجلس كان غير متمرس.”
توقع سوتسكيور أيضًا أن يكون موظفو OpenAI غير مبالين بإزالة ألتمان.
عندما وقع 700 من أصل 770 موظفًا على رسالة تطالب بعودة ألتمان وتهدد بالمغادرة إلى مايكروسوفت، كان متفاجئًا حقًا. لقد أخطأ في حساب ولاء القوى العاملة وعزلة مجلس الإدارة عن الواقع التنظيمي.
“لم أتوقع أن يصفقوا، لكن لم أتوقع أيضًا أن يشعروا بقوة في أي اتجاه،” قال سوتسكيڤر.