تم حل فريق مخاطر الذكاء الاصطناعي طويل المدى التابع لشركة OpenAI
في يوليو من العام الماضي، أعلنت شركة OpenAI عن تشكيل فريق بحث جديد من شأنه أن يستعد لظهور ذكاء اصطناعي فائق الذكاء قادر على التفوق على مبدعيه والتغلب عليهم. وتم تعيين إيليا سوتسكيفر، كبير العلماء في شركة OpenAI وأحد مؤسسي الشركة، كقائد مساعد لهذا الفريق الجديد. وقالت OpenAI إن الفريق سيحصل على 20 بالمائة من قوته الحاسوبية.
تؤكد الشركة الآن أن “فريق التوافق الفائق” التابع لشركة OpenAI لم يعد موجودًا. يأتي ذلك بعد مغادرة العديد من الباحثين المعنيين، وأخبار يوم الثلاثاء عن مغادرة Sutskever للشركة، و استقالة من قائد الفريق الآخر. سيتم استيعاب عمل المجموعة في الجهود البحثية الأخرى لـ OpenAI.
تصدرت رحيل سوتسكيفر عناوين الأخبار لأنه على الرغم من أنه ساعد الرئيس التنفيذي سام ألتمان في بدء OpenAI في عام 2015 وتحديد اتجاه البحث الذي أدى إلى ChatGPT، إلا أنه كان أيضًا أحد أعضاء مجلس الإدارة الأربعة الذين طردوا ألتمان في نوفمبر. تمت استعادة ألتمان كرئيس تنفيذي بعد خمسة أيام من الفوضى بعد ثورة جماعية قام بها موظفو OpenAI والتوسط في صفقة ترك فيها سوتسكيفر واثنين آخرين من مديري الشركة مجلس الإدارة.
بعد ساعات من إعلان رحيل سوتسكيفر يوم الثلاثاء، قال جان ليك، الباحث السابق في DeepMind والذي كان القائد الآخر لفريق Superalignment، نشرت على X أنه استقال.
لم يستجب Sutskever ولا Leike لطلبات التعليق، ولم يعلقوا علنًا على سبب تركهم لـ OpenAI. لقد عرضت Sutskever الدعم لمسار OpenAI الحالي في مشاركة على X. وكتب: “لم يكن مسار الشركة أقل من معجزة، وأنا واثق من أن OpenAI ستبني الذكاء الاصطناعي العام الآمن والمفيد في نفس الوقت” في ظل قيادتها الحالية.
يضيف حل فريق OpenAI الفائق إلى الأدلة الأخيرة على حدوث هزة داخل الشركة في أعقاب أزمة الحوكمة في نوفمبر الماضي. تم فصل اثنين من الباحثين في الفريق، ليوبولد أشنبرينر وبافيل إسماعيلوف، بسبب تسريب أسرار الشركة، حسبما ذكرت صحيفة ذا إنفورميشن الشهر الماضي. غادر عضو آخر في الفريق، ويليام سوندرز، شركة OpenAI في فبراير، وفقًا لمنشور في منتدى على الإنترنت باسمه.
ويبدو أيضًا أن باحثين آخرين من OpenAI يعملان في مجال سياسات الذكاء الاصطناعي وإدارته قد تركا الشركة مؤخرًا. ترك كولين أوكيف منصبه كقائد بحثي حول حدود السياسة في أبريل، وفقًا لموقع LinkedIn. دانييل كوكوتايلو، الباحث في OpenAI الذي شارك في تأليف العديد من الأوراق البحثية حول مخاطر نماذج الذكاء الاصطناعي الأكثر قدرة، “ترك OpenAI بسبب فقدان الثقة في أنها ستتصرف بمسؤولية في وقت قريب من الذكاء الاصطناعي العام”، وفقًا لمنشور على منتدى على الإنترنت في أسمه. ولم يستجب أي من الباحثين الذين غادروا على ما يبدو لطلبات التعليق.
رفضت شركة OpenAI التعليق على مغادرة Sutskever أو أعضاء آخرين في فريق Superalignment، أو مستقبل عملها بشأن مخاطر الذكاء الاصطناعي طويلة المدى. وسيقود الآن البحث حول المخاطر المرتبطة بالنماذج الأكثر قوة جون شولمان، الذي يشارك في قيادة الفريق المسؤول عن ضبط نماذج الذكاء الاصطناعي بعد التدريب.
اكتشاف المزيد من مجلة الإبداع
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.