لدى OpenAI فريق سلامة جديد، يديره سام ألتمان
تقوم OpenAI بتشكيل فريق جديد للسلامة، بقيادة الرئيس التنفيذي سام ألتمان، إلى جانب أعضاء مجلس الإدارة آدم دانجيلو ونيكول سيليجمان. ستقدم اللجنة توصيات بشأن “قرارات السلامة والأمن الحاسمة لمشاريع وعمليات OpenAI” – وهو مصدر قلق شاركه العديد من الباحثين الرئيسيين في مجال الذكاء الاصطناعي عند مغادرة الشركة هذا الشهر.
بالنسبة لمهمته الأولى، سيقوم الفريق الجديد “بتقييم ومواصلة تطوير عمليات وإجراءات الحماية الخاصة بـ OpenAI”. وبعد ذلك ستقدم النتائج التي توصلت إليها إلى مجلس إدارة OpenAI، الذي يضم جميع قادة فريق السلامة الثلاثة مقعدًا فيه. سيقرر مجلس الإدارة بعد ذلك كيفية تنفيذ توصيات فريق السلامة.
إلى جانب لوحة الأمان الجديدة، أعلنت OpenAI أنها تختبر نموذجًا جديدًا للذكاء الاصطناعي، لكنها لم تؤكد ما إذا كان هو GPT-5.
في وقت سابق من هذا الشهر، كشفت OpenAI عن صوتها الجديد لـ ChatGPT، المسمى Sky، والذي يبدو مشابهًا بشكل مخيف لسكارليت جوهانسون (وهو شيء ألمح إليه ألتمان في X). ومع ذلك، أكدت جوهانسون بعد ذلك أنها رفضت عروض ألتمان لتقديم صوت لـ ChatGPT. قال ألتمان لاحقًا إن Open AI “لم يقصد أبدًا” جعل Sky تبدو مثل جوهانسون وأنه تواصل مع يوهانسون بعد أن اختارت الشركة الممثل الصوتي. لقد تركت هذه القضية برمتها قلقًا لدى محبي الذكاء الاصطناعي والنقاد على حدٍ سواء.
يشمل الأعضاء الآخرون في فريق السلامة الجديد في OpenAI رئيس الاستعداد ألكسندر مادري، ورئيس السلامة ليليان ونغ، ورئيس قسم علوم المحاذاة جون شولمان، ورئيس الأمن مات نايت، وكبير العلماء جاكوب باتشوكي. ولكن مع وجود اثنين من أعضاء مجلس الإدارة – وألتمان نفسه – يرأسان مجلس السلامة الجديد، لا يبدو أن OpenAI تعالج بالفعل مخاوف موظفيها السابقين.
اكتشاف المزيد من مجلة الإبداع
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.