، مقالات،

تطلق OpenAI مجلس أمان “مستقل” يمكنه إيقاف إصدارات نماذجها


تعمل شركة OpenAI على تحويل لجنة السلامة والأمن الخاصة بها إلى “لجنة إشراف مجلس الإدارة” المستقلة التي تتمتع بسلطة تأخير إطلاق النموذج بسبب مخاوف تتعلق بالسلامة، وفقًا لمنشور مدونة OpenAI. وقد قدمت اللجنة توصية بتشكيل مجلس إدارة مستقل بعد مراجعة حديثة استمرت 90 يومًا “للعمليات والضمانات المتعلقة بالسلامة والأمن” الخاصة بشركة OpenAI.

اللجنة، التي يرأسها زيكو كولتر وتضم آدم دانجيلو، وبول ناكاسوني، ونيكول سيليجمان، “سيتم إطلاعها من قبل قيادة الشركة على تقييمات السلامة لإصدارات النماذج الرئيسية، وسوف تمارس، جنبًا إلى جنب مع مجلس الإدارة بأكمله، الإشراف على إطلاق النماذج، بما في ذلك الحصول على سلطة تأخير الإصدار حتى تتم معالجة المخاوف المتعلقة بالسلامة،” كما تقول OpenAI. وسيتلقى مجلس إدارة OpenAI الكامل أيضًا “إحاطات دورية” حول “مسائل السلامة والأمن”.

أعضاء لجنة السلامة في OpenAI هم أيضًا أعضاء في مجلس إدارة الشركة الأوسع، لذلك من غير الواضح بالضبط مدى استقلالية اللجنة فعليًا أو كيفية هيكلة هذا الاستقلال. لقد طلبنا من OpenAI التعليق.

من خلال إنشاء مجلس أمان مستقل، يبدو أن OpenAI تتخذ نهجًا مشابهًا إلى حد ما مثل مجلس مراقبة Meta، الذي يراجع بعض قرارات سياسة محتوى Meta ويمكنه إصدار الأحكام التي يجب على Meta اتباعها. لا يوجد أي من أعضاء مجلس الرقابة عضوًا في مجلس إدارة Meta.

كما ساعدت المراجعة التي أجرتها لجنة السلامة والأمن في OpenAI على “توفير فرص إضافية للتعاون الصناعي وتبادل المعلومات لتعزيز أمن صناعة الذكاء الاصطناعي”. وتقول الشركة أيضًا إنها ستبحث عن “المزيد من الطرق لمشاركة وشرح عمل السلامة لدينا” وعن “المزيد من الفرص للاختبار المستقل لأنظمتنا”.


اكتشاف المزيد من مجلة الإبداع

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button

اكتشاف المزيد من مجلة الإبداع

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading