، مقالات،

الديمقراطيون يدفعون سام ألتمان بشأن سجل السلامة الخاص بـ OpenAI


“نظرًا للتناقض بين تعليقاتك العامة وتقاريرك عن إجراءات OpenAI، فإننا نطلب معلومات حول المبلغين عن المخالفات في OpenAI وحماية تضارب المصالح من أجل فهم ما إذا كان التدخل الفيدرالي قد يكون ضروريًا”، كتب وارن وتراهان في رسالة تمت مشاركتها حصريًا مع الحافة.

واستشهد المشرعون بعدة حالات تم فيها التشكيك في إجراءات السلامة في OpenAI. على سبيل المثال، قالوا إنه في عام 2022، سيتم اختبار نسخة غير منشورة من GPT-4 في إصدار جديد من محرك بحث Microsoft Bing في الهند قبل الحصول على موافقة من مجلس السلامة الخاص بـ OpenAI. وأشاروا أيضًا إلى طرد ألتمان لفترة وجيزة من الشركة في عام 2023، نتيجة لمخاوف مجلس الإدارة، جزئيًا، “بشأن تسويق التقدم قبل فهم العواقب”.

تأتي رسالة وارن وتراهان إلى ألتمان في الوقت الذي تعاني فيه الشركة من قائمة طويلة من المخاوف المتعلقة بالسلامة، والتي غالبًا ما تتعارض مع البيانات العامة للشركة. على سبيل المثال، قال مصدر مجهول واشنطن بوست وبعد أن سارعت شركة OpenAI إلى اجتياز اختبارات السلامة، تم حل فريق Superalignment (الذي كان مسؤولاً جزئيًا عن السلامة)، واستقال مسؤول تنفيذي في مجال السلامة مدعيًا أن “ثقافة وعمليات السلامة قد تراجعت أمام المنتجات اللامعة”. ونفى ليندسي هيلد، المتحدث الرسمي باسم OpenAI، هذه المزاعم واشنطن بوستتقرير، وأن الشركة “لم تختصر إجراءات السلامة لدينا، على الرغم من أننا ندرك أن الإطلاق كان مرهقًا لفرقنا.”

كما سعى مشرعون آخرون للحصول على إجابات بشأن ممارسات السلامة الخاصة بالشركة، بما في ذلك مجموعة من أعضاء مجلس الشيوخ بقيادة بريان شاتز (D-HI) في يوليو. طالب وارن وتراهان بمزيد من الوضوح بشأن ردود OpenAI على تلك المجموعة، بما في ذلك إنشاء “خط النزاهة” الجديد للموظفين للإبلاغ عن المخاوف.

وفي الوقت نفسه، يبدو أن OpenAI في موقف هجومي. وفي يوليو، أعلنت الشركة عن شراكة مع مختبر لوس ألاموس الوطني لاستكشاف كيف يمكن لنماذج الذكاء الاصطناعي المتقدمة أن تساعد بأمان في الأبحاث العلمية الحيوية. في الأسبوع الماضي فقط، أعلن ألتمان عبر X أن OpenAI تتعاون مع معهد سلامة الذكاء الاصطناعي الأمريكي وشدد على أن 20% من موارد الحوسبة في الشركة سيتم تخصيصها للسلامة (وهو الوعد الذي تم تقديمه في الأصل لفريق Superalignment الذي لم يعد موجودًا الآن). في نفس المنشور، قال ألتمان أيضًا أن OpenAI قد أزالت شروط عدم الاستخفاف بالموظفين والأحكام التي تسمح بإلغاء الأسهم المكتسبة، وهي قضية رئيسية في رسالة وارن.

طلب وارن وتراهان من ألتمان تقديم معلومات حول كيفية استخدام الخط الساخن الجديد الخاص بسلامة الذكاء الاصطناعي للموظفين، وكيفية متابعة الشركة للتقارير. كما طلبوا “حسابًا تفصيليًا” لجميع الأوقات التي تجاوزت فيها منتجات OpenAI “بروتوكولات السلامة”، وفي أي ظروف يُسمح للمنتج بتخطي مراجعة السلامة. ويسعى المشرعون أيضًا للحصول على معلومات حول سياسة النزاعات في OpenAI. لقد سألوا ألتمان عما إذا كان مطلوبًا منه سحب استثماراته من أي ممتلكات خارجية، و”ما هي وسائل الحماية المحددة المطبقة لحماية OpenAI من تضارب المصالح المالية؟” وطلبوا من ألتمان الرد بحلول 22 أغسطس.

يشير وارن أيضًا إلى مدى صوت ألتمان بشأن مخاوفه بشأن الذكاء الاصطناعي. في العام الماضي، حذر ألتمان أمام مجلس الشيوخ من أن قدرات الذكاء الاصطناعي يمكن أن “تؤدي إلى زعزعة استقرار السلامة العامة والأمن القومي بشكل كبير”، وأكد على استحالة توقع كل إساءة استخدام أو فشل محتمل لهذه التكنولوجيا. يبدو أن هذه التحذيرات لاقت صدى لدى المشرعين – في ولاية كاليفورنيا، موطن شركة OpenAI، يدفع السيناتور سكوت وينر من أجل مشروع قانون لتنظيم نماذج اللغات الكبيرة، بما في ذلك القيود التي من شأنها أن تجعل الشركات مسؤولة قانونيًا إذا تم استخدام الذكاء الاصطناعي الخاص بها بطرق ضارة.


اكتشاف المزيد من مجلة الإبداع

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من مجلة الإبداع

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading