يقول OpenAI exec إن مشروع قانون سلامة الذكاء الاصطناعي في كاليفورنيا قد يؤدي إلى إبطاء التقدم
في رسالة جديدة، أصر جيسون كوون، كبير مسؤولي الإستراتيجية في OpenAI، على ضرورة ترك لوائح الذكاء الاصطناعي للحكومة الفيدرالية. كما ذكرت سابقا من بلومبرجيقول كوون إن مشروع قانون جديد لسلامة الذكاء الاصطناعي قيد النظر في كاليفورنيا يمكن أن يبطئ التقدم ويدفع الشركات إلى مغادرة الولاية.
إن مجموعة من سياسات الذكاء الاصطناعي التي تقودها الحكومة الفيدرالية، بدلا من خليط من قوانين الولايات، سوف تعمل على تعزيز الإبداع ووضع الولايات المتحدة في موقع يسمح لها بقيادة تطوير المعايير العالمية. ونتيجة لذلك، فإننا ننضم إلى مختبرات الذكاء الاصطناعي الأخرى والمطورين والخبراء وأعضاء وفد الكونجرس في كاليفورنيا في معارضة SB 1047 بكل احترام ونرحب بفرصة تحديد بعض اهتماماتنا الرئيسية.
الرسالة موجهة إلى عضو مجلس الشيوخ عن ولاية كاليفورنيا سكوت وينر، الذي قدم في الأصل قانون SB 1047، المعروف أيضًا باسم قانون الابتكار الآمن والآمن لنماذج الذكاء الاصطناعي الحدودي.
وفقًا لمؤيدين مثل وينر، فإنه يضع معايير قبل تطوير نماذج ذكاء اصطناعي أكثر قوة، ويتطلب احتياطات مثل اختبار السلامة قبل النشر وغيرها من الضمانات، ويضيف حماية للمبلغين عن المخالفات لموظفي مختبرات الذكاء الاصطناعي، ويمنح المدعي العام في كاليفورنيا سلطة اتخاذ إجراءات قانونية إذا نماذج الذكاء الاصطناعي تسبب الضرر، وتدعو إلى إنشاء “مجموعة حاسوبية سحابية عامة” تسمى CalCompute.
وفي رد على الرسالة المنشورة مساء الأربعاء، يشير وينر إلى أن المتطلبات المقترحة تنطبق على أي شركة تمارس أعمالها في كاليفورنيا، سواء كان مقرها الرئيسي في الولاية أم لا، وبالتالي فإن الحجة “غير منطقية”. وكتب أيضًا أن OpenAI “… لا ينتقد بندًا واحدًا في مشروع القانون” ويختتم بالقول، “SB 1047 هو مشروع قانون معقول للغاية يطلب من مختبرات الذكاء الاصطناعي الكبيرة القيام بما التزمت به بالفعل، أي ، واختبار نماذجهم الكبيرة لمخاطر السلامة الكارثية.
وينتظر مشروع القانون حاليا التصويت النهائي قبل الذهاب إلى مكتب الحاكم جافين نيوسوم.
إليكم رسالة OpenAI بالكامل:
اكتشاف المزيد من مجلة الإبداع
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.