تقدم OpenAI غصن زيتون للفنانين الذين يشعرون بالقلق من تغذية خوارزميات الذكاء الاصطناعي
تحارب OpenAI الدعاوى القضائية المرفوعة من الفنانين والكتاب والناشرين الذين يزعمون أنها استخدمت أعمالهم بشكل غير لائق لتدريب الخوارزميات وراء ChatGPT وأنظمة الذكاء الاصطناعي الأخرى. أعلنت الشركة يوم الثلاثاء عن أداة مصممة على ما يبدو لإرضاء المبدعين وأصحاب الحقوق، من خلال منحهم بعض السيطرة على كيفية استخدام OpenAI لعملهم.
وتقول الشركة إنها ستطلق أداة في عام 2025 تسمى Media Manager والتي تسمح لمنشئي المحتوى بإلغاء الاشتراك في عملهم من تطوير الذكاء الاصطناعي للشركة. في منشور بالمدونة، وصفت OpenAI الأداة بأنها وسيلة للسماح “للمبدعين ومالكي المحتوى بإخبارنا بما يملكونه” وتحديد “كيف يريدون تضمين أعمالهم أو استبعادها من أبحاث التعلم الآلي والتدريب”.
قالت OpenAI إنها تعمل مع “المبدعين ومالكي المحتوى والمنظمين” لتطوير الأداة وتعتزم “وضع معايير الصناعة”. ولم تذكر الشركة اسم أي من شركائها في المشروع ولم توضح بالضبط كيف ستعمل الأداة.
تشمل الأسئلة المفتوحة حول النظام ما إذا كان أصحاب المحتوى سيتمكنون من تقديم طلب واحد لتغطية جميع أعمالهم، وما إذا كان OpenAI سيسمح بالطلبات المتعلقة بالنماذج التي تم تدريبها وإطلاقها بالفعل. تجري الأبحاث حاليًا حول “إلغاء تعلم الآلة”، وهي عملية تعمل على ضبط نظام الذكاء الاصطناعي بحيث يزيل بأثر رجعي مساهمة جزء واحد من بيانات التدريب الخاصة به، لكن هذه التقنية لم تكتمل بعد.
يقول إد نيوتن ريكس، الرئيس التنفيذي للشركة الناشئة Fairly Trained، التي تعتمد شركات الذكاء الاصطناعي التي تستخدم بيانات التدريب من مصادر أخلاقية، إن التحول الواضح لـ OpenAI في بيانات التدريب أمر مرحب به، لكن التنفيذ سيكون بالغ الأهمية. “يسعدني أن أرى OpenAI تتعامل مع هذه المشكلة. ويقول: “سواء كان ذلك سيساعد الفنانين أم لا، فسوف ننتقل إلى التفاصيل، وهو ما لم يتم تقديمه بعد”. السؤال الرئيسي الأول الذي يدور في ذهنه: هل هذه مجرد أداة إلغاء الاشتراك التي تترك OpenAI مستمرة في استخدام البيانات دون إذن ما لم يطلب مالك المحتوى استبعادها؟ أم أنها ستمثل تحولًا أكبر في كيفية عمل OpenAI؟ ولم يرد OpenAI على الفور على طلب للتعليق.
لدى Newton-Rex فضول أيضًا لمعرفة ما إذا كانت OpenAI ستسمح للشركات الأخرى باستخدام مدير الوسائط الخاص بها حتى يتمكن الفنانون من الإشارة إلى تفضيلاتهم لمطوري الذكاء الاصطناعي المتعددين في وقت واحد. يقول نيوتن-ريكس، الذي كان سابقًا مديرًا تنفيذيًا في Stability AI، مطور مولد الصور Stable Diffusion: “إذا لم يكن الأمر كذلك، فسيؤدي ذلك إلى إضافة المزيد من التعقيد إلى بيئة إلغاء الاشتراك المعقدة بالفعل”.
OpenAI ليست أول شركة تبحث عن طرق للفنانين ومنشئي المحتوى الآخرين للإشارة إلى تفضيلاتهم بشأن استخدام عملهم وبياناتهم الشخصية لمشاريع الذكاء الاصطناعي. تقدم شركات التكنولوجيا الأخرى، من Adobe إلى Tumblr، أيضًا أدوات إلغاء الاشتراك فيما يتعلق بجمع البيانات والتعلم الآلي. أطلقت شركة Spawning الناشئة سجلاً يسمى Do Not Train منذ ما يقرب من عامين وقد أضاف المبدعون بالفعل تفضيلاتهم لـ 1.5 مليار عمل.
يقول جوردان ماير، الرئيس التنفيذي لشركة Spawning، إن الشركة لا تعمل مع OpenAI في مشروع Media Manager الخاص بها، ولكنها منفتحة للقيام بذلك. يقول: “إذا كانت شركة OpenAI قادرة على تسهيل عملية التسجيل أو احترام عمليات إلغاء الاشتراك العالمية، فسوف نسعد بدمج عملها في مجموعتنا”.