أخبار تقنية

خطة الصين لجعل العلامات المائية تعمل بالذكاء الاصطناعي


ويقول جيفري دينج، الأستاذ المساعد للعلوم السياسية في جامعة جورج واشنطن، إنه من المرجح أن الهيئات التنظيمية الصينية تعلمت من قانون الاتحاد الأوروبي للذكاء الاصطناعي. “قال صناع السياسات والباحثون الصينيون إنهم اعتمدوا على قوانين الاتحاد الأوروبي كمصدر إلهام لأشياء في الماضي”.

ولكن في الوقت نفسه، فإن بعض التدابير التي اتخذتها الهيئات التنظيمية الصينية لا يمكن تكرارها في بلدان أخرى. على سبيل المثال، تطلب الحكومة الصينية من منصات التواصل الاجتماعي فحص المحتوى الذي يحمّله المستخدم بحثًا عن الذكاء الاصطناعي. يقول دينغ: “يبدو هذا شيئًا جديدًا للغاية وقد يكون فريدًا بالنسبة للسياق الصيني”. “هذا لن يكون موجودا أبدا في سياق الولايات المتحدة، لأن الولايات المتحدة مشهورة بقولها إن المنصة ليست مسؤولة عن المحتوى”.

ولكن ماذا عن حرية التعبير على الإنترنت؟

تسعى مسودة اللائحة المتعلقة بتصنيف محتوى الذكاء الاصطناعي إلى الحصول على تعليقات عامة حتى 14 أكتوبر، وقد يستغرق تعديلها وإقرارها عدة أشهر أخرى. ولكن لا يوجد سبب وجيه يدفع الشركات الصينية إلى تأخير الاستعداد لحين دخوله حيز التنفيذ.

يقول سيما هوابينغ، المؤسس والرئيس التنفيذي لشركة Silicon Intelligence الصينية التابعة لشركة AIGC، والتي تستخدم تقنيات التزييف العميق لإنشاء عملاء الذكاء الاصطناعي والمؤثرين واستنساخ الأحياء والأموات، إن منتجه يتيح الآن للمستخدمين الاختيار طوعًا ما إذا كانوا يريدون وضع علامة على المنتج الذي تم إنشاؤه على أنه ذكاء اصطناعي. ولكن إذا تم إقرار القانون، فقد يضطر إلى تغييره إلى إلزامي.

“إذا كانت الميزة اختيارية، فمن المرجح أن الشركات لن تضيفها إلى منتجاتها. وتقول سيما: “ولكن إذا أصبح إلزامياً بموجب القانون، فيجب على الجميع تنفيذه”. ليس من الصعب تقنيًا إضافة علامات مائية أو علامات بيانات تعريفية، ولكنها ستزيد من تكاليف التشغيل للشركات المتوافقة.

ويقول إن سياسات مثل هذه يمكن أن توجه الذكاء الاصطناعي بعيدًا عن استخدامه في الاحتيال أو انتهاك الخصوصية، ولكنها يمكن أن تؤدي أيضًا إلى نمو السوق السوداء لخدمات الذكاء الاصطناعي حيث تحاول الشركات تفادي الامتثال القانوني وتوفير التكاليف.

هناك أيضًا خط رفيع بين مساءلة منتجي محتوى الذكاء الاصطناعي ومراقبة الكلام الفردي من خلال تتبع أكثر تطوراً.

يقول غريغوري: “إن التحدي الكبير الكامن في مجال حقوق الإنسان هو التأكد من أن هذه الأساليب لا تؤدي إلى المزيد من المساس بالخصوصية أو حرية التعبير”. في حين يمكن استخدام العلامات والعلامات المائية الضمنية لتحديد مصادر المعلومات الخاطئة والمحتوى غير المناسب، فإن نفس الأدوات يمكن أن تمكن المنصات والحكومة من السيطرة بشكل أقوى على ما ينشره المستخدمون على الإنترنت. في الواقع، كانت المخاوف بشأن الكيفية التي يمكن بها لأدوات الذكاء الاصطناعي أن تصبح مارقة، واحدة من المحركات الرئيسية للجهود التشريعية الاستباقية في مجال الذكاء الاصطناعي في الصين.

وفي الوقت نفسه، تضغط صناعة الذكاء الاصطناعي الصينية على الحكومة للحصول على مساحة أكبر للتجربة والنمو لأنها متأخرة بالفعل عن نظيراتها الغربية. تم تخفيف قانون صيني سابق للذكاء الاصطناعي بشكل كبير بين المسودة العامة الأولى ومشروع القانون النهائي، مما أدى إلى إزالة متطلبات التحقق من الهوية وتقليل العقوبات المفروضة على الشركات.

“ما رأيناه هو أن الحكومة الصينية تحاول حقًا السير على هذا الحبل المشدود بين “التأكد من أننا نحافظ على التحكم في المحتوى” ولكن أيضًا “السماح لمختبرات الذكاء الاصطناعي هذه في مساحة استراتيجية بالتمتع بحرية الابتكار”. ” يقول دينغ. “هذه محاولة أخرى للقيام بذلك”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى