، مقالات،

هل تقلب كاليفورنيا صناعة الذكاء الاصطناعي رأساً على عقب؟


الذكاء الاصطناعي يتحرك بسرعة. أصبح الآن قادرًا على تقليد البشر بشكل مقنع بما يكفي لتغذية عمليات احتيال هاتفية ضخمة أو نشر صور مزيفة غير مقصودة للمشاهير لاستخدامها في حملات التحرش. إن الحاجة الملحة لتنظيم هذه التكنولوجيا لم تكن أكثر أهمية من أي وقت مضى – لذلك، هذا ما تحاول ولاية كاليفورنيا، موطن العديد من أكبر اللاعبين في مجال الذكاء الاصطناعي، القيام به من خلال مشروع قانون يعرف باسم SB 1047.

SB 1047، الذي أقره مجلس ولاية كاليفورنيا ومجلس الشيوخ في أواخر أغسطس، هو الآن على مكتب حاكم ولاية كاليفورنيا جافين نيوسوم – الذي سيحدد مصير مشروع القانون. في حين أن الاتحاد الأوروبي وبعض الحكومات الأخرى تعمل على صياغة تنظيمات بشأن الذكاء الاصطناعي لسنوات حتى الآن، فإن SB 1047 سيكون الإطار الأكثر صرامة في الولايات المتحدة حتى الآن. لقد رسم النقاد صورة مروعة تقريبًا لتأثيرها، واصفين إياها بأنها تهديد للشركات الناشئة ومطوري المصادر المفتوحة والأكاديميين. ويصفها المؤيدون بأنها حاجز حماية ضروري لتكنولوجيا يحتمل أن تكون خطرة – وتصحيح لسنوات من ضعف التنظيم. وفي كلتا الحالتين، فإن القتال في كاليفورنيا يمكن أن يقلب الذكاء الاصطناعي كما نعرفه رأساً على عقب، وكلا الجانبين يخرجان بقوة.

يقاتل لاعبو الذكاء الاصطناعي الأقوياء كاليفورنيا، وبعضهم البعض

كان الإصدار الأصلي من SB 1047 جريئًا وطموحًا. تم تقديمه من قبل عضو مجلس الشيوخ عن الولاية سكوت وينر باعتباره قانون كاليفورنيا للابتكار الآمن والآمن لنماذج الذكاء الاصطناعي الحدودي، وهو يهدف إلى تنظيم نماذج الذكاء الاصطناعي المتقدمة بشكل صارم مع قدر كافٍ من قوة الحوسبة، وهو ما يعادل حجم أكبر أنظمة الذكاء الاصطناعي اليوم (والتي تبلغ 10^). 26 يتخبط). ويتطلب مشروع القانون من مطوري هذه النماذج الحدودية إجراء اختبارات سلامة شاملة، بما في ذلك تقييمات الطرف الثالث، والتأكد من أن نماذجهم لا تشكل أي خطر كبير على البشرية. كان على المطورين أيضًا تنفيذ “مفتاح القتل” لإغلاق النماذج المارقة والإبلاغ عن حوادث السلامة إلى وكالة تنظيمية منشأة حديثًا. وقد يواجهون دعاوى قضائية محتملة من المدعي العام بسبب إخفاقات كارثية في مجال السلامة. إذا كذبوا بشأن السلامة، فقد يواجه المطورون تهم الحنث باليمين، والتي تشمل التهديد بالسجن (ومع ذلك، فإن هذا نادر جدًا في الممارسة العملية).

يتمتع المشرعون في كاليفورنيا بوضع قوي فريد يسمح لهم بتنظيم الذكاء الاصطناعي. تعد الولاية الأكثر اكتظاظًا بالسكان في البلاد موطنًا للعديد من شركات الذكاء الاصطناعي الرائدة، بما في ذلك OpenAI، التي عارضت مشروع القانون علنًا، وشركة Anthropic، التي كانت مترددة في دعمه قبل التعديلات. يسعى SB 1047 أيضًا إلى تنظيم النماذج التي ترغب في العمل في سوق كاليفورنيا، مما يمنحها تأثيرًا بعيد المدى خارج حدود الولاية.

ومن غير المستغرب أن تثور أجزاء كبيرة من صناعة التكنولوجيا. في حدث Y Combinator بشأن تنظيم الذكاء الاصطناعي والذي حضرته في أواخر يوليو، تحدثت مع أندرو إنج، أحد مؤسسي كورسيرا ومؤسس Google Brain، الذي تحدث عن خططه للاحتجاج على SB 1047 في شوارع سان فرانسيسكو. ظهر إنج بشكل مفاجئ على خشبة المسرح في وقت لاحق، منتقدًا مشروع القانون لضرره المحتمل على الأكاديميين ومطوري المصادر المفتوحة بينما كان وينر يتابع الأمر مع فريقه.

“عندما يقوم شخص ما بتدريب نموذج لغة كبير… فهذه تقنية. قال إنج على خشبة المسرح: “عندما يضعها شخص ما في جهاز طبي أو في موجز وسائل التواصل الاجتماعي أو في برنامج الدردشة الآلي أو يستخدم ذلك لإنشاء صور مزيفة سياسية أو إباحية عميقة بدون موافقة، فهذه تطبيقات”. “وخطر الذكاء الاصطناعي ليس وظيفة. الأمر لا يعتمد على التكنولوجيا، بل يعتمد على التطبيق.”

يشعر النقاد مثل إنج بالقلق من أن SB 1047 قد يؤدي إلى إبطاء التقدم، وغالبًا ما يثيرون مخاوف من أنه قد يعيق تقدم الولايات المتحدة ضد الدول المعادية مثل الصين وروسيا. يشعر النواب زوي لوفغرين ونانسي بيلوسي وغرفة التجارة في كاليفورنيا بالقلق من أن مشروع القانون يركز بشكل كبير على الإصدارات الخيالية من الذكاء الاصطناعي الكارثي، وقد حذر رائد الذكاء الاصطناعي فاي فاي لي في بيان حظ العمود أن SB 1047 من شأنه أن “يضر بنظامنا البيئي الناشئ للذكاء الاصطناعي”. وهذه أيضًا نقطة ضغط بالنسبة لخان، الذي يشعر بالقلق بشأن التنظيم الفيدرالي الذي يخنق الابتكار في مجتمعات الذكاء الاصطناعي مفتوحة المصدر.

على خشبة المسرح في حدث YC، أكد خان على أن المصدر المفتوح هو محرك مثبت للابتكار، حيث يجذب مئات المليارات من رأس المال الاستثماري لدعم الشركات الناشئة. وقال خان: “نحن نفكر في ما ينبغي أن يعنيه المصدر المفتوح في سياق الذكاء الاصطناعي، سواء بالنسبة لكم جميعًا كمبتكرين، ولكن أيضًا بالنسبة لنا كمنفذين للقانون”. “إن تعريف المصدر المفتوح في سياق البرمجيات لا يترجم بدقة إلى سياق الذكاء الاصطناعي.” وقالت إن كلاً من المبتكرين والمنظمين ما زالوا يستكشفون كيفية تعريف الذكاء الاصطناعي مفتوح المصدر وحمايته في سياق التنظيم.

إن SB 1047 الضعيف أفضل من لا شيء

وكانت نتيجة الانتقادات مسودة ثانية أكثر ليونة بكثير من SB 1047، والتي خرجت من اللجنة في 15 أغسطس. في قانون SB 1047 الجديد، تمت إزالة الوكالة التنظيمية المقترحة، ولم يعد بإمكان المدعي العام مقاضاة المطورين بسبب حوادث السلامة الكبرى. فبدلاً من تقديم شهادات السلامة تحت التهديد بالحنث باليمين، يحتاج المطورون الآن فقط إلى تقديم “بيانات” عامة حول ممارسات السلامة الخاصة بهم، دون أي مسؤولية جنائية. بالإضافة إلى ذلك، فإن الكيانات التي تنفق أقل من 10 ملايين دولار على تحسين النموذج لا تعتبر مطورين بموجب مشروع القانون، مما يوفر الحماية للشركات الناشئة الصغيرة ومطوري المصادر المفتوحة.

ومع ذلك، فإن هذا لا يعني أن مشروع القانون لا يستحق الموافقة، وفقًا لمؤيديه. حتى في شكله الضعيف، إذا كان SB 1047 “يجعل شركة ذكاء اصطناعي واحدة تفكر في تصرفاتها، أو تأخذ مواءمة نماذج الذكاء الاصطناعي مع القيم الإنسانية بشكل أكثر جدية، فسيكون ذلك في صالح”، كما كتب غاري ماركوس، أستاذ فخري في كلية العلوم. علم النفس والعلوم العصبية في جامعة نيويورك. وستظل توفر وسائل حماية السلامة الهامة ودروع المبلغين عن المخالفات، والتي قد يجادل البعض بأنها أفضل من لا شيء.

وقال الرئيس التنفيذي لشركة Anthropic، داريو أمودي، إن مشروع القانون “تم تحسينه بشكل كبير، لدرجة أننا نعتقد أن فوائده من المرجح أن تفوق تكاليفه” بعد التعديلات. في بيان لدعم SB 1047 ذكرته أكسيوسوقال 120 موظفًا حاليًا وسابقًا في OpenAI وAnthropic وGoogle’s DeepMind وMeta إنهم “يعتقدون أن أقوى نماذج الذكاء الاصطناعي قد تشكل قريبًا مخاطر شديدة، مثل توسيع الوصول إلى الأسلحة البيولوجية والهجمات الإلكترونية على البنية التحتية الحيوية”.

وقال البيان: “من الممكن والمناسب لشركات الذكاء الاصطناعي الحدودية أن تختبر ما إذا كانت أقوى نماذج الذكاء الاصطناعي يمكن أن تسبب أضرارًا جسيمة، وأن تنفذ هذه الشركات ضمانات معقولة ضد مثل هذه المخاطر”.

وفي الوقت نفسه، لم يغير العديد من المنتقدين موقفهم. وقال مارتن كاسادو، الشريك العام لأندريسن هورويتز: “إن التعديلات هي بمثابة تزيين للنوافذ”. “إنهم لا يتناولون القضايا أو الانتقادات الحقيقية لمشروع القانون.”

هناك أيضًا كبير مسؤولي الإستراتيجية في OpenAI، جيسون كوون، الذي قال في رسالة إلى نيوسوم ووينر إن “SB 1047 سيهدد هذا النمو، ويبطئ وتيرة الابتكار، ويقود المهندسين ورجال الأعمال العالميين في كاليفورنيا إلى مغادرة الولاية بحثًا عن العمل”. فرصة أكبر في مكان آخر.”

وكتب كوون: “بالنظر إلى هذه المخاطر، يجب علينا حماية تفوق أمريكا في مجال الذكاء الاصطناعي من خلال مجموعة من السياسات الفيدرالية – بدلاً من سياسات الولايات – التي يمكن أن توفر الوضوح واليقين لمختبرات الذكاء الاصطناعي والمطورين مع الحفاظ أيضًا على السلامة العامة”.

حبل نيوسوم السياسي المشدود

على الرغم من أن هذه النسخة المعدلة للغاية من SB 1047 وصلت إلى مكتب نيوسوم، إلا أنه كان هادئًا بشكل ملحوظ بشأنها. ليس من الأخبار تمامًا أن تنظيم التكنولوجيا كان دائمًا يتضمن درجة من المناورة السياسية، وأن نهج نيوسوم المتشدد بشأن مثل هذا التنظيم المثير للجدل يشير إلى الكثير. نيوسوم يمكن لا أريد أن أزعج القارب بخبراء التكنولوجيا قبل الانتخابات الرئاسية مباشرة.

يعد العديد من المديرين التنفيذيين المؤثرين في مجال التكنولوجيا أيضًا من كبار المانحين للحملات السياسية، وفي كاليفورنيا، موطن بعض أكبر شركات التكنولوجيا في العالم، يرتبط هؤلاء المسؤولون التنفيذيون ارتباطًا وثيقًا بسياسة الولاية. حتى أن شركة رأس المال الاستثماري أندريسن هورويتز قامت بتجنيد جيسون كيني، وهو صديق مقرب للحاكم نيوسوم وناشط ديمقراطي، للضغط ضد مشروع القانون. بالنسبة للسياسي، فإن الضغط من أجل تنظيم التكنولوجيا قد يعني خسارة الملايين من مساهمات الحملات الانتخابية. بالنسبة لشخص مثل نيوسوم، الذي لديه طموحات رئاسية واضحة، فإن هذا مستوى من الدعم لا يمكنه تحمل المخاطرة به.

علاوة على ذلك، اتسع الخلاف بين وادي السيليكون والديمقراطيين، خاصة بعد أن أعرب مؤسسو أندريسن هورويتز عن دعمهم لدونالد ترامب. إن معارضة الشركة القوية لـ SB 1047 تعني أنه إذا وقع نيوسوم عليه ليصبح قانونًا، فقد يتسع الانقسام، مما يجعل من الصعب على الديمقراطيين استعادة دعم وادي السيليكون.

لذا، فإن الأمر يعود إلى نيوسوم، الذي يتعرض لضغوط شديدة من أقوى شركات التكنولوجيا في العالم وزملائه السياسيين مثل بيلوسي. وبينما كان المشرعون يعملون على تحقيق توازن دقيق بين التنظيم والابتكار لعقود من الزمن، فإن الذكاء الاصطناعي غامض وغير مسبوق، ويبدو أن الكثير من القواعد القديمة لا تنطبق. في الوقت الحالي، أمام نيوسوم مهلة حتى سبتمبر/أيلول لاتخاذ قرار قد يقلب صناعة الذكاء الاصطناعي كما نعرفها رأسًا على عقب.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى