تريد حكومة الولايات المتحدة منكم – نعم، أنتم – أن تقوموا بمطاردة عيوب الذكاء الاصطناعي التوليدية
في مؤتمر Defcon hacker لعام 2023 في لاس فيغاس، تعاونت شركات تكنولوجيا الذكاء الاصطناعي البارزة مع مجموعات النزاهة والشفافية الخوارزمية لاستقطاب آلاف الحاضرين على منصات الذكاء الاصطناعي التوليدية والعثور على نقاط الضعف في هذه الأنظمة المهمة. وقد اتخذ تمرين “الفريق الأحمر”، والذي حظي أيضاً بدعم من حكومة الولايات المتحدة، خطوة نحو فتح هذه الأنظمة ذات التأثير المتزايد والمبهمة للتدقيق. الآن، تقوم منظمة Humane Intelligence غير الربحية للتقييم الأخلاقي والخوارزمي بأخذ هذا النموذج خطوة أخرى إلى الأمام. وفي يوم الأربعاء، أعلنت المجموعة عن دعوة للمشاركة مع المعهد الوطني الأمريكي للمعايير والتكنولوجيا، ودعت أي مقيم في الولايات المتحدة للمشاركة في الجولة التأهيلية لجهود الفريق الأحمر على مستوى البلاد لتقييم برامج إنتاجية مكاتب الذكاء الاصطناعي.
سيتم إجراء التصفيات عبر الإنترنت وهي مفتوحة لكل من المطورين وأي شخص من عامة الناس كجزء من تحديات الذكاء الاصطناعي الخاصة بـ NIST، والمعروفة باسم تقييم مخاطر وتأثيرات الذكاء الاصطناعي، أو ARIA. سيشارك المشاركون الذين اجتازوا الجولة التأهيلية في حدث الفريق الأحمر الشخصي في نهاية شهر أكتوبر في مؤتمر التعلم الآلي التطبيقي في أمن المعلومات (CAMLIS) في فيرجينيا. الهدف هو توسيع القدرات لإجراء اختبارات صارمة لأمن ومرونة وأخلاقيات تقنيات الذكاء الاصطناعي التوليدية.
يقول ثيو سكيداس، الرئيس التنفيذي لمجموعة حوكمة الذكاء الاصطناعي والسلامة عبر الإنترنت، Tech Policy Consulting، التي تعمل في مجال حوكمة الذكاء الاصطناعي والسلامة عبر الإنترنت: “إن الشخص العادي الذي يستخدم أحد هذه النماذج ليس لديه حقًا القدرة على تحديد ما إذا كان النموذج مناسبًا للغرض أم لا”. يعمل مع الاستخبارات الإنسانية. “لذلك نريد إضفاء الطابع الديمقراطي على القدرة على إجراء التقييمات والتأكد من أن كل شخص يستخدم هذه النماذج يمكنه التقييم بنفسه ما إذا كان النموذج يلبي احتياجاته أم لا.”
سيقسم الحدث الأخير في CAMLIS المشاركين إلى فريق أحمر يحاول مهاجمة أنظمة الذكاء الاصطناعي وفريق أزرق يعمل على الدفاع. سيستخدم المشاركون إطار إدارة مخاطر الذكاء الاصطناعي الخاص بـ NIST، والمعروف باسم AI 600-1، كمعيار لقياس ما إذا كان الفريق الأحمر قادرًا على تحقيق نتائج تنتهك السلوك المتوقع للأنظمة.
يقول رومان شودري، مؤسس شركة Humane Intelligence، وهو أيضًا مقاول في مكتب NIST للتكنولوجيات الناشئة وعضو في وزارة الأمن الداخلي الأمريكية: “تعتمد ARIA الخاصة بـ NIST على تعليقات المستخدمين المنظمة لفهم تطبيقات العالم الحقيقي لنماذج الذكاء الاصطناعي”. مجلس السلامة والأمن AI. “يتكون فريق ARIA في الغالب من خبراء في الاختبار والتقييم الاجتماعي التقني، و [is] باستخدام تلك الخلفية كوسيلة لتطوير المجال نحو التقييم العلمي الدقيق للذكاء الاصطناعي التوليدي
يقول تشودري وسكيداس إن شراكة NIST هي مجرد واحدة من سلسلة تعاونات الفريق الأحمر للذكاء الاصطناعي التي ستعلن عنها منظمة Humane Intelligence في الأسابيع المقبلة مع الوكالات الحكومية الأمريكية والحكومات الدولية والمنظمات غير الحكومية. يهدف هذا الجهد إلى جعل الأمر أكثر شيوعًا بالنسبة للشركات والمنظمات التي تطور ما يُعرف الآن بخوارزميات الصندوق الأسود لتوفير الشفافية والمساءلة من خلال آليات مثل “تحديات مكافأة التحيز”، حيث يمكن مكافأة الأفراد على اكتشاف المشكلات وعدم المساواة في الحياة. نماذج الذكاء الاصطناعي.
يقول سكيداس: “يجب أن يكون المجتمع أوسع من المبرمجين”. “يجب أن يشارك صناع السياسات والصحفيون والمجتمع المدني والأشخاص غير التقنيين في عملية اختبار وتقييم هذه الأنظمة. ونحن بحاجة إلى التأكد من أن المجموعات الأقل تمثيلا مثل الأفراد الذين يتحدثون لغات الأقليات أو الذين ينتمون إلى ثقافات ووجهات نظر غير الأغلبية قادرة على المشاركة في هذه العملية.
اكتشاف المزيد من مجلة الإبداع
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.