تدعي Microsoft أن أداة أمان الذكاء الاصطناعي الخاصة بها لا تكتشف الأخطاء فحسب، بل تعمل أيضًا على إصلاحها
تطلق Microsoft ميزة جديدة تسمى “التصحيح” والتي تعتمد على جهود الشركة لمكافحة عدم دقة الذكاء الاصطناعي. يمكن الآن للعملاء الذين يستخدمون Microsoft Azure لتشغيل أنظمة الذكاء الاصطناعي الخاصة بهم استخدام القدرة على اكتشاف المحتوى غير الصحيح وإعادة كتابته تلقائيًا في مخرجات الذكاء الاصطناعي.
تتوفر ميزة التصحيح في المعاينة كجزء من Azure AI Studio – وهي مجموعة من أدوات الأمان المصممة لاكتشاف الثغرات الأمنية والعثور على “الهلوسة” وحظر المطالبات الضارة. بمجرد التمكين، سيقوم نظام التصحيح بمسح وتحديد الأخطاء في مخرجات الذكاء الاصطناعي من خلال مقارنتها بالمواد المصدر الخاصة بالعميل.
ومن هناك، سوف يسلط الضوء على الخطأ، ويقدم معلومات حول سبب عدم صحته، ويعيد كتابة المحتوى المعني – كل ذلك “قبل أن يتمكن المستخدم من رؤية” عدم الدقة. وفي حين أن هذا يبدو وكأنه وسيلة مفيدة لمعالجة الهراء الذي تتبناه نماذج الذكاء الاصطناعي في كثير من الأحيان، إلا أنه قد لا يكون حلاً موثوقًا به بالكامل.
تتمتع Vertex AI، وهي منصة Google السحابية للشركات التي تعمل على تطوير أنظمة الذكاء الاصطناعي، بميزة تعمل على “تأسيس” نماذج الذكاء الاصطناعي عن طريق التحقق من المخرجات مقابل بحث Google، وبيانات الشركة الخاصة، ومجموعات بيانات الطرف الثالث (قريبًا).
في تصريح ل تك كرانشقال متحدث باسم Microsoft إن نظام “التصحيح” يستخدم “نماذج لغوية صغيرة ونماذج لغوية كبيرة لمواءمة المخرجات مع المستندات الأساسية”، مما يعني أنه ليس محصنًا ضد ارتكاب الأخطاء أيضًا. قالت Microsoft: “من المهم ملاحظة أن اكتشاف التأريض لا يحل مشكلة” الدقة “، ولكنه يساعد في مواءمة مخرجات الذكاء الاصطناعي التوليدية مع المستندات المؤرضة”. تك كرانش.
اكتشاف المزيد من مجلة الإبداع
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.