، مقالات،

وإليك كيف ستحدد OpenAI مدى قوة أنظمة الذكاء الاصطناعي الخاصة بها


قال متحدث باسم OpenAI إن OpenAI أنشأت مقياسًا داخليًا لتتبع التقدم الذي تحرزه نماذجها اللغوية الكبيرة نحو الذكاء العام الاصطناعي، أو الذكاء الاصطناعي الذي يتمتع بذكاء شبيه بالإنسان. بلومبرج.

وصلت روبوتات الدردشة اليوم، مثل ChatGPT، إلى المستوى الأول. وتدعي شركة OpenAI أنها تقترب من المستوى الثاني، الذي يُعرف بأنه نظام يمكنه حل المشكلات الأساسية على مستوى الشخص الحاصل على درجة الدكتوراه. يشير المستوى 3 إلى وكلاء الذكاء الاصطناعي القادرين على اتخاذ الإجراءات نيابة عن المستخدم. يتضمن المستوى 4 الذكاء الاصطناعي الذي يمكنه إنشاء ابتكارات جديدة. المستوى الخامس، وهو الخطوة الأخيرة لتحقيق الذكاء الاصطناعي العام، هو الذكاء الاصطناعي الذي يمكنه أداء عمل مؤسسات بأكملها من الأشخاص. وقد عرّفت شركة OpenAI سابقًا الذكاء الاصطناعي العام بأنه “نظام مستقل للغاية يتفوق على البشر في معظم المهام ذات القيمة الاقتصادية”.

يتمحور هيكل OpenAI الفريد حول مهمته المتمثلة في تحقيق الذكاء الاصطناعي العام، ومن المهم معرفة كيفية تعريف OpenAI للذكاء الاصطناعي العام. قالت الشركة إنه “إذا اقترب مشروع متوافق مع القيمة ومراعي للسلامة من بناء الذكاء الاصطناعي العام” قبل أن تفعل OpenAI، فإنها تلتزم بعدم التنافس مع المشروع وإسقاط كل شيء للمساعدة. إن صياغة هذا في ميثاق OpenAI غامضة، مما يترك مجالًا لحكم الكيان الربحي (الذي تحكمه المنظمة غير الربحية)، ولكن النطاق الذي يمكن لـ OpenAI اختبار نفسه والمنافسين عليه يمكن أن يساعد في تحديد متى يتم الوصول إلى الذكاء الاصطناعي العام بعبارات أكثر وضوحًا.

ومع ذلك، فإن الذكاء الاصطناعي العام لا يزال بعيدًا جدًا: سوف يستغرق الأمر مليارات ومليارات الدولارات من الطاقة الحاسوبية للوصول إلى الذكاء الاصطناعي العام، هذا إذا كان على الإطلاق. تختلف الجداول الزمنية للخبراء، وحتى في OpenAI، بشكل كبير. في أكتوبر 2023، قال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، إن أمامنا “خمس سنوات، زيادة أو نقصانًا” قبل أن نصل إلى AGI.

تم تقديم مقياس الدرجات الجديد هذا، على الرغم من أنه لا يزال قيد التطوير، بعد يوم من إعلان OpenAI عن تعاونها مع مختبر لوس ألاموس الوطني، والذي يهدف إلى استكشاف كيف يمكن لنماذج الذكاء الاصطناعي المتقدمة مثل GPT-4o أن تساعد بأمان في الأبحاث العلمية الحيوية. قال مدير برنامج في لوس ألاموس، المسؤول عن محفظة بيولوجيا الأمن القومي والذي لعب دورًا فعالًا في تأمين شراكة OpenAI الحافة أن الهدف هو اختبار قدرات GPT-4o وإنشاء مجموعة من عوامل السلامة وعوامل أخرى لحكومة الولايات المتحدة. في النهاية، يمكن اختبار النماذج العامة أو الخاصة مقابل هذه العوامل لتقييم نماذجها الخاصة.

في شهر مايو، قامت شركة OpenAI بحل فريق السلامة الخاص بها بعد أن ترك قائد المجموعة، المؤسس المشارك لشركة OpenAI، إيليا سوتسكيفر، الشركة. استقال جان لايكي، أحد الباحثين الرئيسيين في OpenAI، بعد فترة وجيزة من ادعائه في أحد المنشورات بأن “ثقافة وعمليات السلامة قد أخذت المقعد الخلفي أمام المنتجات اللامعة” في الشركة. وفي حين أنكرت شركة OpenAI أن يكون الأمر كذلك، إلا أن البعض يشعر بالقلق بشأن ما يعنيه هذا إذا وصلت الشركة بالفعل إلى الذكاء الاصطناعي العام.

لم تقدم OpenAI تفاصيل حول كيفية تعيين النماذج لهذه المستويات الداخلية (ورفضت الحافةطلب التعليق). ومع ذلك، أظهر قادة الشركة مشروعًا بحثيًا باستخدام نموذج GPT-4 AI خلال اجتماع شامل يوم الخميس، ويعتقدون أن هذا المشروع يعرض بعض المهارات الجديدة التي تظهر تفكيرًا شبيهًا بالإنسان، وفقًا لـ بلومبرج.

ومن الممكن أن يساعد هذا المقياس في تقديم تعريف صارم للتقدم، بدلاً من تركه للتفسير. على سبيل المثال، قالت ميرا موراتي، مديرة التكنولوجيا في OpenAI، في مقابلة أجريت معها في يونيو/حزيران، إن النماذج الموجودة في مختبراتها ليست أفضل بكثير مما لدى الجمهور بالفعل. وفي الوقت نفسه، قال الرئيس التنفيذي سام ألتمان في أواخر العام الماضي إن الشركة مؤخرًا “دفعت حجاب الجهل إلى الوراء”، مما يعني أن العارضات أكثر ذكاءً بشكل ملحوظ.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى