أخبار تقنية

2024 هو عام انتخابات الذكاء الاصطناعي التوليدي


يعرف الخبراء أن الذكاء الاصطناعي التوليدي مستعد لإحداث تغيير جذري في مشهد المعلومات، ومن المرجح أن تتفاقم المشاكل التي ابتليت بها منصات التكنولوجيا منذ فترة طويلة – مثل المعلومات الخاطئة والمضللة، والاحتيال، والمحتوى الذي يحض على الكراهية – على الرغم من الحواجز التي تقول الشركات إنها وضعتها. ضعها في مكان.

هناك عدة طرق لمعرفة ما إذا كان قد تم صنع شيء ما أو التلاعب به باستخدام الذكاء الاصطناعي: ربما أكد الأشخاص أو الحملات استخدامه؛ ربما يكون مدققو الحقائق قد قاموا بتحليل وفضح شيء منتشر في العالم؛ أو ربما يتم استخدام محتوى الذكاء الاصطناعي بشكل واضح لشيء مثل الهجاء. في بعض الأحيان، إذا كنا محظوظين، يتم وضع علامة مائية عليه، مما يعني أن هناك شيئًا يشير إلى أنه تم إنشاؤه أو تغييره بواسطة الذكاء الاصطناعي. لكن الحقيقة هي أن هذا على الأرجح لا يمثل سوى بعض مما هو موجود بالفعل. ومن المؤكد تقريبًا أنه حتى مجموعة البيانات الخاصة بنا أقل من العدد الحقيقي.

وهذا يقودنا إلى قضية أخرى: وكما قال الصحفي البريطاني بيتر بوميرانتسيف: “عندما لا يكون هناك شيء حقيقي، فإن كل شيء ممكن”. في النظام البيئي للمعلومات حيث يمكن لأي شيء أن يكون ذكاءً اصطناعيًا منتجًا، من السهل على السياسيين أو الشخصيات العامة أن يقولوا إن شيئًا حقيقيًا هو مزيف – وهو ما يُعرف باسم “أرباح الكاذب”. وهذا يعني أن الناس قد يكونون أقل عرضة لتصديق المعلومات حتى عندما تكون صحيحة. أما بالنسبة لمدققي الحقائق والصحفيين، فإن الكثير منهم لا يملكون الأدوات المتاحة بسهولة لتقييم ما إذا كان الذكاء الاصطناعي قد تم صنع شيء ما أو التلاعب به. مهما كان ما يحمله هذا العام، فمن المرجح أن يكون مجرد غيض من فيض.

لكن مجرد كون الشيء مزيفًا لا يجعله سيئًا. لقد وجدت تقنية التزييف العميق موطنًا لها في السخرية، ويمكن لروبوتات الدردشة (في بعض الأحيان) تقديم معلومات جيدة، ومن الممكن أن تجعل الحملات التوعية الشخصية الناس يشعرون بأن ممثليهم السياسيين يرونهم.

إنه عالم جديد وشجاع، ولكن هذا هو السبب في أننا نتتبعه.

غرفة الدردشة

كجزء من مشروع الذكاء الاصطناعي الخاص بنا، نطلب من القراء إرسال أي أمثلة للذكاء الاصطناعي التوليدي الذي تواجهه في البرية هذا العام الانتخابي.

للحصول على فكرة أفضل عن كيفية تقييمنا لعمليات الإرسال (أو حتى الأشياء التي نجدها) ولإرسال واحدة إلينا، راجع هذا الرابط هنا. إذا لم تكن متأكدًا مما إذا كان شيء ما مصنوعًا من الذكاء الاصطناعي التوليدي أو مجرد تزييف عادي ورخيص، فأرسله على أي حال وسننظر في الأمر.

💬 اترك تعليقا أسفل هذه المقالة.

يقرأ السلكية

هل تريد المزيد؟ إشترك الآن للوصول غير المحدود إلى WIRED.

ماذا نقرأ أيضًا

🔗 تقول TikTok إنها أزالت حملة تأثير نشأت في الصين: قالت TikTok الأسبوع الماضي إنها حذفت آلاف الحسابات المرتبطة بـ 15 حملة تأثير صينية على منصاتها. (واشنطن بوست)

🔗 راماسوامي يحث BuzzFeed على خفض الوظائف وبث المزيد من الأصوات المحافظة: فيفيك راماسوامي، المرشح الرئاسي الجمهوري السابق، هو الآن مستثمر نشط في BuzzFeed. وهو يريد أن يجذب المنشور القراء المحافظين ويقول إنه “كذب” في تقاريره عن دونالد ترامب وكوفيد، من بين موضوعات أخرى. (بلومبرج)

🔗 تقوم OpenAI بإنشاء مجلس مراقبة يضم Sam Altman بعد حل فريق السلامة: وسيقدم مجلس الإدارة الجديد توصيات بشأن السلامة والأمن، وسيكون أمامه 90 يومًا “لمواصلة تطوير عمليات OpenAI وضماناتها”، وفقًا لمدونة الشركة. (بلومبرج)

تحميل

شيء أخير! تحدثت هذا الأسبوع في البودكاست مع محررتنا ومضيفتنا ليا فيجر حول مشروع انتخابات الذكاء الاصطناعي. إعطائها الاستماع!

بالإضافة إلى الحديث عن المشروع الجديد (هل يمكنك أن تقول إنني متحمس؟)، انضم إلينا نيليش كريستوفر، الذي قدم تقريرًا عن دور التزييف العميق في الانتخابات الهندية لـ WIRED. أهم ما يمكن تعلمه هو أن الانتخابات الهندية ستنتهي قريبًا، والعديد من شركات الذكاء الاصطناعي المزدهرة في البلاد تبحث عن أسواق جديدة قد تكون مهتمة بأدواتها، وربما حتى انتخابات قريبة منك.

هذا كل شيء لهذا اليوم. شكرا مرة أخرى على الاشتراك. يمكنك التواصل معي عبر البريد الإلكتروني و X.

مصدر الصورة: صور غيتي




اكتشاف المزيد من مجلة الإبداع

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من مجلة الإبداع

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading