أخبار تقنية

حشود كامالا هاريس ليست من صنع الذكاء الاصطناعي. إليك كيف يمكنك معرفة ذلك


ويكفي أن نقول إن هذا الجبل من الأدلة المستمدة من المصادر المباشرة أثقل من الصور المميزة من المعلقين المحافظين مثل تشاك كاليستو و دينيش ديسوزاوكلاهما تم القبض عليهما وهو ينشر معلومات مضللة عن الانتخابات في الماضي.

عندما يتعلق الأمر باتهامات تزييف الذكاء الاصطناعي، كلما زادت تباين مصادر المعلومات لديك، كان ذلك أفضل. في حين أن مصدرًا واحدًا يمكنه بسهولة إنشاء صورة معقولة المظهر لحدث ما، فإن المصادر المستقلة المتعددة التي تعرض نفس الحدث من زوايا متعددة من غير المرجح أن تكون متورطة في نفس الخدعة. تعد الصور المتوافقة مع أدلة الفيديو أفضل، خاصة وأن إنشاء مقاطع فيديو طويلة ومقنعة لبشر أو مشاهد معقدة يظل تحديًا للعديد من أدوات الذكاء الاصطناعي.

من المهم أيضًا تعقب المصدر الأصلي لأي صورة مزعومة تعمل بالذكاء الاصطناعي تنظر إليها. من السهل للغاية بالنسبة لمستخدم وسائل التواصل الاجتماعي إنشاء صورة تم إنشاؤها بواسطة الذكاء الاصطناعي، والادعاء بأنها جاءت من تقرير إخباري أو لقطات حية لحدث ما، ثم استخدام العيوب الواضحة في تلك الصورة المزيفة “كدليل” على أن الحدث نفسه كان مزيفًا. تعد الروابط إلى الصور الأصلية من موقع الويب الخاص بالمصدر الأصلي أو الحساب الذي تم التحقق منه أكثر موثوقية من لقطات الشاشة التي يمكن أن تنشأ في أي مكان (و/أو تم تعديلها بواسطة أي شخص).

علامات نبذه

في حين أن تتبع المصادر الأصلية و/أو المؤيدة يكون مفيدًا لحدث إخباري كبير مثل التجمع الرئاسي، إلا أن التأكد من صحة الصور ومقاطع الفيديو أحادية المصدر قد يكون أكثر صعوبة. تدعي أدوات مثل Winston AI Image Detector أو IsItAI.com أنها تستخدم نماذج التعلم الآلي لمعرفة ما إذا كانت الصورة مدعمة بالذكاء الاصطناعي أم لا. ولكن بينما تستمر تقنيات الكشف في التطور، تعتمد هذه الأنواع من الأدوات عمومًا على نظريات غير مثبتة لم يثبت موثوقيتها في أي دراسات واسعة النطاق، مما يجعل احتمال النتائج الإيجابية/السلبيات الكاذبة خطرًا حقيقيًا.

الكتابة على LinkedIn، استشهد هاني فريد، الأستاذ بجامعة كاليفورنيا في بيركلي، بنموذجين من GetReal Labs على أنهما لا يظهران “أي دليل على توليد الذكاء الاصطناعي” في صور مسيرة هاريس التي نشرها ترامب. ومضى فريد في ذكر أجزاء محددة من الصورة تشير إلى صحتها.

يكتب فريد: “لا يُظهر النص الموجود على اللافتات والطائرة أيًا من العلامات المعتادة للذكاء الاصطناعي التوليدي”. “على الرغم من أن عدم وجود دليل على التلاعب ليس دليلاً على أن الصورة حقيقية. إلا أننا لا نجد أي دليل على أن هذه الصورة تم إنشاؤها بواسطة الذكاء الاصطناعي أو تم تعديلها رقميًا.”

وحتى عندما تبدو أجزاء من الصورة وكأنها علامات لا معنى لها على التلاعب بالذكاء الاصطناعي (على غرار الأيدي المشوهة في بعض نماذج صور الذكاء الاصطناعي)، ضع في اعتبارك أنه قد يكون هناك تفسير بسيط لبعض الأوهام البصرية الظاهرة. وتشير بي بي سي إلى أن عدم وجود انعكاس للحشد على الطائرة في بعض صور مسيرة هاريس يمكن أن يكون سببه وجود مساحة كبيرة فارغة من المدرج بين الطائرة والحشد، كما هو موضح في الزوايا العكسية للمشهد. إن مجرد وضع دائرة حول الأشياء ذات المظهر الغريب في الصورة باستخدام علامة حمراء لا يعد بالضرورة دليلاً قويًا على التلاعب بالذكاء الاصطناعي في حد ذاته.




اكتشاف المزيد من مجلة الإبداع

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button

اكتشاف المزيد من مجلة الإبداع

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading