الذكاء الاصطناعي وتزييف مقاطع الفيديو
أخبار هنا العالم - بدا المقطع حقيقياً وموثقاً وممتعاً: لقطة من كاميرا مراقبة، تُظهر ذئباً برياً يقفز على ترمبولين في فناء خلفي في مدينة لوس أنجليس. بعد أيام من انتشار الفيديو، بدأت مقاطع فيديو مشابهة تماماً لكنغر ودببة وأرانب في الانتشار هي الأخرى، وكلها مُولّدة بواسطة الذكاء الاصطناعي. وشارك الملايين هذه المقاطع، لاعتقادهم أنهم التقطوا لمحة أخرى عن حيوانات تتصرف بطريقة طريفة... كان هذا خطأً طريفاً، لكنه كان في الوقت ذاته بمثابة تحذير.
يكمن الخطر في أن أدوات الفيديو المُولّدة بالذكاء الاصطناعي تجاوزت إنتاج مقاطع سريالية أو مُعدّلة بشكل واضح، وشرعت الآن في تقليد صيغ نثق بها غريزياً: من خلال صور لكاميرات المراقبة، وكاميرات السيارات، والكاميرات الشخصية التي يرتديها أفراد الشرطة، والكاميرات الموجهة لمتابعة الحياة البرية، واللقطات التي يصورها شهود عيان بجوالاتهم. وتلعب هذه المقاطع دوراً محورياً في صياغة فهم الجمهور للوضع القائم، في أثناء الاحتجاجات والكوارث وأعمال العنف وحالات الطوارئ. واليوم أصبح من المتعذر تمييز المقاطع المُزيّفة عن الحقيقية.
مزايا ومضار
• مقاطع واقعية مولدة اصطناعياً للأخبار. واللافت أن المقاطع الواقعية المُولّدة بالذكاء الاصطناعي اقتحمت بالفعل دوائر الأخبار.
في مؤسسة «ستوريفول»، يتحقق العاملون من آلاف مقاطع الفيديو الواقعية لصالح غرف الأخبار وعلامات تجارية حول العالم. وقد أجروا هذا العام اختباراً مثيراً: فقد أدخلوا عناوين الأخبار العاجلة الحقيقية من منصة المؤسسة إلى أحد أحدث نماذج الفيديو المُولّدة بالذكاء الاصطناعي.
وفي غضون ثوانٍ، حصلوا على مقاطع فيديو تُحاكي ملمس ومنظور التقارير، التي يوردها شهود عيان. وما حصلوا عليه ليس تجارب ذكاء اصطناعي مُنمّقة، بل لقطات إخبارية واقعية يُمكن أن تشق طريقها إلى داخل غرفة الأخبار في أثناء تغطية خبر عاجل. ولتماثلها، فإن الصحافيين المُدرّبين احتاجوا بهدف مقارنتها مع المقاطع الحقيقية الأصلية، إلى التمهل والتدقيق في التفاصيل.
وتجدر الإشارة إلى أن «ستوريفول» (Storyful) وكالة أخبار يستخدمها 70 في المائة من أكبر 20 غرفة أخبار عالمياً، ومتخصصة في التحقق من الأخبار العاجلة والفيديوهات الرائجة.
• تلاشي الضوابط الواقية من التزييف. اليوم، بدأت الضوابط التي تحمينا من التزييف بالتلاشي بالفعل. على سبيل المثال، تنتشر على موقع «ريديت» منشورات تشرح كيفية إزالة العلامة المائية من مقاطع الفيديو، التي يُنشئها برنامج «سورا» من «أوبن إيه آي»، أحد أشهر مولدات الفيديو بالذكاء الاصطناعي. ويمكن تجاوز القيود المفروضة على بعض أوامر الذكاء الاصطناعي - إن وُجدت - أو تشغيل النماذج محلياً دون قيود على المحتوى الواقعي للغاية. ولأن هذه الأدوات قادرة على إنشاء لقطات كاميرات مراقبة أو لقطات كوارث مزيفة عند الطلب، فإن السؤال هنا ليس ما إذا كان الذكاء الاصطناعي قادراً على توليد مقاطع فيديو مقنعة لأحداث لم تقع، بل إلى أي مدى سينتشر هذا الفيديو المزيف قبل أن يقدم أحد على التحقق منه؟
إتقان التزييف
• لماذا تبدو مقاطع الفيديو المُولّدة بالذكاء الاصطناعي واقعية؟ لا يقتصر التغيير الأهم في مقاطع الفيديو المُولّدة بالذكاء الاصطناعي على مظهرها فحسب، بل يشمل سلوكها كذلك. بطبيعتها، تحتوي لقطات شهود العيان الحقيقية على عيوب الحياة الواقعية: يد مرتعشة، وكاميرا موجهة نحو الأرض قبل بدء الحدث، وفترات طويلة من السكون، وزوايا تصوير غير مثالية، وتفاصيل مفقودة.
حتى يومنا هذا، لا يُحاكي الذكاء الاصطناعي هذه اللحظات حتى الآن؛ فهو ينتقل مباشرةً إلى الحدث، بإطار مركزي مثالي، وإضاءة نقية، وإيقاع مُتقن في مشهد مُصمّم لتحقيق أقصى تأثير. بعبارة أخرى، يُقدّم لنا الذكاء الاصطناعي اللحظة التي نتوقع رؤيتها، دون التمهيد البشري المُربك الذي يُحيط بها عادةً.
أما السبب فبسيط؛ لا تزال معظم النماذج يجري تدريبها بشكل مكثف على مواد سينمائية، بدلاً من المحتوى العشوائي الذي يُنتجه المستخدمون بكاميرات محمولة. والواضح أن نماذج الذكاء الاصطناعي تُدرك الدراما بشكل أفضل من إدراكها للواقع. وهذه الفجوة تحديداً هي ما يسمح لفرق التحقق برصد هذا الاختلاف - في الوقت الحالي.
إلا أنه مع تطور النماذج وتحسين كتابة التعليمات، ستتلاشى هذه المؤشرات السلوكية. وتتضمن بيانات التدريب لنماذج الفيديو هذه مقاطع فيديو مهتزة التقطها المارة وأفلاماً وثائقية متقنة، ما يسمح لها بمحاكاة أسلوبها وإحساسها بالواقعية ببراعة.
• ثقة الجمهور تتراجع. حسب «تقرير رويترز للأخبار الرقمية»، فإن 58 في المائة من المشاهدين حول العالم يخشون عدم قدرتهم على التمييز بين الحقيقي والمزيف على الإنترنت. فيما مضى، تركز هذا الخوف بشكل رئيسي على السياسة والدعاية، أما الآن فيشمل مقاطع الفيديو المنزلية البسيطة.
وينطوي هذا الأمر بدوره على تحول نفسي أعمق؛ فبمجرد أن يبدأ المشاهد بالتشكيك في مقاطع الفيديو اليومية، فإنه لا يتخلى عن هذا التشكيك بسهولة. فإذا شكك في عملية إنقاذ كلب، فستمتد شكوكه على مقاطع مصورة لاحتجاجات. وإذا شك في مزحة، فسيشك بعدها في حقيقة ما يجري داخل منطقة حرب.
في الواقع، لا تنهار الثقة في لحظة درامية واحدة، بل تتآكل قطرة قطرة، عبر آلاف الشكوك الصغيرة. ومع ازدياد وفرة مقاطع الفيديو المولدة بالذكاء الاصطناعي، تتحول اللقطات الأصلية إلى عملة نادرة.
مشاركة عبر:
-
بعد الكشف عن سلسلة هواتف «غالاكسي إس26»: ملحقات شحن مبهرة تناسب نمط الحياة السريع -
تقنية توثيق بشرائح ذات بصمة مشتركة من دون خوادم خارجية -
تسريبات تكشف عن تفاصيل آيفون القابل للطي المرتقب من أبل -
تيم كوك يعلن بدء أسبوع إطلاق منتجات أبل الجديدة يوم الاثنين -
أوبن إيه آي تغلق جولة تمويل بـ 110 مليارات دولار بتقييم 730 مليار دولار -
ما هو "بريك" الذي يساعد الشباب على التخلص من إدمان الشاشات -
غوغل تضيف وكلاء اذكياء الى Opal لتبسيط بناء التطبيقات -
أبل تقترب من إطلاق آيفون 18 برو مع بدء الإنتاج التجريبي -
لينكدإن تكشف عن مشاركة بيانات المستخدمين مع شركات خارجية عبر خدمة تحقق -
شركة "أقمار" المصرية تستعد لإطلاق خدمات اتصالات فضائية مبتكرة