لفت مقطع فيديو متداول على موقع فيسبوك انتباه المشاهدين على مستوى العالم، حيث يظهر أسدًا يخرج من قفص زجاجي ويهاجم امرأة في حديقة حيوان. كان المقطع دراماتيكيًا ومثيرًا للقلق، حيث حطم الأسد الزجاج واندفع نحو المرأة. وفي غضون ساعات من نشره، انتشر المقطع على نطاق واسع، مما أثار القلق بشأن سلامة حديقة الحيوان وإمكانية وقوع مثل هذه الحوادث في الأماكن العامة.
للوهلة الأولى، يبدو الفيديو واقعيًا. فحركات الأسد وتكسير الزجاج ورد فعل المرأة عند تعرضها للهجوم من قبل الأسد، تبدو جميعها شديدة. اعتبر العديد من المشاهدين أن هذا الأمر يبدو وكأنه حالة طوارئ حقيقية حدثت في حديقة حيوان. ومع ذلك، عند التدقيق في الفيديو، يمكن العثور على العديد من التناقضات في الفيديو التي تثير تساؤلات جدية حول صحته.
دعونا نفصل ما وجدناه في الفيديو:
إحدى العلامات الأولى التي نلاحظها في الفيديو هي سلوك الكاميرا. فطوال المقطع بأكمله، تظل الكاميرا ثابتة بشكل غير طبيعي. في الحياة الواقعية، قد يصاب الشخص الذي يشاهد أسداً يهرب من حظيرته بالذعر، أو يسقط الكاميرا، أو على الأقل يتحرك بشكل غير منتظم أثناء محاولته التسجيل. سيكون تركيزهم الفوري على حماية أنفسهم ومساعدة المرأة أولاً. لا يتوافق عمل الكاميرا الهادئ والثابت مع الطريقة التي قد يتفاعل بها الإنسان الحقيقي مع موقف يهدد حياته، مما يشير إلى أن اللقطات قد تكون مصممة رقميًا أو تم تنظيمها.
حساب فيسبوك الذي نشر الفيديو، LaughTrack، لديه تاريخ في مشاركة العديد من المحتويات التي تم إنشاؤها بالذكاء الاصطناعي. تُظهر العديد من مقاطع الفيديو السابقة من هذا الحساب علامات واضحة على أنه تم إنشاؤها رقميًا، مما يزيد من احتمال أن يكون هذا المقطع بالذات قد تم إنشاؤه رقميًا أيضًا.
يعرض الفيديو العديد من الخصائص الصوتية والبصرية المرتبطة في الغالب بالمحتوى المولّد بالذكاء الاصطناعي، خاصةً مقاطع الفيديو المصنوعة باستخدام أدوات مثل Sora AI. يشبه الصوت ونسيج الفيديو والمؤثرات البصرية أن يكون الفيديو من إنتاج الذكاء الاصطناعي، وليس لقطات حقيقية من حادثة حقيقية. تشمل الثغرات المحددة ما يلي:
عندما يخرج الأسد من القفص الزجاجي ويدخل في ثقب في الجدار الحجري، يظهر الجدار ينحني بشكل غير طبيعي، مثل البلاستيك تقريبًا، وهو أمر مستحيل فيزيائيًا بالنسبة للحجر الصلب.
تظهر يد المرأة مشوهة في إحدى اللحظات، مع دمج الأصابع أو فقدانها جزئيًا، وهو خلل كلاسيكي في الذكاء الاصطناعي.
الطريقة التي يتحطم بها الزجاج لا تتماشى مع فيزياء العالم الحقيقي، مما يشير إلى مزيد من التلاعب الرقمي.
الجودة غير الواضحة قليلًا هي نموذجية لمقاطع الفيديو التي تم إنشاؤها بالذكاء الاصطناعي، والتي غالبًا ما تعاني من قوام حاد وواقعي أثناء الحركات المعقدة.
بعد مزيد من التحقيق في حوادث 2025، لم نجد أي تقارير تتطابق مع سيناريو الفيديو. على الرغم من أن الأسود قد تسببت في حوادث خطيرة في حدائق الحيوان ومتنزهات الحياة البرية، إلا أن أيًا منها لم يكسر قفصًا زجاجيًا ويهاجم زائرًا في منطقة عامة كما هو موضح في هذا الفيديو. أما الحوادث التي تم التحقق منها حتى الآن فهي
لم تؤكد أي تقارير رسمية أو مصادر موثوقة أو أي حديقة حيوان متى وأين أو إذا ما كانت هذه الحادثة قد وقعت بالفعل، مما يرجح بقوة أن الفيديو غير حقيقي.
بالنظر إلى جميع العوامل، وثبات الكاميرا غير المعتاد، والفيزياء غير الواقعية، ومواطن الخلل البصرية، والأخبار الواردة من مصادر موثوقة، وغياب أي حادثة حقيقية تم التحقق منها، فمن المرجح جدًا أن هذا الفيديو تم إنشاؤه باستخدام أدوات الذكاء الاصطناعي مثل Sora AI.
على الرغم من أن المقطع يبدو مثيراً وملفتاً للنظر، إلا أنه تذكير للمشاهدين بتوخي الحذر مع المحتوى الفيروسي. يمكن أن يساعد التحقق من المصادر والبحث عن سلوك فيديو غير عادي أو فيزياء غير واقعية أو تشريح مشوه في منع انتشار المعلومات المضللة والذعر غير الضروري من مقاطع الفيديو التي تم إنشاؤها رقميًا.