يتحسن الذكاء الاصطناعي بسرعة، وعلى الرغم من أنه يجلب العديد من الفوائد، إلا أنه يتم استخدامه أيضاً من قبل المحتالين بطرق أكثر تقدماً. في عام 2026، لم يعد الاحتيال عبر الإنترنت مقتصراً على رسائل البريد الإلكتروني المكتوبة بشكل سيء أو الرسائل المزيفة الواضحة. فالعديد من عمليات الاحتيال تبدو الآن حقيقية للغاية. حتى أن بعضها يستخدم أصواتاً مستنسخة، ومقاطع فيديو واقعية، ورسائل بريد إلكتروني مكتوبة بإتقان. ولهذا السبب، يحتاج الناس إلى توخي الحذر أكثر من أي وقت مضى.
تشرح هذه المقالة كيفية عمل حيل الذكاء الاصطناعي الحديثة، وتشارك أمثلة واقعية، وتوفر قائمة مرجعية بسيطة لمساعدتك في اكتشافها.
أحد أكبر التغييرات في السنوات الأخيرة هو ظهور مقاطع الفيديو المزيفة واستنساخ الصوت. يمكن للمحتالين الآن نسخ وجه أو صوت شخص ما باستخدام بضع ثوانٍ فقط من الصوت أو الفيديو المأخوذ من وسائل التواصل الاجتماعي. وهذا يسمح لهم بانتحال شخصية أفراد العائلة، أو الرؤساء، أو حتى الشخصيات المعروفة.
على سبيل المثال، تخيل أنك تتلقى مكالمة هاتفية تبدو تماماً كصديقك. يقول الصوت أنه في ورطة ويحتاج إلى المال بشكل عاجل. ولأن الصوت يبدو حقيقياً، يثق به الكثير من الناس ويرسلون الأموال بسرعة. في الواقع، يتم إنشاء المكالمة باستخدام تقنية استنساخ الصوت بالذكاء الاصطناعي.
مثال آخر يتضمن مكالمات فيديو مزيفة. قد يقوم المحتال بإنشاء مقطع فيديو مزيف لمدير شركة يطلب من أحد الموظفين تحويل الأموال إلى بائع جديد. وبما أن الوجه والصوت يبدوان حقيقيين، فقد لا يشك الموظف في أي شيء. وقد أبلغت الشركات في جميع أنحاء العالم بالفعل عن خسائر ناجمة عن مثل هذه الحوادث.
للحفاظ على سلامتك، تجنب التصرف فوراً بناءً على الطلبات العاجلة. تأكد دائماً من خلال طريقة أخرى موثوق بها، مثل الاتصال بالشخص مباشرةً باستخدام رقم هاتفه المعروف.
في الماضي، كان من السهل اكتشاف رسائل التصيّد الاحتيالي في رسائل البريد الإلكتروني الاحتيالية لاحتوائها على أخطاء إملائية أو تنسيق غريب أو لغة غريبة. لم يعد هذا هو الحال الآن. يمكن لأدوات الذكاء الاصطناعي الآن إنشاء رسائل بريد إلكتروني ذات مظهر احترافي تبدو طبيعية وشخصية.
على سبيل المثال، قد تتلقى رسالة بريد إلكتروني تبدو وكأنها واردة من البنك الذي تتعامل معه. قد تتضمن اسمك، ونشاطك الأخير، وتحذيراً بشأن محاولات تسجيل الدخول المشبوهة. قد تطلب منك الرسالة النقر على رابط للتحقق من حسابك. نظرًا لأن اللغة واضحة واحترافية، يفترض العديد من المستخدمين أنها أصلية.
كما يستخدم المحتالون أيضاً الذكاء الاصطناعي لإنشاء رسائل بريد إلكتروني عالية الاستهداف. يمكنهم تحليل المعلومات العامة من وسائل التواصل الاجتماعي وصياغة رسائل تتوافق مع اهتماماتك. على سبيل المثال، قد يتلقى الطالب رسالة بريد إلكتروني لمنحة دراسية، بينما قد يتلقى الباحث عن عمل دعوة مزيفة لإجراء مقابلة عمل.
لتجنب هذه الحيل، لا تنقر أبداً على الروابط في رسائل البريد الإلكتروني غير المتوقعة. بدلاً من ذلك، قم بزيارة الموقع الإلكتروني الرسمي مباشرةً عن طريق كتابة العنوان في متصفحك. تحقق أيضاً من نطاق البريد الإلكتروني للمرسل بعناية، لأن المحتالين غالباً ما يستخدمون عناوين تبدو مشابهة للعناوين الشرعية.
هناك اتجاه آخر متزايد يتمثل في منصات الاستثمار المزيفة التي تعمل بالذكاء الاصطناعي. تزعم هذه المواقع الإلكترونية أنها تستخدم الذكاء الاصطناعي المتقدم لتحقيق أرباح مضمونة. وغالبًا ما يعلنون على وسائل التواصل الاجتماعي باستخدام عبارات مثل روبوتات التداول بالذكاء الاصطناعي أو أرباح التشفير الآلية.
وعادةً ما تعرض هذه المنصات لوحات تحكم بأرباح وهمية تتزايد في الوقت الحقيقي. بعد إيداع مبلغ صغير، يبدو أن الرصيد ينمو بسرعة. وهذا يشجع المستخدمين على استثمار المزيد من الأموال. ومع ذلك، عندما يحاولون سحب الأموال، يُطلب منهم دفع رسوم أو ضرائب إضافية. وفي نهاية المطاف، يتوقف الموقع الإلكتروني عن الاستجابة، وتضيع الأموال.
كما يستخدم بعض المحتالين أيضاً الشهادات التي ينشئها الذكاء الاصطناعي. وتشمل مقاطع فيديو مزيفة لأشخاص يزعمون أنهم حققوا أرباحاً كبيرة. تبدو مقاطع الفيديو واقعية، ولكنها مفبركة بالكامل.
قبل الاستثمار، ابحث عن المنصة بعناية. تحقق مما إذا كانت الشركة مسجلة، وابحث عن المراجعات المستقلة، وكن حذرًا من العوائد المضمونة. الاستثمارات المشروعة تنطوي دائمًا على مخاطرة.
فيما يلي بعض المواقف الواقعية التي قد يواجهها الناس في عام 2026:
يتلقى أحد الوالدين رسالة صوتية تبدو كصوت طفلهما يقول فيها إنه تعرض لحادث ويحتاج إلى أموال عاجلة. الصوت مستنسخ من مقاطع فيديو على وسائل التواصل الاجتماعي.
يتلقى أحد الموظفين رسالة بريد إلكتروني مكتوبة بشكل مثالي ممن يبدو أنه مديره يطلب منه بيانات سرية. تتضمن الرسالة تفاصيل الشركة التي تم جمعها من مصادر عبر الإنترنت.
يشاهد أحد المستخدمين مقطع فيديو لخبير أعمال معروف يروج لمنصة تداول جديدة تعمل بالذكاء الاصطناعي. الفيديو عبارة عن فيديو مزيف تم إنشاؤه لكسب الثقة.
باحث عن عمل يتلقى دعوة لإجراء مقابلة عمل من إحدى الشركات. تبدو الرسالة الإلكترونية احترافية، وتُجرى المقابلة من خلال روبوت محادثة. في وقت لاحق، يُطلب من المرشح دفع رسوم تدريب لتأمين الوظيفة.
يتلقى صاحب شركة صغيرة مكالمة من شخص يدّعي أنه من مزود خدمة الدفع. يستخدم المتصل الردود الصوتية التي يتم إنشاؤها باستخدام الذكاء الاصطناعي ويطلب منهم "التحقق" من تفاصيل الحساب، والتي يتم إساءة استخدامها بعد ذلك.
يتلقى الطالب رسالة بريد إلكتروني للموافقة على المنحة الدراسية تتضمن شعارات رسمية ومعلومات مفصلة. تطلب الرسالة رسوم معالجة قبل أن يتم الإفراج عن الأموال.
يتلقى شخص ما رسالة نصية تظهر إشعار تسليم واقعي. عندما ينقر على الرابط، فإنه يؤدي إلى موقع إلكتروني مزيف مصمم باستخدام الذكاء الاصطناعي ليبدو مطابقاً لخدمة توصيل شرعية.
يتلقى المستخدم رسالة فيديو من وكيل دعم عملاء مفترض يشرح له أن حسابه قد تم اختراقه. يبدو الفيديو حقيقيًا، ولكن تم إنشاؤه باستخدام الذكاء الاصطناعي لخداع المستخدم لمشاركة تفاصيل تسجيل الدخول.
موظف مستقل يتلقى عرض مشروع مع تعليمات وملفات مفصلة. تحتوي المرفقات على روابط خبيثة تم إنشاؤها لسرقة الوصول إلى الحساب.
توضح هذه المواقف كيف أصبحت حيل الذكاء الاصطناعي مقنعة.
استخدم قائمة المراجعة البسيطة هذه عندما تشك في وجود عملية احتيال بالذكاء الاصطناعي:
تكنولوجيا الذكاء الاصطناعي قوية، ولكن المحتالين يستخدمونها لخلق عمليات احتيال مقنعة أكثر من أي وقت مضى. أصبحت مقاطع الفيديو المزيفة العميقة، واستنساخ الصوت، ورسائل البريد الإلكتروني الاحتيالية المثالية، ومنصات الاستثمار المزيفة شائعة في عام 2026. أفضل وسيلة للدفاع هي الوعي والحذر. إذا كان هناك شيء ما يبدو عاجلاً أو جيداً جداً لدرجة يصعب تصديقه، أو غير عادي بعض الشيء، فخذ لحظة للتحقق منه لأنه قد يجنبك خسارة مالية كبيرة.
مصدر الصورة: بيكساباي
إخلاء المسؤولية: تمت كتابة هذا المقال من قبل أحد المساهمين في برنامج "مقاتل الاحتيال". إذا كنت تعتقد أن المقالة أعلاه تحتوي على معلومات غير دقيقة أو تحتاج إلى تضمين معلومات ذات صلة، يرجى الاتصال بموقع ScamAdviser.com باستخدام هذا النموذج.