يعمل الذكاء الاصطناعي على تغيير الطريقة التي يتم بها إنشاء عمليات الاحتيال وتوسيع نطاقها وتسليمها. يتم الآن استخدام أدوات مثل مولدات الصور، وروبوتات الدردشة الآلية، وأجهزة توليف الصوت لانتحال شخصية الأشخاص، وأتمتة رسائل التصيد الاحتيالي، وإنتاج منتجات مزيفة لا وجود لها. مع الحد الأدنى من المدخلات وبدون تكلفة تقريباً، يمكن للمحتالين الآن إنتاج مواد مقنعة في ثوانٍ.
وفقًا لتقرير حالة عمليات الاحتيال العالمية لعام 2024 الصادر عن التحالف العالمي لمكافحة الاحتيال (GASA)، يعتقد العديد من ضحايا الاحتيال أن الذكاء الاصطناعي قد استُخدم في رسائل الاحتيال التي تلقوها، خاصةً عبر الرسائل النصية أو الدردشة أو الصوتية. وقال 31% منهم إنهم غير متأكدين، وقال 16% منهم إن الذكاء الاصطناعي لم يكن متورطاً في ذلك.
ما يقرب من نصف جميع عمليات الاحتيال تكتمل الآن في غضون 24 ساعة، وهي وتيرة مدفوعة جزئياً بالسرعة والأتمتة التي يتيحها الذكاء الاصطناعي التوليدي. يمكن إنشاء مواقع الويب الاحتيالية ورسائل البريد الإلكتروني الاحتيالية والتصيد الاحتيالي والتأييد المزيف ومكالمات انتحال الشخصية ونشرها وتوسيع نطاقها في جزء صغير من الوقت الذي كان يستغرقه الأمر في السابق.
في هذه المقالة، نلقي نظرة على كيفية استخدام المحتالين للذكاء الاصطناعي بالفعل بطرق يسهل تفويتها، وما يمكنك الانتباه إليه لتجنب الوقوع في شباكهم.
لقد جعلت مولدات صور الذكاء الاصطناعي من السهل إنتاج صور أصلية للمنتجات تبدو واقعية ومُلتقطة باحترافية. لم يعد المحتالون بحاجة إلى سرقة الصور من البائعين الآخرين. وبدلاً من ذلك، فإنهم يولدون صورًا جديدة تحتوي على ملابس أو إلكترونيات أو أثاث تبدو جذابة ولكنها غير موجودة بالفعل.
تُستخدم هذه الصور لإنشاء متاجر وهمية على الإنترنت وتشغيل إعلانات على وسائل التواصل الاجتماعي. وفي حين أن الصور المرئية تبدو مصقولة، إلا أن الفحص الدقيق غالبًا ما يكشف عن علامات تجارية مشوهة أو نسب غريبة أو نصوص مشوهة أو إضاءة غير طبيعية. يتم إغراء الضحايا بالخصومات الكبيرة والإلحاح الترويجي. وبعد الدفع، لا يتلقون عادةً أي شيء أو يتلقون منتجًا مزيفًا.
لطالما اعتمدترسائل التصيد الاحتيالي على الإلحاح وانتحال الشخصية، لكن لغتها غالباً ما كانت تفضحهم. لم يعد هذا هو الحال الآن. يمكن لأدوات الكتابة المدعومة بالذكاء الاصطناعي الآن إنشاء رسائل تصيد احتيالي تبدو طبيعية وتتطابق مع لهجة المؤسسات الشرعية.
يمكن للمحتالين إنشاء رسائل بريد إلكتروني واقعية المظهر بسرعة تحاكي رسائل من البنوك أو الخدمات الحكومية أو الشركات المعروفة. كما يمكنهم أيضاً تعديل الصياغة حسب الموسم أو الموقع، مثل رسائل التذكير بالإيداع الضريبي أو إشعارات تسليم الطرود. وغالباً ما تؤدي هذه الرسائل إلى صفحات مزيفة لتسجيل الدخول أو تحث المستلمين على تنزيل برمجيات خبيثة.
من خلال مقطع صوتي قصير فقط، يمكن للمحتالين الآن توليد أصوات اصطناعية تبدو وكأنها لأشخاص حقيقيين. يتم استخدام هذه التقنية بشكل متزايد في عمليات الاحتيال لانتحال الشخصية.
وتتضمن بعض عمليات الاحتيال مكالمات يبدو فيها الصوت مثل صوت شخص عزيز في محنة. وحذرت لجنة التجارة الفيدرالية من أن المحتالين يمكنهم الآن استنساخ الأصوات باستخدام الذكاء الاصطناعي، مما يجعل اكتشاف عمليات الاحتيال في حالات الطوارئ العائلية أكثر صعوبة. فبمجرد مقطع صوتي قصير، يمكن للمحتالين إنشاء صوت يبدو حقيقيًا بما يكفي لخداع الناس للاعتقاد بأن أحد الأقارب في ورطة.
وقد استُخدمت هذه التقنية نفسها بالفعل في عمليات الاحتيال في مجال الأعمال. ففي إحدى الحالات، قامت شركة طاقة في المملكة المتحدة بتحويل أكثر من 243,000 دولار بعد تلقيها مكالمة تحاكي صوت رئيسها التنفيذي.
تتطور أيضاً عمليات الاحتيال القائمة على الفيديو. تتيح تقنية Deepfake للمحتالين إنشاء مقاطع فيديو مزيفة يظهر فيها أفراد معروفون للترويج لمنصات الاستثمار أو الهبات. غالبًا ما تُستخدم مقاطع الفيديو هذه لاستهداف مستخدمي وسائل التواصل الاجتماعي أو تظهر في الإعلانات عبر الإنترنت.
وقد استخدم المحتالون مقاطع الفيديو المزيفة المزيفة لإيلون ماسك وأنتوني بولتون وتايلور سويفت للترويج لمنصات التشفير الاحتيالية ومخططات الاستثمار. وعادةً ما يتم إقران مقاطع الفيديو هذه بلغة "الوقت المحدود" ومجموعات WhatsApp الاحتيالية. يظهر مثال حقيقي على هذا التكتيك في هذا الفيديو الذي شاركه موقع ScamAdviser، حيث تم استخدام بث مباشر تم اختراقه للترويج لعملية احتيال على العملات الرقمية تحت عنوان ماسك.
غالباً ما تحتوي المرئيات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي على تناقضات مادية. ابحث عن القماش المشوه، أو الانعكاسات غير المتطابقة، أو أخطاء الإضاءة، أو الشعارات المفقودة في الإعلانات أو صور المنتجات. إذا كان هناك شيء ما يبدو مصقولاً للغاية ولكنه يفتقر إلى أصل يمكن تتبعه، فكن متشككاً.
يمكن أن تبدو الرسائل التي تم إنشاؤها بواسطة الذكاء الاصطناعي مصقولة أو عامة بشكل مفرط. تستحق عمليات الاحتيال التي لا تشير إلى أي سياق شخصي أو تستخدم صياغة تبدو غريبة بعض الشيء أن تشكك فيها، خاصةً عندما تأتي من أشخاص تعرفهم.
قد تعيدمقاطع الفيديو والصوتالمزيّفة إعادة استخدام نصوص مألوفة أو تبدو مسطحة عاطفياً. إذا كان هناك بث مباشر أو إعلان يُظهر أحد المشاهير يؤيد مخططاً استثمارياً، فابحث في وسائل التواصل الاجتماعي التي تم التحقق منها قبل تصديقها أو مشاركتها.
يعمل الذكاء الاصطناعي التوليدي على جعل عمليات الاحتيال أسرع وأكثر قابلية للتطوير وأصعب في اكتشافها. فالعلامات التي كانت تكشفها في السابق - القواعد النحوية الرديئة والصور المسروقة والصياغة الغريبة - آخذة في الاختفاء.
ولكن لا تزال هناك طرق لاكتشاف الفرق. يجب التعامل مع الروابط غير المألوفة، وطلبات الدفع العاجلة، والرسائل الخارجة عن المألوف من الشخصيات العامة أو الأحباء، بالشك. ولكن من خلال التريث والتحقق من التفاصيل والتفكير النقدي فيما تراه أو تسمعه، يمكنك تجنب الوقوع في فخ التسرع.