人工智能正在改变诈骗的制作、规模和传播方式。图像生成器、聊天机器人和语音合成器等工具现在被用来冒充他人、自动发送网络钓鱼信息和制作不存在的假冒产品。只需极少的投入和几乎零成本,骗子现在就能在几秒钟内制作出令人信服的材料。
根据全球反诈骗联盟(GASA)发布的《2024 年全球诈骗状况报告》,许多诈骗受害者认为他们收到的诈骗信息中使用了人工智能,尤其是通过文本、聊天或语音收到的信息。31%的人表示不确定,16%的人表示没有涉及人工智能。
目前,近一半的诈骗都是在 24 小时内完成的,这在一定程度上得益于生成式人工智能所带来的速度和自动化。诈骗网站、钓鱼电子邮件、虚假代言和冒充电话的创建、部署和扩展都只需要以前所需的一小部分时间。
在这篇文章中,我们将探讨骗子们是如何利用人工智能来达到目的的,以及如何避免上当受骗。
人工智能图像生成器可以轻松生成原始的产品照片,这些照片看起来逼真、专业。骗子不再需要从其他卖家那里窃取图片。相反,他们可以生成以服装、电子产品或家具为特色的新视觉图片,这些图片看起来很吸引人,但实际上并不存在。
这些图片被用来建立虚假网店,并在社交媒体上发布广告。虽然视觉效果看起来光鲜亮丽,但仔细观察往往会发现扭曲的品牌、奇怪的比例、变形的文字或不自然的光线。大量折扣和促销活动的紧迫性诱使受害者上当。付款后,他们通常什么也收不到,或者收到的是假冒产品。
长期以来,网络钓鱼邮件一直依赖于紧迫性和冒充性,但其语言往往会暴露它们的身份。现在情况不再如此。现在,人工智能驱动的写作工具可以创建听起来自然并与合法机构语气一致的网络钓鱼信息。
诈骗者可以快速生成外观逼真的电子邮件,模仿银行、政府部门或知名公司的信息。他们还可以根据季节或地点调整措辞,如报税提醒或包裹递送通知。这些信息通常会指向虚假登录页面或提示收件人下载恶意软件。
只需一段简短的音频片段,骗子现在就能生成听起来像真人的合成声音。这种技术正越来越多地用于冒充诈骗。
有些诈骗电话中的声音听起来就像遇到困难的亲人。美国联邦贸易委员会警告说,骗子现在可以利用人工智能克隆声音,使家庭紧急事件诈骗更加难以察觉。只需一段简短的音频片段,骗子就能创造出听起来足够真实的声音,骗取人们的信任,让他们以为亲人遇到了麻烦。
同样的技术已经被用于商业诈骗。在一个案例中,英国一家能源公司在接到模仿其首席执行官声音的电话后,转走了 24.3 万美元。
基于视频的诈骗也在不断发展。通过 Deepfake 技术,骗子可以制作假视频,让知名人士出面宣传投资平台或赠品。这些视频通常被用来针对社交媒体用户或出现在在线广告中。
骗子们曾使用埃隆-马斯克、安东尼-博尔顿和泰勒-斯威夫特的深度伪造视频来宣传欺诈性加密货币平台和投资计划。这些视频通常搭配 "限时 "语言和诈骗 WhatsApp 群组。在ScamAdviser 分享的这段视频中可以看到这种战术的一个真实例子,一段被黑客入侵的直播被用来推送以马斯克为主题的加密货币骗局。
人工智能生成的视觉效果通常包含物理上的不一致性。查看广告或产品照片中是否有翘起的布料、不匹配的反光、照明错误或丢失的徽标。如果某些东西看起来过于精致,但却缺乏可追溯的来源,那就要怀疑了。
人工智能创建的信息可能听起来过于精致或通用。那些没有提及个人背景或使用的措辞让人感觉有点不对的诈骗信息值得怀疑,尤其是来自你认识的人的信息。
Deepfake 视频和音频可能会重复使用熟悉的脚本,或者看起来情感平淡。如果直播或广告显示某位名人为某项投资计划背书,在相信或分享之前,请搜索他们经过验证的社交媒体。
生成式人工智能使诈骗变得更快、更可扩展、更难察觉。曾经暴露骗局的迹象--糟糕的语法、盗用的图片、笨拙的措辞--正在消失。
但仍有一些方法可以发现其中的差别。对于不熟悉的链接、紧急付款请求以及来自公众人物或亲人的格格不入的信息,都应持怀疑态度。但只要放慢脚步,检查细节,认真思考所见所闻,就能避免陷入匆忙之中。