Искусственный интеллект меняет способы создания, масштабирования и доставки мошенничества. Такие инструменты, как генераторы изображений, чат-боты и синтезаторы голоса, теперь используются для выдачи себя за людей, автоматизации фишинговых сообщений и производства поддельных несуществующих продуктов. При минимальных затратах мошенники теперь могут создавать убедительные материалы за считанные секунды.
Согласно отчету Global Anti-Scam Alliance (GASA) " Глобальное состояние мошенничества в 2024 году", многие жертвы мошенничества считают, что в полученных ими сообщениях, особенно в текстовых, чатовых или голосовых, использовался искусственный интеллект. Тридцать один процент не уверены, а 16 процентов заявили, что ИИ не был задействован.
Почти половина всех афер совершается в течение 24 часов, что отчасти объясняется скоростью и автоматизацией, которые обеспечивает генеративный ИИ. Мошеннические веб-сайты, фишинговые электронные письма, фальшивые отзывы и звонки, выдающие себя за людей, могут быть созданы, развернуты и масштабированы за долю того времени, которое требовалось раньше.
В этой статье мы рассмотрим, как мошенники уже используют искусственный интеллект так, что его легко не заметить, и на что следует обратить внимание, чтобы не попасться на их удочку.
ИИ-генераторы изображений упростили создание оригинальных фотографий товаров, которые выглядят реалистично и профессионально сняты. Мошенникам больше не нужно воровать изображения у других продавцов. Вместо этого они генерируют новые изображения одежды, электроники или мебели, которые выглядят привлекательно, но на самом деле не существуют.
Эти изображения используются для создания поддельных интернет-магазинов и рекламы в социальных сетях. Хотя визуальные образы выглядят отполированными, при ближайшем рассмотрении часто обнаруживается искаженный брендинг, странные пропорции, искаженный текст или неестественное освещение. Жертв заманивают большими скидками и рекламной срочностью. После оплаты они, как правило, не получают ничего или получают поддельную продукцию.
Фишинговые письма уже давно основаны на срочности и самозванстве, но их язык часто выдавал их. Теперь это уже не так. Теперь инструменты для написания писем, работающие на основе искусственного интеллекта, могут создавать фишинговые сообщения, которые звучат естественно и соответствуют тону законных учреждений.
Мошенники могут быстро создавать реалистично выглядящие электронные письма, имитирующие сообщения банков, государственных служб или известных компаний. Они также могут изменять формулировки в зависимости от времени года или местонахождения, например напоминания о подаче налоговых деклараций или уведомления о доставке посылок. Такие сообщения часто ведут на поддельные страницы входа в систему или предлагают получателям загрузить вредоносное ПО.
С помощью короткого аудиоклипа мошенники теперь могут генерировать синтетические голоса, похожие на голоса реальных людей. Эта технология все чаще используется в мошенничествах, выдающих себя за реальных людей.
Некоторые аферы включают звонки, в которых голос звучит так же, как голос близкого человека, попавшего в беду. FTC предупредила, что мошенники теперь могут клонировать голоса с помощью искусственного интеллекта, что делает мошенничество с семейными экстренными звонками еще более трудно обнаруживаемым. С помощью короткого аудиоклипа мошенники могут создать голос, который звучит достаточно реалистично, чтобы обмануть людей, заставив их думать, что родственник попал в беду.
Эта же технология уже использовалась в бизнес-мошенничестве. В одном случае британская энергетическая компания перевела 243 000 долларов после того, как получила звонок, имитирующий голос ее генерального директора.
Мошенничество с использованием видео также развивается. Технология Deepfake позволяет мошенникам создавать поддельные видеоролики, в которых известные личности выступают в роли рекламодателей инвестиционных платформ или раздатчиков. Такие видео часто используются для привлечения внимания пользователей социальных сетей или появляются в онлайн-рекламе.
Мошенники использовали deepfake Элона Маска, Энтони Болтона и Тейлор Свифт для продвижения мошеннических криптовалютных платформ и инвестиционных схем. Эти видео обычно сопровождаются "ограниченным временем" и мошенническими группами в WhatsApp. Реальный пример такой тактики можно увидеть в этом видео, которым поделился ScamAdviser, где взломанный livestream был использован для продвижения криптовалютной аферы на тему Маска.
Сгенерированные искусственным интеллектом визуальные образы часто содержат физические несоответствия. Ищите деформированную ткань, несовпадающие отражения, ошибки освещения или отсутствующие логотипы в рекламе или на фотографиях товаров. Если что-то выглядит слишком полированным, но при этом не прослеживается происхождение, отнеситесь к этому скептически.
Сообщения, созданные искусственным интеллектом, могут звучать слишком полированно или шаблонно. Мошенники, которые не ссылаются на личный контекст или используют фразы, которые кажутся немного странными, заслуживают внимания, особенно если они исходят от знакомых вам людей.
Видеоролики и аудиозаписи, сделанные с помощьюглубокой подделки, могут повторять знакомые сценарии или казаться эмоционально плоскими. Если в видеоролике или рекламе знаменитость одобряет инвестиционную схему, проверьте ее социальные сети, прежде чем верить или делиться ею.
Генеративный искусственный интеллект делает мошенников быстрее, масштабнее и сложнее для обнаружения. Признаки, которые раньше выдавали их - плохая грамматика, украденные изображения, неловкие формулировки, - исчезают.
Но все еще есть способы отличить мошенников. К незнакомым ссылкам, срочным просьбам об оплате, сообщениям от публичных персон или близких людей, не соответствующим их характеру, следует относиться с подозрением. Но если замедлиться, проверить детали и критически осмыслить увиденное или услышанное, можно не попасть впросак.