https://whitelabel-manager-production.ams3.digitaloceanspaces.com/thumbs/ai-is-fueling-smarter-faster-harder-to-spot-scams-79b9f.png_800x.png
juin 26, 2025
Author: James Greening

Comment les escrocs utilisent l'IA pour renforcer les escroqueries

L'intelligence artificielle modifie la manière dont les escroqueries sont créées, mises en œuvre et diffusées. Des outils tels que les générateurs d'images, les chatbots et les synthétiseurs vocaux sont désormais utilisés pour usurper l'identité de personnes, automatiser des messages d'hameçonnage et fabriquer de faux produits qui n'existent pas. Avec un minimum de données et presque aucun coût, les escrocs peuvent désormais produire du matériel convaincant en quelques secondes.

Selon le rapport Global State of Scams 2024 de la Global Anti-Scam Alliance (GASA), de nombreuses victimes d'escroquerie pensent que l'IA a été utilisée dans les messages d'escroquerie qu'elles ont reçus, en particulier par texte, chat ou voix. Trente et un pour cent d'entre elles ne sont pas sûres et 16 % ont déclaré que l'IA n'était pas impliquée.

Près de la moitié des escroqueries sont désormais réalisées en moins de 24 heures, un rythme dû en partie à la rapidité et à l'automatisation que permet l'IA générative. Les sites web frauduleux, les courriels d'hameçonnage, les fausses recommandations et les appels d'usurpation d'identité peuvent tous être créés, déployés et mis à l'échelle en une fraction du temps qu'il fallait auparavant.

Dans cet article, nous examinons comment les escrocs utilisent déjà l'IA d'une manière qu'il est facile de ne pas remarquer, et ce à quoi vous devez faire attention pour éviter de tomber dans le panneau.

Fausses boutiques en ligne utilisant des images générées par l'IA

Grâce aux générateurs d'images par IA, il est désormais facile de produire des photos de produits originales qui semblent réalistes et prises par des professionnels. Les escrocs n'ont plus besoin de voler des images à d'autres vendeurs. Ils génèrent de nouveaux visuels de vêtements, d'appareils électroniques ou de meubles qui semblent attrayants mais qui n'existent pas réellement.

Ces images sont utilisées pour créer de fausses boutiques en ligne et diffuser des publicités sur les médias sociaux. Si les visuels semblent soignés, un examen plus approfondi révèle souvent des marques déformées, des proportions bizarres, des textes déformés ou des éclairages non naturels. Les victimes sont attirées par des remises importantes et des promotions urgentes. Après avoir payé, elles ne reçoivent généralement rien ou un produit contrefait.

11-ai-ab99f.jpg

Des courriels d'hameçonnage rédigés par des modèles linguistiques

Lescourriels d'hameçonnage ont longtemps reposé sur l'urgence et l'usurpation d'identité, mais leur langage les trahissait souvent. Ce n'est plus le cas aujourd'hui. Les outils de rédaction alimentés par l'IA peuvent désormais créer des messages de phishing qui semblent naturels et qui correspondent au ton d'institutions légitimes.

Les escrocs peuvent rapidement générer des courriels réalistes qui imitent les messages de banques, de services gouvernementaux ou d'entreprises connues. Ils peuvent également adapter la formulation en fonction de la saison ou du lieu, comme des rappels de déclaration d'impôts ou des avis de livraison de colis. Ces messages mènent souvent à de fausses pages de connexion ou invitent les destinataires à télécharger des logiciels malveillants.

Le clonage vocal utilisé dans les escroqueries à l'usurpation d'identité

Les escrocs peuvent désormais générer des voix synthétiques qui ressemblent à celles de personnes réelles à partir d'un simple clip audio. Cette technologie est de plus en plus utilisée dans les escroqueries à l'usurpation d'identité.

Certaines escroqueries consistent en des appels où la voix ressemble à celle d'un proche en détresse. La FTC a averti que les escrocs peuvent désormais cloner des voix à l'aide de l'IA, ce qui rend les escroqueries aux urgences familiales encore plus difficiles à détecter. Il suffit d'une courte séquence audio pour que les escrocs créent une voix suffisamment réaliste pour faire croire à un proche qu'il est en difficulté.

Cette même technologie a déjà été utilisée dans le cadre d'escroqueries commerciales. Dans un cas, une société d'énergie britannique a transféré plus de 243 000 dollars après avoir reçu un appel imitant la voix de son PDG.

Des vidéos "deepfake" dans de faux plans d'investissement

Les escroqueries par vidéo évoluent également. La technologie Deepfake permet aux escrocs de créer de fausses vidéos dans lesquelles des personnes connues apparaissent pour promouvoir des plateformes d'investissement ou des cadeaux. Ces vidéos sont souvent utilisées pour cibler les utilisateurs des médias sociaux ou apparaître dans des publicités en ligne.

Les escrocs ont utilisé des deepfakes d'Elon Musk, d'Anthony Bolton et de Taylor Swift pour promouvoir des plateformes de crypto-monnaie et des programmes d'investissement frauduleux. Ces vidéos sont généralement associées à un langage "à durée limitée" et à des groupes WhatsApp frauduleux. Un exemple concret de cette tactique est visible dans cette vidéo partagée par ScamAdviser, où un livestream piraté a été utilisé pour promouvoir une escroquerie au crypto sur le thème de Musk.

Comment repérer les escroqueries générées par l'IA

Les visuels générés par l'IA contiennent souvent des incohérences physiques. Recherchez les tissus déformés, les reflets mal assortis, les erreurs d'éclairage ou les logos manquants dans les publicités ou les photos de produits. Si quelque chose semble trop soigné mais qu'il n'y a pas d'origine traçable, soyez sceptique.

Les messages créés par l'IA peuvent sembler trop polis ou génériques. Les escroqueries qui ne font référence à aucun contexte personnel ou qui utilisent des formulations qui semblent légèrement erronées méritent d'être remises en question, en particulier lorsqu'elles proviennent de personnes que vous connaissez.

Lesvidéos et audios"deepfake" peuvent réutiliser des scripts familiers ou sembler émotionnellement plats. Si un livestream ou une publicité montre une célébrité soutenant un plan d'investissement, recherchez ses médias sociaux vérifiés avant de la croire ou de la partager.

Conclusion : Rester vigilant

L'IA générative rend les escroqueries plus rapides, plus évolutives et plus difficiles à détecter. Les signes qui les trahissaient autrefois - mauvaise grammaire, images volées, formulation maladroite - sont en train de disparaître.

Mais il existe encore des moyens de faire la différence. Les liens inconnus, les demandes de paiement urgentes et les messages de personnalités publiques ou d'êtres chers qui sortent de l'ordinaire doivent tous être traités avec méfiance. Mais en ralentissant, en vérifiant les détails et en réfléchissant de manière critique à ce que vous voyez ou entendez, vous pouvez éviter d'être pris dans la précipitation.

Report a Scam!
Have you fallen for a hoax, or bought a fake product? Report the site and warn others!

Scam Tags

#Escroqueries en ligne #Phishing & vol d'identité #Fausses boutiques en ligne #Misleading Claims #Fake Online Store #Autres escroqueries, canulars et fraudes #Impersonation scams #Arnaques aux logiciels malveillants #Produits contrefaits / contrefaçons #Arnaques en matière d'investissement #Arnaques sur les sites de vidéos pour adultes #Arnaques par abonnements #Social Media Hoax #Cryptomonnaie / Arnaques Bitcoins #Rencontres et arnaques amoureuses #Escroqueries aux cartes-cadeaux #Social Media Scams #Text Message Scams #Arnaques aux cadeaux et prix gratuits #Arnaques sur les marchés #Arnaques aux avances de frais #Offres promotionnelles frauduleuses #Arnaques sur le travail à domicile #Arnaques aux faux emplois #Arnaques en matière de voyages & de vacances #Arnaques aux jeux d'argent & paris #Arnaques téléphoniques #Les arnaques au trading de crypto #Data Breach #Arnaque "bait & switch" #Arnaques aux jeux #Facebook Scams #Arnaques sur Amazon #Arnaques sur les sites de rencontres pour adultes #escroqueries à la charité #Systèmes Pyramidaux & de Ponzi #Online payment scams #Extortion Scams #Online Survey Scams #Arnaques visant à récupérer de l'argent #Arnaques à la loterie #Escroqueries sur les cartes de crédit et de débit #Canulars de courriels d'affaires #Arnaques sur Forex et la Bourse #Arnaques par catfishing #Arnaques en conversion d'argent #Faux IT / Support technique #Fausse facture #Arnaques aux services publics #Tiktok Scams #Social Security Scams
About Us Contact Check Yourself Disclaimer
Developed By: scamadviser-logo