Tomber amoureux en ligne ? C'est passionnant. Tomber dans une arnaque ? Cauchemar. Grâce à l'intelligence artificielle, les escroqueries amoureuses sont passées à la vitesse supérieure : fini les photos volées et l'anglais approximatif. Désormais, les escrocs se présentent lors d'appels vidéo, envoient des messages vocaux et entretiennent des relations à long terme, le tout sans être réels. C'est fou, non ? Bienvenue dans l'ère de l'escroquerie sentimentale alimentée par l'IA.
Imaginez la situation : Vous avez discuté avec quelqu'un d'extraordinaire. Il est drôle, beau et dit toujours les bonnes choses. Vous passez enfin l'appel vidéo, et le voilà, souriant, clignant des yeux, vous regardant droit dans les yeux. C'est tout à fait légitime. Mais qu'en est-il si ce n'est qu'une supercherie générée par l'intelligence artificielle ?
Les escrocs utilisent aujourd'hui la technologie deepfake pour créer de fausses identités si convaincantes qu'elles leur permettent de dialoguer avec leurs victimes par vidéo en direct. Certains clonent même des célébrités ou des influenceurs pour rendre leurs escroqueries plus crédibles. Et lorsque les émotions entrent en jeu, il est facile de tomber dans le piège du mensonge.
Vous ne nous croyez pas ? Regardez l'image ci-dessous d'une femme qui discute avec un escroc en pensant qu'il s'agit de son amant.
Source : Linkedin
En octobre 2024, la police de Hong Kong a démantelé une affaire dans laquelle de faux escrocs ont escroqué 46 millions de dollars à leurs victimes. Comment ? Grâce à des appels vidéo générés par l'IA et à des messages vocaux étrangement réalistes, il était impossible de remettre en question leur fausse identité, jusqu'à ce qu'il soit trop tard.
Un ingénieur logiciel californien a passé trois mois à envoyer des SMS à ce qu'il pensait être la femme de ses rêves. Elle était drôle, flirteuse et émotionnellement disponible. Le hic ? Elle n'envoyait jamais de messages vocaux et ne changeait pas de style. Il s'est avéré qu'elle n'était pas réelle, mais qu'il s'agissait d'un chatbot d'IA conçu pour l'attirer dans un faux plan d'investissement en crypto-monnaie.
Certaines escroqueries prennent leur temps, "engraissant" les victimes sur le plan émotionnel avant le grand jour. C'est le cas de l'escroquerie au dépeçage de cochon, dans laquelle les fraudeurs couvrent leurs victimes d'amour avant de leur présenter une opportunité d'investissement "unique". Avec l'aide de l'IA, ils créent de faux tableaux de bord financiers, automatisent des rapports de trading convaincants et font en sorte que tout cela paraisse si réel.
En 2023, une femme de Floride a perdu 1,6 million de dollars après être tombée dans le piège d'un escroc généré par l'IA sur LinkedIn. Il s'est fait passer pour un riche homme d'affaires, lui a montré de faux bénéfices en crypto-monnaies et l'a convaincue d'investir massivement. Lorsqu'elle a réalisé qu'il s'agissait d'une escroquerie, son argent avait disparu dans l'abîme de la blockchain.
Heureusement, l'IA ne se contente pas d'aider les escrocs, elle contribue également à les arrêter. Voici comment :
Les rencontres en ligne n'ont rien de catastrophique, mais il est judicieux de rester vigilant. Si quelqu'un semble trop parfait, évite les appels vidéo ou demande de l'argent, prenez du recul. Les escroqueries à l'IA sont de plus en plus sophistiquées, mais un peu de scepticisme ne fait pas de mal. Lorsqu'il s'agit d'amour en ligne, faites confiance à votre instinct - et faites peut-être une recherche d'image inversée pendant que vous y êtes.