

La société de cybersécurité Cybertrace a lancé une alerte sévère concernant une vidéo deepfake particulièrement convaincante mettant en scène Andrew « Twiggy » Forrest, magnat australien de l’industrie minière et homme d’affaires. Ce cas sophistiqué de manipulation numérique illustre la menace croissante à la convergence de l’intelligence artificielle et de la fraude financière.
La vidéo deepfake, diffusée sur les réseaux sociaux, montre Forrest faisant la promotion d’une fausse plateforme de trading de cryptomonnaies promettant des rendements élevés à des investisseurs non avertis. Cette technologie repose sur l’intelligence artificielle et des algorithmes d’apprentissage automatique afin de produire des vidéos réalistes mais entièrement factices, en superposant le visage d’un individu sur le corps d’un autre ou en modifiant ses expressions et sa voix. Dans ce scénario, les fraudeurs ont utilisé cette technologie pour élaborer une fausse recommandation d’apparence très authentique.
La vidéo, apparue en premier lieu sur Facebook, incite les internautes à s’inscrire sur une plateforme frauduleuse qui prétend générer d’importants profits quotidiens pour les « gens ordinaires ». La stratégie de manipulation psychologique vise les personnes en quête d’opportunités financières, en promettant des rendements irréalistes typiques des escroqueries à l’investissement. Les victimes sont redirigées vers un site nommé « Quantum AI », que Cybertrace associe à des escroqueries et à la fraude financière. Cette plateforme prétend à tort utiliser des algorithmes d’IA avancés pour le trading de cryptomonnaies, exploitant la méconnaissance du public tant en intelligence artificielle qu’en marchés d’actifs numériques.
Dans un commentaire, Dan Halpin, PDG de Cybertrace, a indiqué que la vidéo deepfake pourrait piéger même les personnes les plus prudentes, les fraudeurs montrant une réelle expertise en vente et en marketing. La sophistication de cette arnaque dépasse largement la simple dimension technique du deepfake.
Halpin a également souligné que la longueur et la répétitivité de la vidéo renforcent sa force de persuasion et son impact psychologique. « La vidéo est longue et, sous de nombreux aspects, répétitive, ce qui la rend très convaincante, et elle semble avoir été conçue par quelqu’un ayant des compétences en vente et marketing », a-t-il expliqué. Cette répétition vise à renforcer le message frauduleux et à instaurer un faux sentiment de légitimité par la familiarité.
Le deepfake modifie le comportement et le langage corporel de Forrest avec une grande précision, à partir d’images issues d’un « fireside chat » organisé par la Rhodes Trust en octobre. Cela témoigne de la capacité des malfaiteurs à sélectionner des ressources de qualité et à appliquer des techniques avancées de manipulation par IA pour parvenir à une supercherie convaincante. Le choix d’utiliser des images d’une institution reconnue telle que la Rhodes Trust ajoute un surcroît de crédibilité à l’arnaque.
Cybertrace a détecté la vidéo deepfake le 27 janvier, montrant une version modifiée par IA de Forrest promouvant un logiciel fictif de trading de cryptomonnaies. Dans la vidéo, Forrest modifié promet aux spectateurs la possibilité de le rejoindre, lui et son équipe, comme partenaires du logiciel de trading d’actions et de cryptomonnaies le plus intelligent au monde, garantissant d’importants bénéfices quelles que soient les conditions du marché. De telles promesses de rendements assurés sur des marchés volatils comme celui des cryptomonnaies sont des signaux d’alerte classiques en matière de fraude à l’investissement.
Forrest, ex-PDG du groupe minier australien Fortescue Metals Group, est un entrepreneur très prospère, avec une fortune estimée à 29,4 milliards de dollars. Les fraudeurs ont sciemment choisi une personnalité aussi en vue et respectée pour renforcer la crédibilité de leur montage, sachant que sa réputation de réussite rendrait la fausse recommandation plus persuasive auprès de victimes potentielles.
La vidéo deepfake se conclut sur Forrest exhortant les spectateurs à s’inscrire avant qu’il ne soit trop tard, ajoutant une dimension d’urgence à l’arnaque. Cette pression artificielle sur le temps est un procédé classique visant à empêcher toute vérification ou recherche de conseil avant décision d’investissement.
Cybertrace appelle les utilisateurs à une vigilance accrue face à la multiplication récente des fraudes au deepfake visant des personnalités de premier plan. L’essor d’outils d’IA accessibles facilite la production de deepfakes convaincants, entraînant une hausse exponentielle de ces escroqueries à l’échelle mondiale.
Outre Forrest, d’autres personnalités australiennes telles que Gina Rinehart, la femme la plus riche du pays, l’entrepreneur Dick Smith et l’animatrice Allison Langdon ont également été visées par des vidéos deepfake, selon Cybertrace. Ce schéma traduit une démarche organisée de réseaux criminels exploitant l’image et la notoriété de figures publiques de confiance pour commettre des infractions financières. Le fait de cibler plusieurs Australiens influents montre que ces escrocs s’attaquent spécifiquement à des marchés régionaux où ces personnalités bénéficient d’un fort capital confiance.
Comme signalé, Lee Hsien Loong, Premier ministre de Singapour, a lui aussi mis en garde ses abonnés sur les réseaux sociaux contre des vidéos deepfake utilisant sa voix et son image pour promouvoir des arnaques en cryptomonnaies. Dans son avertissement, Loong a même partagé une vidéo d’exemple de lui en entretien, créée par des escrocs pour promouvoir une offre frauduleuse de « crypto trading automatisé ». En abordant publiquement le sujet, Loong met en avant l’importance de la sensibilisation et de l’éducation pour contrer ces fraudes sophistiquées.
« Le recours à la technologie deepfake pour diffuser de la désinformation va continuer à s’intensifier », affirme Loong. « Nous devons rester vigilants et apprendre à nous protéger, ainsi que nos proches, contre ces arnaques. » Ses propos rappellent l’évolution constante des menaces numériques et la nécessité d’un effort continu de sensibilisation du public face aux nouvelles méthodes de fraude.
Depuis l’émergence des cryptomonnaies, les escrocs utilisent divers procédés pour tromper les victimes et dérober leur monnaie fiduciaire ou leurs tokens. Le caractère anonyme et irréversible des transactions en cryptomonnaies en fait une cible privilégiée pour les fraudeurs. En 2020, des hackers ont compromis les comptes de personnalités majeures sur Twitter, dont l’ex-président américain Barack Obama et le président élu Joe Biden, pour promouvoir une arnaque au Bitcoin. Cet épisode a montré comment l’ingénierie sociale et les failles des plateformes peuvent se combiner à la fraude en cryptomonnaies pour toucher un large public.
Pour se prémunir contre la fraude financière liée aux deepfakes, vérifiez toute opportunité d’investissement auprès de sources officielles avant d’engager des fonds. Ne vous fiez jamais uniquement à des vidéos sur les réseaux sociaux ni à des recommandations non sollicitées, quelle que soit la personnalité en question. Soyez attentif aux signaux d’alerte dans la vidéo, comme des mouvements faciaux non naturels, un éclairage inhabituel ou des décalages audio qui peuvent révéler une manipulation.
Par ailleurs, méfiez-vous de toute opportunité promettant des gains garantis ou exerçant une pression artificielle pour agir immédiatement. Les investissements sérieux n’imposent jamais de décisions précipitées et aucun placement n’est garanti, quel que soit le marché. Procédez toujours à vos propres recherches et consultez des conseillers financiers agréés avant toute décision importante, en particulier sur les marchés volatils comme les cryptomonnaies.
Le deepfake utilise l’intelligence artificielle pour générer des vidéos et des audios truqués crédibles. Les escrocs s’en servent pour usurper l’identité de célébrités ou de responsables, incitant les victimes à transférer de l’argent ou à livrer des informations sensibles par le biais de contenus trompeurs.
Examinez soigneusement la vidéo : vérifiez la cohérence de l’arrière-plan, la qualité audio et les mouvements du visage. Comparez avec les comptes officiels sur les réseaux sociaux. Repérez toute expression inhabituelle, un décalage audio ou un éclairage anormal. Contactez la célébrité via des canaux officiels pour vérifier l’authenticité avant de croire à une offre d’investissement.
Oui, il est possible de récupérer les fonds. Agissez immédiatement dans les 24 heures pour faire geler les comptes via votre banque et contactez des avocats spécialisés dans la récupération transfrontalière d’actifs. Une intervention rapide augmente les chances de succès par les voies juridiques et financières.
La fraude financière par deepfake enfreint les lois sur l’escroquerie et l’usurpation d’identité. Les contrevenants encourent de 3 à 10 ans d’emprisonnement, assortis d’amendes et de mesures de réparation selon la législation pénale de la plupart des juridictions.
Le deepfake permet aux fraudeurs d’usurper l’identité d’autorités financières et de manipuler l’information de marché, provoquant des transferts de fonds non autorisés et une volatilité accrue. Cela ébranle la confiance des investisseurs et la stabilité des marchés financiers.
Vérifiez systématiquement via les canaux officiels avant d’investir, ne faites jamais confiance aux recommandations non sollicitées de célébrités, menez une analyse approfondie de l’offre et signalez sans délai toute activité suspecte aux autorités. Collaborez toujours avec des conseillers financiers agréés.











