

La empresa de ciberseguridad Cybertrace ha lanzado una advertencia contundente sobre un vídeo deepfake especialmente convincente protagonizado por el empresario y magnate minero australiano Andrew "Twiggy" Forrest. Este sofisticado caso de manipulación digital representa una amenaza creciente en la confluencia de la inteligencia artificial y el fraude financiero.
El vídeo deepfake, difundido en plataformas de redes sociales, muestra a Forrest promocionando una falsa plataforma de trading de criptomonedas que promete altos rendimientos a inversores desprevenidos. Esta tecnología emplea inteligencia artificial y algoritmos de aprendizaje automático para crear vídeos realistas pero completamente falsos, superponiendo el rostro de una persona sobre el cuerpo de otra o modificando sus expresiones faciales y patrones de voz. En este caso, los estafadores han utilizado la tecnología para generar una falsa recomendación que parece sumamente auténtica.
El vídeo, que apareció inicialmente en Facebook, anima a los usuarios a registrarse en una plataforma fraudulenta que asegura generar grandes beneficios diarios para "personas comunes". El vídeo utiliza manipulación psicológica dirigida a quienes buscan oportunidades financieras, prometiendo retornos poco realistas, propios de fraudes de inversión. Las víctimas son redirigidas a una web llamada "Quantum AI", un nombre que, según Cybertrace, está vinculado a estafas y fraudes financieros. Esta plataforma sostiene falsamente que emplea algoritmos avanzados de IA para trading de criptomonedas, explotando el escaso conocimiento del público sobre inteligencia artificial y los mercados de activos digitales.
En una declaración, Dan Halpin, CEO de Cybertrace, señaló que el vídeo deepfake podría engañar incluso a personas cautelosas, ya que quienes lo producen parecen tener conocimientos profesionales en ventas y marketing. La sofisticación de la estafa va más allá de la propia creación técnica del deepfake.
Halpin también destacó la extensión y el carácter repetitivo del vídeo, que aumentan su capacidad de persuasión y el impacto psicológico en los espectadores. "El vídeo es largo y de muchas formas repetitivo, lo que puede resultar muy convincente y parece haber sido realizado por alguien con experiencia en ventas y marketing", explicó Halpin. Esta repetición cumple un propósito psicológico: refuerza el mensaje fraudulento y genera una falsa sensación de legitimidad por familiaridad.
El deepfake manipula la conducta y el lenguaje corporal de Forrest con enorme precisión, empleando imágenes de una "charla junto al fuego" organizada por Rhodes Trust en octubre. Esto demuestra la capacidad de los estafadores para obtener material original de alta calidad y aplicar técnicas avanzadas de manipulación con IA para crear una falsificación perfecta. El uso de material de una institución respetada como Rhodes Trust suma un nivel extra de credibilidad aparente a la estafa.
Cybertrace detectó el vídeo deepfake el 27 de enero, donde se muestra una versión de Forrest alterada por IA recomendando un software ficticio para trading de criptomonedas. En el vídeo, la versión manipulada de Forrest promete a los espectadores la oportunidad de unirse a él y a su equipo como socios en el software de trading de acciones y criptomonedas más inteligente del mundo, garantizando beneficios elevados independientemente de las condiciones del mercado. Estas promesas de ganancias aseguradas en mercados tan volátiles como el de las criptomonedas constituyen señales claras de fraude de inversión.
Forrest, ex CEO de la minera australiana Fortescue Metals Group, es un empresario de gran éxito y cuenta con un patrimonio neto de 29,4 mil millones de dólares. Los estafadores han elegido deliberadamente a una figura empresarial tan destacada y respetada para aportar falsa credibilidad a su montaje, sabiendo que su reputación como empresario de éxito haría que la falsa recomendación resultase más persuasiva para futuras víctimas.
El vídeo deepfake concluye con Forrest instando a los espectadores a registrarse en la plataforma antes de que sea demasiado tarde, añadiendo un componente de urgencia al engaño. Esta presión de tiempo artificial es una táctica común de manipulación diseñada para impedir que las víctimas potenciales realicen una comprobación adecuada o pidan asesoramiento antes de invertir.
Cybertrace ha advertido a los usuarios que extremen la vigilancia ante el reciente aumento de fraudes deepfake dirigidos a personas de alto perfil. La proliferación de herramientas de IA accesibles ha facilitado que los delincuentes creen deepfakes convincentes, lo que ha provocado un crecimiento exponencial de estos esquemas fraudulentos a nivel mundial.
Además de Forrest, otros australianos destacados como Gina Rinehart (la persona más rica del país), el empresario Dick Smith y la presentadora Allison Langdon también han sido objetivo de estafadores mediante vídeos deepfake, según Cybertrace. Este patrón apunta a un esfuerzo organizado de redes criminales para explotar la imagen y reputación de figuras públicas de confianza y perpetrar delitos financieros. El hecho de que se dirijan a varias personalidades australianas sugiere que los estafadores se enfocan en mercados regionales donde estas figuras cuentan con notable influencia y confianza.
Según lo informado, Lee Hsien Loong, primer ministro de Singapur, también ha advertido a sus seguidores en redes sociales sobre el uso de deepfakes que utilizan su voz e imagen para promover estafas con criptomonedas. En su advertencia, Loong incluso compartió un vídeo de ejemplo en el que es entrevistado, creado por estafadores para respaldar un falso esquema de "trading cripto manos libres". Al abordar públicamente el problema, Loong ha puesto de relieve la importancia de la concienciación y la educación para combatir estos sofisticados intentos de fraude.
"El uso de la tecnología deepfake para difundir desinformación seguirá creciendo", declaró Loong. "Debemos mantenernos alertas y aprender a protegernos y proteger a nuestros seres queridos ante estas estafas". Esta declaración destaca el carácter cambiante de las amenazas digitales y la necesidad de formación pública continua acerca de los nuevos métodos de fraude.
Los estafadores han recurrido a diversos métodos para engañar a las personas y robarles dinero fiduciario o tokens desde la aparición de las criptomonedas. El carácter anónimo e irreversible de las transacciones con criptomonedas las convierte en un objetivo especialmente atractivo para los delincuentes. En 2020, hackers accedieron a las cuentas de conocidos usuarios de Twitter, incluido el expresidente estadounidense Barack Obama y el presidente electo Joe Biden, para difundir una estafa con Bitcoin. Este caso demostró cómo la ingeniería social y las vulnerabilidades de las plataformas pueden combinarse con el fraude en criptomonedas para atacar a grandes audiencias.
Para protegerse del fraude financiero relacionado con deepfakes, hay que verificar toda oportunidad de inversión a través de canales oficiales antes de destinar fondos. No confíe únicamente en vídeos difundidos en redes sociales ni en recomendaciones de inversión no solicitadas, sin importar quién las promocione. Busque incoherencias en el vídeo, como movimientos faciales poco naturales, iluminación extraña o problemas de sincronización de audio que puedan indicar manipulación.
Además, desconfíe de cualquier propuesta de inversión que prometa beneficios garantizados o que genere urgencia artificial de actuar de inmediato. Las oportunidades legítimas de inversión no exigen tomar decisiones apresuradas y ninguna inversión puede asegurar beneficios independientemente del mercado. Investigue siempre de manera independiente y consulte con asesores financieros registrados antes de tomar decisiones de inversión relevantes, en especial en mercados volátiles como el de las criptomonedas.
Deepfake utiliza inteligencia artificial para crear vídeos y audios falsos realistas. Los estafadores la emplean para suplantar a celebridades o autoridades, logrando que las víctimas transfieran fondos o revelen información sensible mediante contenido engañoso.
Verifique los detalles del vídeo revisando la coherencia del fondo, la calidad del audio y los movimientos faciales. Contraste con las cuentas oficiales en redes sociales. Busque expresiones poco naturales, desajustes de audio o iluminación inusual. Contacte con la celebridad a través de canales oficiales para confirmar su autenticidad antes de confiar en la oferta de inversión.
Sí, es posible recuperar los fondos. Actúe de inmediato, dentro de las 24 horas, para bloquear cuentas a través de su banco y contacte con abogados especializados en recuperación internacional de activos. La rapidez aumenta las posibilidades de recuperar el dinero por vías legales y financieras.
El fraude financiero mediante deepfake vulnera la legislación sobre fraude e identidad. Los autores pueden enfrentarse a penas de prisión de 3 a 10 años, además de multas y obligaciones de restitución conforme a los códigos penales de la mayoría de jurisdicciones.
Deepfake permite a los estafadores suplantar a autoridades financieras y manipular información de mercado, provocando transferencias no autorizadas y volatilidad. Esto pone en riesgo la confianza de los inversores y la estabilidad de los mercados financieros.
Verifique siempre con canales oficiales antes de invertir, nunca confíe en recomendaciones de celebridades no solicitadas, investigue a fondo la oportunidad y reporte cualquier actividad sospechosa a las autoridades de inmediato. Acuda siempre a asesores financieros registrados.











