

A empresa de cibersegurança Cybertrace lançou um alerta contundente sobre um vídeo deepfake altamente convincente, protagonizado pelo magnata da mineração australiano e empresário Andrew "Twiggy" Forrest. Este caso sofisticado de manipulação digital representa uma ameaça crescente na convergência entre inteligência artificial e fraude financeira.
O vídeo deepfake, divulgado em plataformas de redes sociais, mostra Forrest a promover uma falsa plataforma de negociação de criptomoedas, prometendo elevados retornos a investidores desavisados. A tecnologia deepfake recorre a inteligência artificial e algoritmos de aprendizagem automática para criar conteúdos de vídeo realistas mas inteiramente fabricados, sobrepondo o rosto de uma pessoa ao corpo de outra ou manipulando expressões faciais e padrões de fala. Neste caso, os burlões tiraram partido desta tecnologia para criar um falso endosso que aparenta ser genuíno.
O vídeo, inicialmente publicado no Facebook, incentiva os utilizadores a inscreverem-se numa plataforma fraudulenta que afirma gerar lucros diários consideráveis para as "pessoas comuns". A manipulação psicológica utilizada no vídeo dirige-se a quem procura oportunidades financeiras, prometendo retornos irrealistas, típicos de esquemas de investimento. As vítimas são encaminhadas para um site denominado "Quantum AI", cujo nome, segundo a Cybertrace, está associado a burlas e fraudes financeiras. Esta plataforma alega falsamente utilizar algoritmos avançados de IA para negociação de criptomoedas, aproveitando o conhecimento limitado do público sobre inteligência artificial e os mercados de ativos digitais.
Em declarações, o CEO da Cybertrace, Dan Halpin, afirmou que o vídeo deepfake pode iludir mesmo pessoas cautelosas, dado que os burlões demonstram competências profissionais de vendas e marketing. A sofisticação deste esquema vai além da componente técnica da criação do deepfake.
Halpin salientou ainda a extensão e repetição do vídeo, fatores que aumentam o seu poder de persuasão e impacto psicológico. "O vídeo é longo e, em muitos aspetos, repetitivo, o que pode ser bastante convincente, e parece ter sido produzido por alguém com conhecimentos de vendas e marketing", explicou Halpin. Esta repetição serve um propósito psicológico, reforçando a mensagem fraudulenta e criando uma falsa sensação de legitimidade por via da familiaridade.
O deepfake manipula o comportamento e a linguagem corporal de Forrest com precisão notável, recorrendo a imagens de um "fireside chat" realizado pela Rhodes Trust em outubro. Isto demonstra a capacidade dos burlões para obter material de alta qualidade e aplicar técnicas avançadas de manipulação de IA, criando uma falsificação perfeita. A escolha de imagens de uma instituição respeitada como a Rhodes Trust acrescenta uma camada extra de credibilidade aparente ao esquema.
A Cybertrace detetou o vídeo deepfake a 27 de janeiro, onde se apresenta uma versão manipulada por IA de Forrest a endossar um software fictício de negociação de criptomoedas. No vídeo, esta versão alterada de Forrest promete aos espectadores a oportunidade de se juntarem a si e à sua equipa como parceiros no software de negociação de ações e criptomoedas mais inteligente do mundo, garantindo lucros substanciais independentemente das condições do mercado. Promessas de retornos garantidos em mercados voláteis, como as criptomoedas, são sinais clássicos de fraude de investimento.
Forrest, antigo CEO da empresa mineira australiana Fortescue Metals Group, é um empresário de grande sucesso, com um património líquido de 29,4 mil milhões de dólares. Os burlões escolheram propositadamente uma figura empresarial de grande notoriedade e reputação para conferir falsa credibilidade ao esquema, conscientes de que o seu prestígio empresarial tornaria o falso endosso mais apelativo para potenciais vítimas.
O vídeo deepfake termina com Forrest a incitar os espectadores a registarem-se na plataforma antes que seja tarde, acrescentando um elemento de urgência ao esquema. Esta pressão artificial é uma táctica comum de manipulação, pensada para impedir que as potenciais vítimas realizem uma análise cuidada ou procurem aconselhamento antes de tomar decisões de investimento.
A Cybertrace alertou para a necessidade de uma vigilância acrescida devido ao recente aumento das fraudes deepfake que visam figuras de relevo. A disseminação de ferramentas de IA acessíveis facilitou o trabalho dos criminosos na criação de conteúdos deepfake convincentes, levando a um aumento exponencial destes esquemas fraudulentos em todo o mundo.
Além de Forrest, outras figuras públicas australianas, como Gina Rinehart, a pessoa mais rica do país, o empresário Dick Smith e a apresentadora Allison Langdon, foram também visadas por burlões recorrendo a vídeos deepfake, segundo a Cybertrace. Este padrão sugere um esforço organizado de redes criminosas para explorar a imagem e reputação de figuras públicas de confiança, com o objetivo de cometer crimes financeiros. O facto de vários australianos de relevo serem alvo destas fraudes demonstra que os burlões estão a concentrar-se em mercados regionais onde estas personalidades detêm elevada influência e credibilidade.
De acordo com relatos, o primeiro-ministro de Singapura, Lee Hsien Loong, também alertou os seus seguidores nas redes sociais para a utilização de vídeos deepfake com a sua voz e imagem na promoção de esquemas de criptomoeda. Na sua advertência, Loong chegou a partilhar um vídeo de exemplo, no qual era entrevistado, criado por burlões para endossar um esquema fraudulento de "negociação cripto automática". Ao abordar publicamente o tema, Loong evidenciou a importância da sensibilização e educação para travar estas formas sofisticadas de fraude.
"O uso de tecnologia deepfake para difundir desinformação vai continuar a crescer", afirmou Loong. "Devemos manter-nos atentos e saber como proteger-nos e aos nossos próximos contra estes esquemas." Esta declaração sublinha o caráter evolutivo das ameaças digitais e a necessidade de formação pública contínua sobre as novas técnicas de fraude.
Os burlões têm recorrido a múltiplos métodos para enganar pessoas e roubar moeda fiduciária ou tokens desde o aparecimento das criptomoedas. O caráter anónimo e irreversível das transações em criptomoeda torna-as especialmente atrativas para atividades ilícitas. Em 2020, hackers comprometeram as contas de utilizadores de grande notoriedade na plataforma Twitter, incluindo o antigo Presidente dos Estados Unidos Barack Obama e o então Presidente-eleito Joe Biden, para promover um esquema de Bitcoin. Este episódio demonstrou como a engenharia social e as vulnerabilidades das plataformas podem ser exploradas em conjunto com esquemas de fraude em criptomoeda para atingir grandes audiências.
Para se proteger de fraudes financeiras relacionadas com deepfake, é fundamental validar qualquer oportunidade de investimento junto de canais oficiais antes de transferir fundos. Não confie apenas em vídeos nas redes sociais ou em conselhos de investimento não solicitados, independentemente de quem pareça estar a endossá-los. Procure sinais de manipulação, como movimentos faciais pouco naturais, iluminação irregular ou problemas de sincronização áudio.
Além disso, desconfie de qualquer proposta de investimento que garanta retornos ou crie um sentido de urgência artificial para agir de imediato. Oportunidades de investimento legítimas não exigem decisões apressadas e nenhum investimento pode garantir lucros, independentemente da evolução do mercado. Realize sempre uma análise independente e consulte consultores financeiros certificados antes de tomar decisões de investimento relevantes, especialmente em mercados voláteis como as criptomoedas.
Deepfake utiliza IA para criar vídeos e áudio falsos com realismo. Os burlões recorrem a esta tecnologia para se fazerem passar por celebridades ou autoridades, persuadindo as vítimas a transferir fundos ou partilhar informações sensíveis através de conteúdos enganosos.
Analise cuidadosamente os detalhes do vídeo, verificando a consistência do fundo, a qualidade do áudio e os movimentos faciais. Confirme através das contas oficiais nas redes sociais. Esteja atento a expressões pouco naturais, desajuste entre imagem e som ou iluminação invulgar. Contacte a celebridade por canais oficiais para validar a autenticidade antes de confiar em qualquer proposta de investimento.
Sim, a recuperação de fundos é possível. Atue de imediato, no prazo de 24 horas, bloqueando contas junto do seu banco e contacte advogados especializados em recuperação de ativos transfronteiriça. Uma resposta rápida aumenta significativamente as hipóteses de recuperação por vias legais e financeiras.
A fraude financeira com recurso a deepfake infringe normas sobre burla e identidade. Os criminosos incorrem em penas de prisão de 3 a 10 anos, bem como em multas e obrigações de indemnização, de acordo com os códigos penais da maioria das jurisdições.
A tecnologia deepfake permite aos burlões fazer-se passar por autoridades financeiras e manipular informação de mercado, provocando transferências não autorizadas de fundos e volatilidade. Este fenómeno prejudica a confiança dos investidores e compromete a estabilidade dos mercados financeiros.
Valide sempre junto de canais oficiais antes de investir, nunca confie em endossos de celebridades não solicitados, investigue exaustivamente o investimento e reporte de imediato qualquer atividade suspeita às autoridades. Trabalhe apenas com consultores financeiros devidamente registados.











