

Os esquemas constituem a principal atividade ilícita no setor das criptomoedas, colocando desafios significativos tanto para os utilizadores como para as autoridades reguladoras. Dados recentes do Federal Bureau of Investigation indicam que cidadãos dos Estados Unidos perderam 9,3 mil milhões de dólares em esquemas cripto nos últimos anos, o que evidencia a dimensão e gravidade crescentes deste fenómeno.
O aparecimento e a rápida evolução das tecnologias de inteligência artificial agravaram significativamente esta crise. De acordo com a TRM Labs, empresa de análise blockchain, verificou-se um aumento de 456% nos esquemas facilitados por IA em 2024 face a anos anteriores. Este crescimento exponencial demonstra como agentes maliciosos estão a explorar tecnologia de ponta para tirar partido das vulnerabilidades do ecossistema cripto.
Com a evolução da IA generativa, os atores mal-intencionados passaram a utilizar ferramentas cada vez mais sofisticadas, como chatbots avançados, vídeos deepfake altamente convincentes, vozes clonadas com precisão e redes automatizadas capazes de gerar tokens fraudulentos numa escala nunca vista. A fraude em cripto transformou-se, deixando de assentar em operações humanas tradicionais e passando para sistemas algorítmicos de resposta rápida, adaptáveis e cada vez mais indistinguíveis de interações legítimas. Estas operações suportadas por IA conseguem analisar padrões de comportamento das vítimas, adaptar abordagens em tempo real e executar esquemas de fraude complexos em várias plataformas simultaneamente.
A velocidade e sofisticação dos esquemas cripto atuais atingiram níveis alarmantes, alterando profundamente o cenário da fraude digital. Ari Redbord, responsável global de política e assuntos governamentais na TRM Labs, partilhou perspetivas essenciais sobre esta ameaça, explicando que modelos generativos estão a ser usados como armas para lançar milhares de esquemas coordenados em simultâneo em várias plataformas e redes blockchain. "Estamos a assistir a um ecossistema criminoso mais inteligente, mais rápido e infinitamente escalável", sublinhou, destacando os desafios inéditos para o setor.
Os modelos de IA generativa conseguem analisar e adaptar-se às preferências linguísticas, localização geográfica e pegada digital da vítima, criando vetores de ataque altamente personalizados. Em operações de ransomware, a IA é utilizada para identificar e selecionar vítimas mais propensas a pagar, redigir automaticamente mensagens de resgate apropriadas ao contexto, e conduzir negociações automatizadas que imitam padrões humanos de interação.
Nos ataques de engenharia social, as tecnologias deepfake tornaram-se especialmente perigosas. Criminosos usam vozes e vídeos gerados por IA para implementar esquemas sofisticados de "personificação de executivos", onde se fazem passar por dirigentes de empresas para autorizar transações fraudulentas, e esquemas de "emergência familiar" que exploram a componente emocional. Estes ataques baseados em deepfake estão cada vez mais difíceis de detetar, pois a tecnologia replica padrões de fala, expressões faciais e maneirismos com uma precisão impressionante.
Os esquemas on-chain também evoluíram substancialmente graças à integração da IA. Agentes maliciosos utilizam ferramentas de IA para escrever scripts complexos capazes de movimentar fundos por centenas de carteiras em poucos segundos, executando operações de branqueamento a um ritmo impossível de acompanhar ou intercetar em tempo real por analistas humanos. Esta automação permite ofuscar o rasto das transações em múltiplas redes blockchain, tornando os métodos tradicionais de rastreio cada vez menos eficazes.
Face a estas ameaças crescentes, o setor das criptomoedas mobilizou recursos consideráveis para desenvolver e implementar mecanismos de defesa suportados por IA. Empresas de análise de blockchain, empresas de cibersegurança, plataformas de negociação de criptomoedas e instituições académicas colaboram para construir sistemas avançados de machine learning, especialmente desenhados para detetar, sinalizar e mitigar atividades fraudulentas antes de ocorrerem perdas financeiras.
A inteligência artificial está integrada em todas as camadas operacionais das plataformas avançadas de inteligência blockchain. A TRM Labs é exemplo desta abordagem, usando algoritmos de machine learning para processar e analisar biliões de pontos de dados em mais de 40 redes blockchain. Esta análise abrangente permite mapear redes complexas de carteiras, identificar novas tipologias de fraude e detetar padrões comportamentais anómalos que possam indicar atividades ilícitas. O sistema identifica indicadores subtis que poderiam escapar a um analista humano, como horários de transação invulgares, padrões atípicos de interação de carteiras ou movimentos coordenados entre endereços aparentemente não relacionados.
A Sardine, plataforma de risco baseada em IA especializada na deteção de fraude, implementou uma estratégia de defesa em várias camadas. O sistema avançado de deteção de fraude por IA da empresa atua em três níveis essenciais: primeiro, capta sinais de fundo e dados contextuais de cada sessão de utilizador, como impressões digitais do dispositivo, biometria comportamental e padrões de transação; depois, recorre a uma rede abrangente de fornecedores de dados de confiança para obter inteligência sobre ameaças em tempo real; e, por fim, utiliza dados de consórcio, permitindo a partilha anonimizada de informação sobre agentes maliciosos identificados e vetores de ataque emergentes entre empresas parceiras. O motor de risco em tempo real da Sardine processa estes fluxos de dados em simultâneo, permitindo intervir imediatamente em cada indicador de risco para combater esquemas assim que surgem, e não apenas após o dano estar feito.
Estas plataformas potenciadas por IA aprendem e adaptam-se continuamente, melhorando a sua capacidade de deteção à medida que surgem novas técnicas de fraude. Ao analisar padrões históricos e identificar características comuns de ataques bem-sucedidos, conseguem antecipar e prevenir esquemas semelhantes antes de estes chegarem a potenciais vítimas.
A aplicação de sistemas de defesa potenciados por IA já provou ser altamente eficaz em cenários reais. Assim que são detetados padrões suspeitos numa triagem inicial, os sistemas de IA realizam análises profundas para identificar tendências e gerar recomendações concretas para travar vetores de ataque. Tarefas que exigiriam um dia inteiro de trabalho humano são agora executadas em segundos graças à automação por IA, o que reduz drasticamente os tempos de resposta e impede a concretização da fraude.
A Sardine mantém uma colaboração próxima com as principais bolsas de criptomoedas para monitorizar e sinalizar comportamentos invulgares dos utilizadores em tempo real. Quando os utilizadores iniciam transações, estas são automaticamente processadas pela plataforma avançada de decisão da Sardine. O motor de análise por IA avalia vários fatores de risco — histórico de transações, padrões comportamentais, informações do dispositivo e ligações de rede — para determinar o risco de cada operação. Esta análise avançada permite às bolsas receberem avisos antecipados sobre potenciais fraudes, possibilitando a implementação de medidas como verificações adicionais ou bloqueios temporários antes de a transferência ser irreversível.
Numa situação especialmente ilustrativa, a equipa de segurança da TRM Labs assistiu em direto a um ataque deepfake durante uma videochamada com um alegado burlão de grooming financeiro. As ferramentas de IA da empresa permitiram analisar e confirmar em tempo real que a imagem de vídeo era provavelmente gerada por IA, o que poderá ter evitado uma fraude financeira de grande dimensão. Este caso demonstra a importância vital dos sistemas de verificação baseados em IA capazes de identificar deepfakes em interações ao vivo.
A Kidas, uma empresa de cibersegurança especializada, desenvolveu modelos próprios de IA destinados a detetar e prevenir esquemas com recurso a análise multimodal. Os sistemas avançados conseguem analisar, em simultâneo e em tempo real, texto, padrões comportamentais e incoerências áudio-visuais para identificar deepfakes e tentativas de phishing criadas por LLM no momento da interação. Assim, é possível atribuir uma pontuação de risco instantânea e intervir de imediato, bloqueando comunicações fraudulentas antes de conseguirem enganar as vítimas. O sistema deteta artefactos subtis em conteúdos sintéticos, identifica incoerências no padrão de comunicação e reconhece as marcas linguísticas de phishing gerado por IA.
Apesar dos avanços significativos das ferramentas de deteção baseadas em IA, os especialistas reconhecem que estes ataques continuarão a crescer em frequência e sofisticação. Por isso, é fundamental adotar uma abordagem multicamada, aliando soluções tecnológicas à formação dos utilizadores.
Os utilizadores devem estar atentos a sinais de fraude. Uma técnica comum dos criminosos consiste em utilizar letras do alfabeto grego ou caracteres semelhantes em sites falsos para criar URLs que parecem autênticos, mas que redirecionam para páginas fraudulentas. Substituir letras latinas por caracteres cirílicos ou gregos visualmente semelhantes pode originar domínios falsos muito credíveis.
É aconselhável ter cuidado com links patrocinados nos motores de pesquisa, já que agentes maliciosos compram anúncios para posicionar sites fraudulentos em destaque nos resultados para serviços cripto populares. Em vez de clicar em links patrocinados, recomenda-se confirmar os URLs digitando-os diretamente no navegador ou recorrendo a marcadores verificados. Verificar o endereço do site, incluindo a existência de certificados SSL e a ortografia exata do domínio, pode evitar muitos ataques de phishing.
Empresas como a Sardine e a TRM Labs trabalham em estreita colaboração com entidades reguladoras para criar quadros e salvaguardas que usem IA na mitigação dos riscos associados aos esquemas cripto suportados por IA. Como refere Redbord, "Estamos a desenvolver sistemas que oferecem às autoridades e profissionais de compliance a mesma velocidade, escala e alcance que os criminosos — da deteção de anomalias em tempo real à identificação de operações de branqueamento cross-chain coordenadas." Esta abordagem colaborativa entre empresas privadas e autoridades públicas pretende criar um ecossistema de defesa abrangente.
Além disso, os utilizadores devem implementar práticas básicas de segurança, como ativar autenticação de dois fatores, usar carteiras físicas para grandes detenções, atualizar o software regularmente e manter uma atitude crítica face a oportunidades de investimento não solicitadas ou a pedidos urgentes de transferência de fundos. A aprendizagem sobre as táticas mais comuns de fraude, aliada a tecnologias de proteção baseadas em IA, constitui a defesa mais eficaz contra a fraude cripto em constante evolução.
A IA identifica esquemas cripto através do reconhecimento de padrões, analisando grandes volumes de dados para detetar atividades suspeitas como volumes de transações invulgares, comportamentos anómalos de utilizadores e padrões irregulares de contas. Algoritmos de aprendizagem automática sinalizam transações e carteiras de alto risco em tempo real, enquanto sistemas de deteção de anomalias distinguem entre transações legítimas e fraudulentas, protegendo os utilizadores de ataques de phishing e esquemas de pirâmide.
Os esquemas cripto mais comuns incluem phishing, esquemas de investimento fraudulentos, fraudes com deepfake e autorizações maliciosas de smart contract. A IA combate estes esquemas através do reconhecimento de padrões, deteção de anomalias em transações, análise comportamental de contas suspeitas e identificação de ameaças em tempo real.
A IA destaca-se pela capacidade de analisar volumes massivos de transações em tempo real, identificando padrões e atividades suspeitas de forma imediata. No entanto, depende da qualidade dos dados e do histórico de treino, ficando vulnerável a esquemas inovadores ou sofisticados que ainda não tenham sido detetados.
A integração entre blockchain e IA reforça a segurança dos criptoativos ao permitir que a IA preveja e detete ameaças em tempo real, enquanto o registo imutável do blockchain garante a integridade das transações. Esta combinação cria um sistema de defesa em dupla camada que reduz drasticamente o risco de fraude ou de acessos não autorizados.
A Chainalysis e a TRM Labs utilizam machine learning para detetar padrões de fraude e esquemas potenciados por IA. A análise blockchain identifica carteiras envolvidas em 60% dos depósitos fraudulentos com apoio de IA. Soluções anti-phishing recorrem ao reconhecimento visual por IA para identificar sites falsos. Autoridades e plataformas partilham cada vez mais informações sobre fraude e implementam autenticação biométrica robusta e análise comportamental para combater deepfakes e identidades sintéticas.
Os sistemas de deteção de fraude por IA atingem taxas de precisão superiores a 95% e mantêm taxas de falsos positivos abaixo dos 2%. Estes sistemas utilizam análise de dados em tempo real e monitorização contínua para identificar e prevenir de forma eficaz esquemas cripto sofisticados.
A IA irá recorrer a análises avançadas e tecnologias preditivas para reforçar a eficiência na deteção e prevenção, respondendo a táticas de fraude em constante evolução através de monitorização em tempo real, reconhecimento de padrões comportamentais e resposta automática a ameaças.











