Neste esquema de estelionato, a IA é responsável por namorar e também por criar licenças de advogado falsas.

robot
Geração de resumo em curso

Na maioria das operações dentro do parque de fraudes, um único conta ChatGPT foi suficiente.

Autor: Curry, Deep潮 TechFlow

OpenAI publicou recentemente um relatório sobre pessoas que usam o ChatGPT para fazer o mal, e eles conseguiram pegá-los.

O relatório é extenso, listando muitos casos de abuso de IA. Há russos fazendo propaganda falsa, suspeitos de espionagem usando engenharia social, mas hoje quero falar de um caso específico:

O esquema de assassinato de porcos no Camboja.

Esse tipo de golpe não é novidade, muitas histórias de parques no Camboja já foram ouvidas. O que é surpreendente é o papel da IA nesse esquema.

Nesse grupo de fraude, o ChatGPT é responsável por namorar, traduzir as instruções do supervisor, escrever relatórios diários de trabalho e avaliar cada vítima.

No esquema, eles usam um termo interno chamado kill value, que é a estimativa de quanto podem extrair de cada pessoa.

Ao longo de toda a cadeia, o ChatGPT provavelmente é o funcionário mais ocupado.

OpenAI deu um nome de código a esse caso: Operation Date Bait (Isca de Encontro).

O processo funciona assim:

O grupo de fraude cria um serviço falso de encontros de luxo, chamado Klub Romantis, com um logo feito pelo ChatGPT. Depois, eles compram anúncios nas redes sociais, usando palavras-chave como golfe, iate, restaurantes caros, direcionados a jovens homens indonésios.

Ao clicar no anúncio, você conversa primeiro com um chatbot AI. O robô, que finge ser uma recepcionista sexy, pergunta que tipo de garota você gosta. Após a escolha, fornece um link do Telegram com um código de convite exclusivo.

Ao entrar no Telegram, uma pessoa real assume o atendimento.

O atendente continua usando o ChatGPT para gerar mensagens ambíguas, ficando cada vez mais explícito, e te leva a dois sites falsos de encontros, chamados LoveCode e SexAction.

Nos sites, há perfis falsos de garotas e uma barra de mensagens rolante que anuncia continuamente: “Parabéns, alguém completou uma missão, desbloqueie o bônus”. Tudo inventado. Quem tem experiência na internet pode perceber facilmente, mas nem todos os alvos caem nessa.

Quando a conversa está avançada, o atendente te encaminha para um “mentor”. Este começa a te pedir para fazer “tarefas”, cada uma exigindo pagamento, com valores cada vez maiores. Compra de VIP, votação na “garota preferida”, depósito em hotel, entre outros.

A última etapa é chamada internamente de kill.

Eles inventam um motivo, como erro no processamento de dados ou verificação de depósito, para fazer você transferir uma grande quantia de uma só vez. No relatório, a OpenAI incluiu uma carta do grupo de fraude pedindo o pagamento de 20,5 milhões de rupias indonésias, cerca de 12 mil dólares, prometendo devolver 35% de bônus após o pagamento.

Quando o dinheiro chega, o golpista no Telegram te bloqueia e marca o caso como encerrado.

Ao ver isso, você pode pensar que não é nada de mais.

O método de engano em si não é novo; esquemas de “kill pig” já foram expostos várias vezes nos últimos anos. O que realmente impressiona é o que acontece nos bastidores.

Os investigadores da OpenAI analisaram os registros de uso dessas contas do ChatGPT e montaram uma estrutura empresarial completa:

O parque de fraudes é dividido em três departamentos: equipe de atração, equipe de atendimento e equipe de supervisão. A equipe de atração faz anúncios para atrair vítimas, a de atendimento constrói confiança por chat, e a de supervisão faz a colheita final.

Diariamente, há relatórios de atividades. Neles, cada vítima em tratamento é listada com o responsável, o estágio do processo e um número:

kill value.

É o valor estimado pelo supervisor de quanto podem extrair dessa pessoa.

Eles também usam o ChatGPT para analisar contas financeiras, gerar relatórios de trabalho e até perguntar como integrar APIs ou modificar códigos de sites de encontros. Quando há supervisores falando em chinês e funcionários em indonésio, o ChatGPT faz a tradução de ambos os lados.

O que causa risos é que um funcionário de fraudes por telefone usou o ChatGPT para perguntar sobre questões fiscais após receber o dinheiro, honestamente preenchendo na profissão “scammer” (golpista).

O relatório da OpenAI é bastante contido, dizendo que, com base nos registros do grupo de fraude, eles podem estar lidando com centenas de alvos ao mesmo tempo, movimentando milhares de dólares por dia. Mas também afirmam que não podem verificar se esses números são precisos.

Porém, acho que não é preciso se preocupar tanto com os números; basta observar o sistema de gestão:

atração, conversão, valor por cliente, relatórios diários, divisão de departamentos. Troque os termos, parece o manual de operação de qualquer SaaS.

E o que envolve namorar, traduzir, escrever relatórios, modificar códigos, calcular contas… a maior parte do trabalho nesse parque é feita por uma única conta do ChatGPT.

A história ainda não acabou.

No mesmo relatório, a OpenAI detalhou uma segunda operação, chamada Operation False Witness (Fraude secundária às vítimas), também originada no Camboja.

Essa operação não mira pessoas comuns, mas aqueles que já foram enganados antes.

A lógica é simples: você foi vítima de um golpe, quer recuperar o dinheiro, pesquisa na internet como fazer isso.

Aí aparece um anúncio de um escritório de advocacia que promete ajudar vítimas a recuperar perdas. Você clica.

O site parece legítimo. Fotos de advogados podem ser de perfis roubados de redes sociais ou gerados por IA. Cada escritório tem endereço, licença e uma breve descrição. O ChatGPT gera uma carteira de advogado do New York State Bar Association e também cria registros falsos de registro de advogados.

A OpenAI descobriu pelo menos seis escritórios falsos.

Há também um site que imita o centro de denúncias de crimes cibernéticos do FBI. Tem um botão “Enviar denúncia” que leva a uma conta no Telegram.

Ao chegar lá, o “advogado” começa a conversar com você. O diálogo é gerado pelo ChatGPT, usando um tom de inglês americano, imitando um advogado profissional. Eles dizem que têm parceria com o Corte Penal Internacional e que não cobram antes de recuperar o dinheiro.

Mas você precisa pagar uma taxa de 15% para ativar o serviço, usando criptomoedas.

Eles também pedem que você assine um acordo de confidencialidade, também redigido pelo ChatGPT, para evitar que você procure outras fontes de confirmação.

O FBI emitiu um alerta público sobre esse golpe, dizendo que ele é direcionado principalmente a idosos, explorando a ansiedade de recuperar perdas.

Depois de ver esses dois casos, acho que o aspecto mais irônico na era em que a IA virou padrão é este:

Na primeira vez que te enganam, você é apenas uma vítima. Na segunda, você é um alvo ainda melhor, pois já provou que cai nesse tipo de golpe.

Por fim, a OpenAI resumiu o processo de fraude em três etapas no relatório:

Primeira etapa: ping, contato frio, fazer a vítima notar você.
Segunda etapa: zing, criar emoções, fazer ela ficar animada, com medo ou empolgada.
Terceira etapa: sting, colher, pegar o dinheiro.

Esse esquema é bem elaborado. Se observar bem, qual dessas três etapas a IA não consegue fazer?

Antigamente, o maior custo do esquema de “kill pig” era a equipe humana. Você precisava contratar várias pessoas para conversar no computador, falando a língua do alvo. Nos primeiros anos, os parques no Camboja recrutavam pessoas com bom inglês, pagando bem.

Hoje, com o relato da operação de fraude de encontros, o supervisor fala chinês, os funcionários falam indonésio, e os alvos também são indonésios. Com três línguas diferentes, antes seria impossível fazer esse trabalho. Com o ChatGPT, tudo fica acessível.

A língua é só uma parte.

Outro detalhe do relatório é que os fraudadores até perguntaram ao ChatGPT como usar a API da OpenAI para automatizar completamente o chat.

Ou seja, a IA não tornou a fraude mais inteligente, ela tornou mais barata.

Segundo a OpenAI, esse grupo pode estar lidando com centenas de casos simultaneamente. Com a escala maior, o custo por vítima diminui, permitindo enganar mais pessoas com valores menores.

E há uma questão que acho importante refletir:

A OpenAI consegue detectar esses esquemas porque os fraudadores usam o ChatGPT, e as conversas ficam armazenadas nos servidores da OpenAI.

Mas e quem usa modelos open source hospedados localmente?

O que essa reportagem mostra é só uma pequena parte do quebra-cabeça que a OpenAI consegue enxergar. E o que está fora do alcance, quão grande é? Ninguém sabe.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский язык
  • Français
  • Deutsch
  • Português (Portugal)
  • ภาษาไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)