La mayoría de las tareas en los parques de estafas las realiza una sola cuenta de ChatGPT.
Autor: Curry, Deep潮 TechFlow
OpenAI publicó hace unos días un informe sobre personas que usan ChatGPT para hacer el mal y que ellos lograron capturar.
El informe es extenso y enumera numerosos casos de abuso de IA. Hay rusos haciendo propaganda falsa, sospechosos de espionaje realizando ingeniería social, pero hoy quiero hablar de uno en particular:
La estafa de matanza de cerdos en Camboya.
No es raro que exista esta estafa, ya hemos oído muchas historias de parques en Camboya. Lo que sí es novedoso es el papel que juega la IA en ella.
En este grupo de estafadores, ChatGPT se encarga de enamorar, traducir las instrucciones del jefe, redactar informes diarios de trabajo y valorar a cada víctima.
En la estafa, el término interno se llama kill value, que es la estimación de cuánto dinero se puede extraer de ti.
A lo largo de toda la cadena, ChatGPT probablemente sea el empleado más ocupado.
OpenAI le puso un código a este caso: Operation Date Bait (Cebo de citas).
El proceso es así.
El grupo de estafadores crea un servicio de citas falso llamado Klub Romantis, con un logo hecho por ChatGPT. Luego, compran anuncios en redes sociales, usando palabras clave como golf, yates, restaurantes de lujo, dirigidos a jóvenes hombres en Indonesia.
Al hacer clic en el anuncio, primero interactúas con un chatbot. El robot, que actúa como recepcionista sexy, te pide que elijas qué tipo de chica te gusta, y tras eso te da un enlace de Telegram con un código de invitación exclusivo.
Una vez en Telegram, la atención la toma una persona real.
El encargado sigue usando ChatGPT para generar mensajes ambiguos, cada vez más explícitos, y te lleva a dos plataformas falsas de citas, llamadas LoveCode y SexAction.
En ellas hay perfiles falsos de chicas y una barra de mensajes en movimiento que dice “Felicidades a tal por completar la misión, desbloquea tu bono”. Todo esto es inventado; si tienes experiencia navegando en internet, probablemente lo notes al instante, pero no todos los objetivos caen en la trampa.
Cuando la conversación avanza, el encargado te pasa a un “mentor”. Este empieza a asignarte “tareas” que requieren pagar dinero, cada vez más grande: comprar una tarjeta VIP, votar por la “chica preferida”, pagar un depósito en un hotel, entre otros.
La última fase la llaman internamente kill.
Crean una excusa, como un error en el procesamiento de datos o una verificación de depósito, para que hagas una transferencia grande de una sola vez. En el informe, OpenAI incluyó una carta del grupo de estafadores a la víctima, pidiéndole pagar 20.5 millones de rupias indonesias, unos 12,000 dólares, prometiendo devolver un 35% de bonificación si pagan.
Una vez recibido el dinero, los estafadores en Telegram te bloquean y marcan el caso como cerrado.
A estas alturas, quizás pienses que no es gran cosa.
La técnica en sí no es nueva; las estafas de matanza de cerdos se han desvelado muchas veces en los últimos años. Lo que realmente sorprende es el backend.
Los investigadores de OpenAI, revisando los registros de uso de esas cuentas de ChatGPT, lograron reconstruir toda una estructura empresarial:
El parque de estafas se divide en tres departamentos: captación, atención y supervisión. La captación se encarga de publicar anuncios y atraer víctimas, la atención de conversar y generar confianza, y la supervisión de la fase final de extracción.
Cada día hay informes diarios. En ellos se listan todas las víctimas en proceso, quién es responsable, en qué etapa están y un número:
kill value.
Es la cantidad estimada que el supervisor puede extraer de esa persona.
También usan ChatGPT para analizar las cuentas financieras, generar informes de trabajo, e incluso preguntar cómo integrar APIs o modificar el código de las plataformas de citas. Cuando los supervisores hablan en chino y los empleados en indonesio, ChatGPT hace la traducción.
Lo que resulta gracioso es que un empleado de estafas por teléfono preguntó a ChatGPT sobre temas fiscales tras obtener ingresos, y en la sección de profesión puso con sinceridad “estafador”.
El informe de OpenAI es muy mesurado y dice que, según los registros del grupo, probablemente manejan cientos de objetivos simultáneamente, ingresando miles de dólares diarios. Pero también aclara que no pueden verificar si esas cifras son reales.
Pero a mí me parece que no hace falta comprobar los números; basta con la estructura de gestión:
Captación, conversión, valor por cliente, informes diarios, división de departamentos. Cambiando los términos, parece el manual de operaciones de alguna SaaS.
Y en tareas como enamorar, traducir, redactar informes, modificar código, calcular dinero… la mayor parte del trabajo en ese parque lo realiza una sola cuenta de ChatGPT.
Y esto no termina aquí.
En el mismo informe, OpenAI también desglosó una segunda línea de operación, llamada Operation False Witness (Estafa secundaria a víctimas), también en Camboya.
Esta línea no apunta a personas comunes, sino a quienes ya fueron estafadas.
La lógica es simple: si te engañaron en una estafa de matanza, quieres recuperar tu dinero, buscas en internet cómo hacerlo.
Y encuentras un anuncio de un bufete que dice que ayuda a víctimas a recuperar sus pérdidas. Haces clic.
El sitio parece legítimo. Algunas fotos de abogados son robadas de redes sociales, otras generadas por IA. Cada firma tiene dirección, licencia y perfil. ChatGPT generó una tarjeta de miembro del Colegio de Abogados de Nueva York y también registros falsos de inscripción.
OpenAI detectó al menos seis bufetes falsos.
También hay un sitio que imita directamente al Centro de Denuncias de Delitos en Internet del FBI. Tiene un botón de “Enviar denuncia” que te lleva a una cuenta de Telegram.
Al llegar a Telegram, el “abogado” empieza a conversar contigo. La conversación, generada por ChatGPT, está en inglés americano, con tono profesional. Te dicen que trabajan con la Corte Penal Internacional y que no cobran antes de recuperar tu dinero.
Pero primero debes pagar un 15% de tarifa de servicio para activar la cuenta, en criptomonedas.
También te piden firmar un acuerdo de confidencialidad, redactado por ChatGPT, para que no busques verificar con otros.
El FBI emitió una advertencia pública sobre esta estafa, señalando que principalmente afecta a personas mayores, aprovechando su urgencia por recuperar pérdidas.
Tras ver estos dos casos, creo que lo más irónico en la era en que la IA se vuelve estándar es esto:
La primera vez que te engañan, eres un objetivo. La segunda vez, eres un objetivo aún mejor, porque ya has demostrado que te pueden engañar.
Finalmente, OpenAI resumió el proceso de estafa en tres pasos en su informe:
El primero se llama ping, contacto frío, llamar la atención del objetivo. El segundo, zing, crear emociones, hacer que sientas entusiasmo, miedo o interés. El tercero, sting, la fase de cosecha, tomar el dinero.
Este esquema está muy bien elaborado. Si lo analizas, ¿qué paso no puede hacer la IA?
Antes, en las estafas de matanza, el mayor costo era humano. Necesitabas contratar a muchas personas para chatear en sus computadoras, y que hablen el idioma del objetivo. En Camboya, en sus inicios, buscaban gente que hablara inglés y pagaban bien.
Pero ahora, con el reporte en mano, en el caso de las citas, el supervisor habla chino, los empleados indonesio, y los objetivos son indoneses. Sin comunicación en los idiomas, esa tarea era imposible antes. Con ChatGPT, todo se vuelve posible.
El idioma es solo una parte.
El informe también menciona que los estafadores incluso preguntaron a ChatGPT cómo integrar la API de OpenAI para automatizar completamente el proceso de chat.
Es decir, la IA no hace que las estafas sean más sofisticadas, sino que las abarata.
Según OpenAI, este grupo puede gestionar cientos de casos simultáneamente. La escala aumenta, y el costo por víctima disminuye, permitiendo estafar a más personas con menores valores.
Y hay otra cuestión que creo que vale la pena reflexionar.
OpenAI puede detectar estas operaciones porque los estafadores usan ChatGPT y las conversaciones quedan almacenadas en los servidores de OpenAI.
¿Pero qué pasa con quienes usan modelos open source desplegados localmente?
Lo que muestra este informe es solo una pequeña parte del rompecabezas que OpenAI puede ver. La mayor parte del panorama, quién sabe cuánto más grande, permanece oculta.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
En esta estafa, la IA se encarga de enamorar y también de falsificar licencias de abogado
La mayoría de las tareas en los parques de estafas las realiza una sola cuenta de ChatGPT.
Autor: Curry, Deep潮 TechFlow
OpenAI publicó hace unos días un informe sobre personas que usan ChatGPT para hacer el mal y que ellos lograron capturar.
El informe es extenso y enumera numerosos casos de abuso de IA. Hay rusos haciendo propaganda falsa, sospechosos de espionaje realizando ingeniería social, pero hoy quiero hablar de uno en particular:
La estafa de matanza de cerdos en Camboya.
No es raro que exista esta estafa, ya hemos oído muchas historias de parques en Camboya. Lo que sí es novedoso es el papel que juega la IA en ella.
En este grupo de estafadores, ChatGPT se encarga de enamorar, traducir las instrucciones del jefe, redactar informes diarios de trabajo y valorar a cada víctima.
En la estafa, el término interno se llama kill value, que es la estimación de cuánto dinero se puede extraer de ti.
A lo largo de toda la cadena, ChatGPT probablemente sea el empleado más ocupado.
OpenAI le puso un código a este caso: Operation Date Bait (Cebo de citas).
El proceso es así.
El grupo de estafadores crea un servicio de citas falso llamado Klub Romantis, con un logo hecho por ChatGPT. Luego, compran anuncios en redes sociales, usando palabras clave como golf, yates, restaurantes de lujo, dirigidos a jóvenes hombres en Indonesia.
Al hacer clic en el anuncio, primero interactúas con un chatbot. El robot, que actúa como recepcionista sexy, te pide que elijas qué tipo de chica te gusta, y tras eso te da un enlace de Telegram con un código de invitación exclusivo.
Una vez en Telegram, la atención la toma una persona real.
El encargado sigue usando ChatGPT para generar mensajes ambiguos, cada vez más explícitos, y te lleva a dos plataformas falsas de citas, llamadas LoveCode y SexAction.
En ellas hay perfiles falsos de chicas y una barra de mensajes en movimiento que dice “Felicidades a tal por completar la misión, desbloquea tu bono”. Todo esto es inventado; si tienes experiencia navegando en internet, probablemente lo notes al instante, pero no todos los objetivos caen en la trampa.
Cuando la conversación avanza, el encargado te pasa a un “mentor”. Este empieza a asignarte “tareas” que requieren pagar dinero, cada vez más grande: comprar una tarjeta VIP, votar por la “chica preferida”, pagar un depósito en un hotel, entre otros.
La última fase la llaman internamente kill.
Crean una excusa, como un error en el procesamiento de datos o una verificación de depósito, para que hagas una transferencia grande de una sola vez. En el informe, OpenAI incluyó una carta del grupo de estafadores a la víctima, pidiéndole pagar 20.5 millones de rupias indonesias, unos 12,000 dólares, prometiendo devolver un 35% de bonificación si pagan.
Una vez recibido el dinero, los estafadores en Telegram te bloquean y marcan el caso como cerrado.
A estas alturas, quizás pienses que no es gran cosa.
La técnica en sí no es nueva; las estafas de matanza de cerdos se han desvelado muchas veces en los últimos años. Lo que realmente sorprende es el backend.
Los investigadores de OpenAI, revisando los registros de uso de esas cuentas de ChatGPT, lograron reconstruir toda una estructura empresarial:
El parque de estafas se divide en tres departamentos: captación, atención y supervisión. La captación se encarga de publicar anuncios y atraer víctimas, la atención de conversar y generar confianza, y la supervisión de la fase final de extracción.
Cada día hay informes diarios. En ellos se listan todas las víctimas en proceso, quién es responsable, en qué etapa están y un número:
kill value.
Es la cantidad estimada que el supervisor puede extraer de esa persona.
También usan ChatGPT para analizar las cuentas financieras, generar informes de trabajo, e incluso preguntar cómo integrar APIs o modificar el código de las plataformas de citas. Cuando los supervisores hablan en chino y los empleados en indonesio, ChatGPT hace la traducción.
Lo que resulta gracioso es que un empleado de estafas por teléfono preguntó a ChatGPT sobre temas fiscales tras obtener ingresos, y en la sección de profesión puso con sinceridad “estafador”.
El informe de OpenAI es muy mesurado y dice que, según los registros del grupo, probablemente manejan cientos de objetivos simultáneamente, ingresando miles de dólares diarios. Pero también aclara que no pueden verificar si esas cifras son reales.
Pero a mí me parece que no hace falta comprobar los números; basta con la estructura de gestión:
Captación, conversión, valor por cliente, informes diarios, división de departamentos. Cambiando los términos, parece el manual de operaciones de alguna SaaS.
Y en tareas como enamorar, traducir, redactar informes, modificar código, calcular dinero… la mayor parte del trabajo en ese parque lo realiza una sola cuenta de ChatGPT.
Y esto no termina aquí.
En el mismo informe, OpenAI también desglosó una segunda línea de operación, llamada Operation False Witness (Estafa secundaria a víctimas), también en Camboya.
Esta línea no apunta a personas comunes, sino a quienes ya fueron estafadas.
La lógica es simple: si te engañaron en una estafa de matanza, quieres recuperar tu dinero, buscas en internet cómo hacerlo.
Y encuentras un anuncio de un bufete que dice que ayuda a víctimas a recuperar sus pérdidas. Haces clic.
El sitio parece legítimo. Algunas fotos de abogados son robadas de redes sociales, otras generadas por IA. Cada firma tiene dirección, licencia y perfil. ChatGPT generó una tarjeta de miembro del Colegio de Abogados de Nueva York y también registros falsos de inscripción.
OpenAI detectó al menos seis bufetes falsos.
También hay un sitio que imita directamente al Centro de Denuncias de Delitos en Internet del FBI. Tiene un botón de “Enviar denuncia” que te lleva a una cuenta de Telegram.
Al llegar a Telegram, el “abogado” empieza a conversar contigo. La conversación, generada por ChatGPT, está en inglés americano, con tono profesional. Te dicen que trabajan con la Corte Penal Internacional y que no cobran antes de recuperar tu dinero.
Pero primero debes pagar un 15% de tarifa de servicio para activar la cuenta, en criptomonedas.
También te piden firmar un acuerdo de confidencialidad, redactado por ChatGPT, para que no busques verificar con otros.
El FBI emitió una advertencia pública sobre esta estafa, señalando que principalmente afecta a personas mayores, aprovechando su urgencia por recuperar pérdidas.
Tras ver estos dos casos, creo que lo más irónico en la era en que la IA se vuelve estándar es esto:
La primera vez que te engañan, eres un objetivo. La segunda vez, eres un objetivo aún mejor, porque ya has demostrado que te pueden engañar.
Finalmente, OpenAI resumió el proceso de estafa en tres pasos en su informe:
El primero se llama ping, contacto frío, llamar la atención del objetivo. El segundo, zing, crear emociones, hacer que sientas entusiasmo, miedo o interés. El tercero, sting, la fase de cosecha, tomar el dinero.
Este esquema está muy bien elaborado. Si lo analizas, ¿qué paso no puede hacer la IA?
Antes, en las estafas de matanza, el mayor costo era humano. Necesitabas contratar a muchas personas para chatear en sus computadoras, y que hablen el idioma del objetivo. En Camboya, en sus inicios, buscaban gente que hablara inglés y pagaban bien.
Pero ahora, con el reporte en mano, en el caso de las citas, el supervisor habla chino, los empleados indonesio, y los objetivos son indoneses. Sin comunicación en los idiomas, esa tarea era imposible antes. Con ChatGPT, todo se vuelve posible.
El idioma es solo una parte.
El informe también menciona que los estafadores incluso preguntaron a ChatGPT cómo integrar la API de OpenAI para automatizar completamente el proceso de chat.
Es decir, la IA no hace que las estafas sean más sofisticadas, sino que las abarata.
Según OpenAI, este grupo puede gestionar cientos de casos simultáneamente. La escala aumenta, y el costo por víctima disminuye, permitiendo estafar a más personas con menores valores.
Y hay otra cuestión que creo que vale la pena reflexionar.
OpenAI puede detectar estas operaciones porque los estafadores usan ChatGPT y las conversaciones quedan almacenadas en los servidores de OpenAI.
¿Pero qué pasa con quienes usan modelos open source desplegados localmente?
Lo que muestra este informe es solo una pequeña parte del rompecabezas que OpenAI puede ver. La mayor parte del panorama, quién sabe cuánto más grande, permanece oculta.