В большинстве случаев работы в мошенническом парке выполняет один аккаунт ChatGPT.
Автор: Кури, Deep潮 TechFlow
OpenAI в эти дни выпустила отчет, в котором говорится, что кто-то использовал ChatGPT для совершения преступлений, и их поймали.
Отчет очень длинный, в нем перечислены многочисленные случаи злоупотребления ИИ. Есть случаи фальшивой пропаганды русскими, есть подозрения в шпионаже и социальной инженерии, но сегодня я хочу поговорить об одном из них:
Камбоджийский “убийственный проект”.
“Убийственный проект” не редкость, истории о подобных схемах в Камбодже слышали многие. Удивительно другое — роль ИИ в этом.
В этом мошенническом группе ChatGPT отвечает за романтические отношения, за перевод указаний руководства, за ежедневные отчеты о работе, за оценку каждого жертвы.
В “убийственном проекте” внутри используется термин “kill value” — предполагаемая сумма, которую можно выжать из человека.
За всей цепочкой стоит, пожалуй, самый занятый сотрудник — ChatGPT.
OpenAI присвоило этому делу кодовое название Operation Date Bait (операция “Датское свидание”).
Процесс следующий.
Мошенники создают фальшивую элитную службу знакомств под названием Klub Romantis, логотип делают с помощью ChatGPT. Затем запускают платную рекламу в соцсетях, выбирая ключевые слова: гольф, яхты, элитные рестораны — целятся на молодых мужчин из Индонезии.
Когда ты кликаешь по рекламе, сначала общаешься с AI-ботом. Он — сексуально привлекательная стойка, спрашивает, какой тип девушек тебе нравится, после выбора дает ссылку на Telegram с уникальным кодом.
В Telegram уже подключается реальный человек.
Он продолжает использовать ChatGPT для генерации флиртующих сообщений, разговор становится все более откровенным, и в итоге переводит тебя на два фальшивых сайта знакомств: LoveCode и SexAction.
На платформах есть фальшивые профили девушек, есть лента сообщений, которая постоянно сообщает: “Поздравляем, кто-то выполнил задание, разблокирован бонус”. Всё это — выдумка, опытные пользователи сразу поймут, что это фейк, но не все целевые жертвы так разбираются.
Когда разговор заходит достаточно далеко, тебя переводят к “наставнику”. Он начинает давать “задания”, за выполнение которых нужно платить, причем суммы растут. Покупка VIP-карты, голосование за “любимую девушку”, внесение залога в отель — вариантов много.
Последний этап внутри группы называется “kill”.
Придумывают причину — сбой в обработке данных, проверочный залог — и требуют перевести крупную сумму. В отчете OpenAI есть письмо мошенников, в котором требуют оплатить 20,5 миллиона индонезийских рупий, что примерно равно 12 тысячам долларов, обещая вернуть 35% бонуса после оплаты.
Когда деньги поступают, мошенники в Telegram блокируют вас и ставят отметку “дело закрыто”.
На этом этапе может показаться, что ничего особенного.
Само мошенничество не ново, схемы “убийственных проектов” уже много раз разоблачали. Что действительно удивляет — это бэк-офис.
Исследователи OpenAI по записям использования этих аккаунтов ChatGPT собрали полноценную структуру компании:
Мошеннический парк делится на три отдела: привлечение клиентов, обслуживание и руководство. Отдел привлечения занимается рекламой и поиском новых жертв, отдел обслуживания — ведет диалоги и создает доверие, руководство — занимается финальной “сборкой” денег.
Каждый день есть ежедневные отчеты. В них перечислены все текущие жертвы, указаны ответственные, прогресс по каждому и цифра:
kill value — предполагаемая сумма, которую можно выжать.
Это — оценка руководства, сколько денег можно получить с каждого человека.
Они используют ChatGPT для анализа финансовых отчетов, генерации рабочих документов, даже спрашивают, как подключить API или изменить код сайта знакомств. В случаях, когда руководитель говорит на китайском, а сотрудники — на индонезийском, ChatGPT выполняет перевод.
Забавно, что один сотрудник, занимающийся мошенничеством по телефону, спросил у ChatGPT о налогах после получения дохода, и в графе “профессия” честно указал “мошенник”.
Отчет OpenAI сдержанно отмечает, что по их данным, эти группы могут одновременно вести сотни дел, ежедневно получая тысячи долларов. Но они также признают, что не могут проверить эти цифры независимо.
Лично я считаю, что не так важно, правдивы ли эти цифры. Уже сама структура управления впечатляет:
привлечение, конверсия, средний чек, ежедневные отчеты, разделение ролей — всё похоже на операционное руководство SaaS-компании.
А романтика, перевод, ежедневные отчеты, изменение кода, подсчет денег — большинство задач этого парка выполняет один аккаунт ChatGPT.
История на этом не заканчивается.
В том же отчете OpenAI разоблачили еще одну схему, кодовое название Operation False Witness (вторая мошенническая схема), тоже из Камбоджи.
Эта схема нацелена не на обычных людей, а на тех, кто уже был обманут.
Логика проста: вас обманули в “убийственном проекте”, вы хотите вернуть деньги, ищете в интернете, что делать.
И видите рекламу юридической фирмы, которая якобы помогает вернуть потерянное. Вы кликаете.
Сайт выглядит очень правдоподобно. Фото юристов — иногда взяты из соцсетей, иногда сгенерированы ИИ. У каждой фирмы есть адрес, лицензия, описание. ChatGPT создает фальшивую карту члена Нью-Йоркской ассоциации адвокатов и фиктивные регистрационные записи.
OpenAI обнаружила как минимум шесть таких поддельных юридических фирм.
Еще есть сайт, полностью имитирующий Центр жалоб на интернет-преступления FBI. На странице есть кнопка “Подать жалобу”, при нажатии вас переадресуют на Telegram-аккаунт.
Там “юрист” начинает с вами переписку. Стиль — сгенерирован ChatGPT, специально в американском деловом стиле, имитирующем профессионального адвоката. Он говорит, что сотрудничает с Международным уголовным судом и что возврат средств — бесплатно, если заплатить 15% за услуги — через криптовалюту.
Также требуют подписать соглашение о конфиденциальности, которое тоже пишет ChatGPT, чтобы не дать вам возможности проверить информацию у других.
ФБР выпустило официальное предупреждение, что этот мошеннический сайт в основном нацелен на пожилых людей, использует их желание вернуть деньги.
Просмотрев эти два случая, я прихожу к выводу: в нынешней эпохе, когда ИИ стал стандартом, самое смешное — это вот что:
Когда вас впервые обманули, вы — цель. Когда вас обманули второй раз, вы — уже более ценная цель, потому что вы доказали, что можете попасться.
В конце отчет OpenAI сводит мошеннический процесс к трем шагам:
ping — холодное обращение, привлечение внимания.
zing — создание эмоций: возбуждение, страх или волнение.
sting — сбор денег.
Эта схема хорошо структурирована. Посмотрите внимательнее: какой из этих шагов ИИ сделать не может?
Раньше для “убийственных проектов” основная стоимость — это люди. Нужно нанять целый офис, чтобы сидели и общались, говорили на языке цели. В Камбодже раньше нанимали людей, даже выбирали тех, кто хорошо говорит по-английски, и платили им хорошо.
Теперь, судя по отчету, руководитель говорит на китайском, сотрудники — на индонезийском, а цели — индонезийцы. Три языка не совпадают — раньше это было невозможно. А с ChatGPT — всё просто.
Язык — лишь одна из задач.
В отчете есть еще один интересный момент: мошенники даже спрашивали ChatGPT, как подключить API OpenAI, чтобы полностью автоматизировать чат.
То есть ИИ не делает мошенничество более изощренным, оно остается тем же. ИИ — делает мошенничество дешевле.
По словам OpenAI, эта группа, вероятно, одновременно ведет сотни дел. Масштаб увеличивается, а затраты на одного жертву — уменьшаются, и можно обмануть больше людей с меньшими суммами.
Еще один важный вопрос: почему OpenAI смогла обнаружить эти схемы?
Потому что мошенники используют ChatGPT, и переписки хранятся на серверах OpenAI.
А что насчет тех, кто использует локальные модели с открытым исходным кодом?
Возможно, отчет — лишь маленькая часть всей картины. Там, где OpenAI не может заглянуть — кто знает, насколько их схемы распространены.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
В этой мошеннической схеме AI отвечает за романтические отношения и за подделку лицензий юристов.
В большинстве случаев работы в мошенническом парке выполняет один аккаунт ChatGPT.
Автор: Кури, Deep潮 TechFlow
OpenAI в эти дни выпустила отчет, в котором говорится, что кто-то использовал ChatGPT для совершения преступлений, и их поймали.
Отчет очень длинный, в нем перечислены многочисленные случаи злоупотребления ИИ. Есть случаи фальшивой пропаганды русскими, есть подозрения в шпионаже и социальной инженерии, но сегодня я хочу поговорить об одном из них:
Камбоджийский “убийственный проект”.
“Убийственный проект” не редкость, истории о подобных схемах в Камбодже слышали многие. Удивительно другое — роль ИИ в этом.
В этом мошенническом группе ChatGPT отвечает за романтические отношения, за перевод указаний руководства, за ежедневные отчеты о работе, за оценку каждого жертвы.
В “убийственном проекте” внутри используется термин “kill value” — предполагаемая сумма, которую можно выжать из человека.
За всей цепочкой стоит, пожалуй, самый занятый сотрудник — ChatGPT.
OpenAI присвоило этому делу кодовое название Operation Date Bait (операция “Датское свидание”).
Процесс следующий.
Мошенники создают фальшивую элитную службу знакомств под названием Klub Romantis, логотип делают с помощью ChatGPT. Затем запускают платную рекламу в соцсетях, выбирая ключевые слова: гольф, яхты, элитные рестораны — целятся на молодых мужчин из Индонезии.
Когда ты кликаешь по рекламе, сначала общаешься с AI-ботом. Он — сексуально привлекательная стойка, спрашивает, какой тип девушек тебе нравится, после выбора дает ссылку на Telegram с уникальным кодом.
В Telegram уже подключается реальный человек.
Он продолжает использовать ChatGPT для генерации флиртующих сообщений, разговор становится все более откровенным, и в итоге переводит тебя на два фальшивых сайта знакомств: LoveCode и SexAction.
На платформах есть фальшивые профили девушек, есть лента сообщений, которая постоянно сообщает: “Поздравляем, кто-то выполнил задание, разблокирован бонус”. Всё это — выдумка, опытные пользователи сразу поймут, что это фейк, но не все целевые жертвы так разбираются.
Когда разговор заходит достаточно далеко, тебя переводят к “наставнику”. Он начинает давать “задания”, за выполнение которых нужно платить, причем суммы растут. Покупка VIP-карты, голосование за “любимую девушку”, внесение залога в отель — вариантов много.
Последний этап внутри группы называется “kill”.
Придумывают причину — сбой в обработке данных, проверочный залог — и требуют перевести крупную сумму. В отчете OpenAI есть письмо мошенников, в котором требуют оплатить 20,5 миллиона индонезийских рупий, что примерно равно 12 тысячам долларов, обещая вернуть 35% бонуса после оплаты.
Когда деньги поступают, мошенники в Telegram блокируют вас и ставят отметку “дело закрыто”.
На этом этапе может показаться, что ничего особенного.
Само мошенничество не ново, схемы “убийственных проектов” уже много раз разоблачали. Что действительно удивляет — это бэк-офис.
Исследователи OpenAI по записям использования этих аккаунтов ChatGPT собрали полноценную структуру компании:
Мошеннический парк делится на три отдела: привлечение клиентов, обслуживание и руководство. Отдел привлечения занимается рекламой и поиском новых жертв, отдел обслуживания — ведет диалоги и создает доверие, руководство — занимается финальной “сборкой” денег.
Каждый день есть ежедневные отчеты. В них перечислены все текущие жертвы, указаны ответственные, прогресс по каждому и цифра:
kill value — предполагаемая сумма, которую можно выжать.
Это — оценка руководства, сколько денег можно получить с каждого человека.
Они используют ChatGPT для анализа финансовых отчетов, генерации рабочих документов, даже спрашивают, как подключить API или изменить код сайта знакомств. В случаях, когда руководитель говорит на китайском, а сотрудники — на индонезийском, ChatGPT выполняет перевод.
Забавно, что один сотрудник, занимающийся мошенничеством по телефону, спросил у ChatGPT о налогах после получения дохода, и в графе “профессия” честно указал “мошенник”.
Отчет OpenAI сдержанно отмечает, что по их данным, эти группы могут одновременно вести сотни дел, ежедневно получая тысячи долларов. Но они также признают, что не могут проверить эти цифры независимо.
Лично я считаю, что не так важно, правдивы ли эти цифры. Уже сама структура управления впечатляет:
привлечение, конверсия, средний чек, ежедневные отчеты, разделение ролей — всё похоже на операционное руководство SaaS-компании.
А романтика, перевод, ежедневные отчеты, изменение кода, подсчет денег — большинство задач этого парка выполняет один аккаунт ChatGPT.
История на этом не заканчивается.
В том же отчете OpenAI разоблачили еще одну схему, кодовое название Operation False Witness (вторая мошенническая схема), тоже из Камбоджи.
Эта схема нацелена не на обычных людей, а на тех, кто уже был обманут.
Логика проста: вас обманули в “убийственном проекте”, вы хотите вернуть деньги, ищете в интернете, что делать.
И видите рекламу юридической фирмы, которая якобы помогает вернуть потерянное. Вы кликаете.
Сайт выглядит очень правдоподобно. Фото юристов — иногда взяты из соцсетей, иногда сгенерированы ИИ. У каждой фирмы есть адрес, лицензия, описание. ChatGPT создает фальшивую карту члена Нью-Йоркской ассоциации адвокатов и фиктивные регистрационные записи.
OpenAI обнаружила как минимум шесть таких поддельных юридических фирм.
Еще есть сайт, полностью имитирующий Центр жалоб на интернет-преступления FBI. На странице есть кнопка “Подать жалобу”, при нажатии вас переадресуют на Telegram-аккаунт.
Там “юрист” начинает с вами переписку. Стиль — сгенерирован ChatGPT, специально в американском деловом стиле, имитирующем профессионального адвоката. Он говорит, что сотрудничает с Международным уголовным судом и что возврат средств — бесплатно, если заплатить 15% за услуги — через криптовалюту.
Также требуют подписать соглашение о конфиденциальности, которое тоже пишет ChatGPT, чтобы не дать вам возможности проверить информацию у других.
ФБР выпустило официальное предупреждение, что этот мошеннический сайт в основном нацелен на пожилых людей, использует их желание вернуть деньги.
Просмотрев эти два случая, я прихожу к выводу: в нынешней эпохе, когда ИИ стал стандартом, самое смешное — это вот что:
Когда вас впервые обманули, вы — цель. Когда вас обманули второй раз, вы — уже более ценная цель, потому что вы доказали, что можете попасться.
В конце отчет OpenAI сводит мошеннический процесс к трем шагам:
Эта схема хорошо структурирована. Посмотрите внимательнее: какой из этих шагов ИИ сделать не может?
Раньше для “убийственных проектов” основная стоимость — это люди. Нужно нанять целый офис, чтобы сидели и общались, говорили на языке цели. В Камбодже раньше нанимали людей, даже выбирали тех, кто хорошо говорит по-английски, и платили им хорошо.
Теперь, судя по отчету, руководитель говорит на китайском, сотрудники — на индонезийском, а цели — индонезийцы. Три языка не совпадают — раньше это было невозможно. А с ChatGPT — всё просто.
Язык — лишь одна из задач.
В отчете есть еще один интересный момент: мошенники даже спрашивали ChatGPT, как подключить API OpenAI, чтобы полностью автоматизировать чат.
То есть ИИ не делает мошенничество более изощренным, оно остается тем же. ИИ — делает мошенничество дешевле.
По словам OpenAI, эта группа, вероятно, одновременно ведет сотни дел. Масштаб увеличивается, а затраты на одного жертву — уменьшаются, и можно обмануть больше людей с меньшими суммами.
Еще один важный вопрос: почему OpenAI смогла обнаружить эти схемы?
Потому что мошенники используют ChatGPT, и переписки хранятся на серверах OpenAI.
А что насчет тех, кто использует локальные модели с открытым исходным кодом?
Возможно, отчет — лишь маленькая часть всей картины. Там, где OpenAI не может заглянуть — кто знает, насколько их схемы распространены.