Di kawasan penipuan, sebagian besar pekerjaan dilakukan dengan satu akun ChatGPT.
Penulis: Kuri, Deep潮 TechFlow
OpenAI beberapa hari ini merilis sebuah laporan, berisi tentang orang yang menggunakan ChatGPT untuk melakukan kejahatan, dan mereka berhasil ditangkap.
Laporan ini sangat panjang, mencantumkan banyak kasus penyalahgunaan AI. Ada yang melakukan propaganda palsu dari Rusia, ada yang diduga sebagai mata-mata yang melakukan rekayasa sosial, tapi hari ini saya ingin membahas salah satu kasus:
Skema penipuan di Kamboja.
Skema ini tidak asing, cerita tentang kawasan penipuan di Kamboja sudah sering didengar. Yang menarik adalah peran AI di dalamnya.
Dalam kelompok penipuan ini, ChatGPT bertugas untuk berpacaran, menerjemahkan instruksi supervisor, menulis laporan harian, dan memberi perkiraan nilai dari setiap korban.
Dalam skema ini, istilah internal disebut kill value, yaitu perkiraan berapa banyak uang yang bisa diperas dari korban.
Dalam satu rangkaian proses, ChatGPT mungkin adalah karyawan yang paling sibuk.
OpenAI memberi kode nama untuk kasus ini, disebut Operation Date Bait (Perangkap Kencan).
Prosesnya seperti ini.
Kelompok penipuan membuat layanan kencan palsu bernama Klub Romantis, dengan logo yang dibuat oleh ChatGPT. Kemudian mereka memasang iklan berbayar di media sosial, dengan kata kunci seperti golf, yacht, restoran mewah, yang ditargetkan khusus untuk pria muda di Indonesia.
Saat kamu klik iklan, kamu akan diajak ngobrol dengan robot AI. Robot ini berperan sebagai resepsionis yang seksi, menanyakan tipe wanita yang kamu sukai, lalu setelah memilih, dia akan memberikan link Telegram lengkap dengan kode undangan khusus.
Sesampainya di Telegram, orang nyata mulai mengambil alih.
Petugas menyambutmu dan terus menggunakan ChatGPT untuk menghasilkan pesan-pesan mesra, semakin lama semakin vulgar, lalu mengarahkanmu ke dua platform kencan palsu, yaitu LoveCode dan SexAction.
Di platform ini, ada banyak data palsu tentang wanita, dan sebuah kolom pesan bergulir yang terus menampilkan “Selamat, seseorang menyelesaikan tugas, buka bonus”. Semuanya dibuat-buat, dan mereka yang berpengalaman berselancar di internet mungkin bisa langsung menyadari, tapi tidak semua target akan mudah tertipu.
Setelah obrolan cukup dekat, petugas akan mengarahkanmu ke seorang “mentor”. Mentor ini akan meminta kamu melakukan “tugas”, yang semuanya memerlukan uang, dan jumlahnya semakin besar setiap kali. Membeli kartu VIP, memberi voting kepada “gadis idaman”, membayar deposit hotel, dan banyak lagi.
Langkah terakhir mereka sebut kill.
Membuat alasan, misalnya terjadi kesalahan data, atau verifikasi deposit, agar kamu mentransfer sejumlah besar uang sekaligus. Dalam laporan, OpenAI menyertakan surat dari kelompok penipuan yang meminta pembayaran sebesar 20,5 juta rupiah, sekitar 12 ribu dolar AS, dengan janji setelah bayar akan dikembalikan 35% bonusnya.
Setelah uang masuk, penipu di Telegram akan memblokirmu dan memberi catatan bahwa kasus sudah selesai.
Melihat ini, mungkin kamu merasa biasa saja.
Teknik penipuan ini sebenarnya tidak baru, pola skema skimming ini sudah banyak diungkap selama beberapa tahun terakhir. Yang benar-benar membuat terkejut adalah sistem backend-nya.
Para penyelidik OpenAI dari catatan penggunaan akun ChatGPT ini berhasil menyusun sebuah struktur organisasi lengkap:
Kawasan penipuan terbagi menjadi tiga departemen: tim penghasil trafik, tim penerima, dan tim pengelola. Tim penghasil trafik bertugas memasang iklan dan menarik orang, tim penerima bertugas berinteraksi dan membangun kepercayaan, sedangkan tim pengelola bertugas memanen hasil akhir.
Setiap hari mereka membuat laporan harian. Dalam laporan itu, tercantum setiap korban yang sedang diproses, siapa penanggung jawabnya, tahap apa yang sedang berlangsung, dan angka penting berikut:
kill value.
Yaitu perkiraan jumlah uang yang bisa diperas dari korban tersebut.
Mereka juga menggunakan ChatGPT untuk menganalisis keuangan, membuat laporan kerja, bahkan bertanya bagaimana mengintegrasikan API, atau mengubah kode situs kencan. Jika ada supervisor yang berbicara dalam bahasa Mandarin dan staf yang berbahasa Indonesia, ChatGPT yang menerjemahkan kedua belah pihak.
Lucunya, ada satu staf penipuan yang dengan jujur mengisi kolom pekerjaan di ChatGPT sebagai scammer (penipu), dan menanyakan soal pajak setelah mendapatkan penghasilan.
Laporan dari OpenAI ini sangat terbatas, mereka menyatakan berdasarkan catatan input dari kelompok penipuan, kemungkinan mereka mengelola ratusan target sekaligus, dan setiap hari mengantongi ribuan dolar. Tapi mereka juga menegaskan bahwa data ini tidak bisa diverifikasi secara independen.
Namun, saya rasa, tanpa perlu memikirkan angka-angka itu, cukup melihat sistem manajemen ini saja sudah cukup:
Penghasil trafik, konversi, nilai transaksi, laporan harian, pembagian departemen—semuanya mirip buku panduan operasional sebuah SaaS.
Dan semua aktivitas seperti berpacaran, menerjemahkan, menulis laporan, mengubah kode, menghitung uang… sebagian besar dilakukan oleh satu akun ChatGPT.
Cerita ini belum selesai.
Dalam laporan yang sama, OpenAI juga mengungkap jalur kedua, dengan kode nama Operation False Witness (Penipuan Korban Kedua), juga dari Kamboja.
Jalur ini tidak menargetkan orang awam, melainkan orang yang sudah pernah tertipu sebelumnya.
Logikanya sederhana: kamu pernah tertipu skema skimming, lalu ingin mengembalikan uangmu. Kamu cari di internet bagaimana caranya.
Lalu muncul iklan yang menawarkan jasa pengacara khusus membantu korban penipuan mendapatkan kembali kerugiannya. Kamu klik.
Situsnya dibuat sangat meyakinkan. Foto pengacara ada yang diambil dari media sosial, ada yang dihasilkan AI. Setiap firma pengacara punya alamat, izin, dan profil lengkap. ChatGPT bahkan membuat kartu anggota Asosiasi Pengacara New York dan catatan pendaftaran pengacara palsu.
OpenAI menemukan setidaknya enam firma pengacara palsu.
Ada juga satu situs yang meniru langsung halaman Pengaduan Kejahatan Internet FBI. Ada tombol “Kirim Pengaduan”, kalau diklik akan diarahkan ke akun Telegram.
Di Telegram, “pengacara” mulai mengobrol. Pola percakapan dibuat oleh ChatGPT, dengan gaya bahasa Inggris Amerika yang formal dan meniru profesional hukum. Mereka bilang, mereka bekerja sama dengan ICC, dan proses pengembalian dana tidak dipungut biaya sebelumnya.
Tapi kamu harus membayar biaya layanan 15% untuk mengaktifkan akun, menggunakan mata uang kripto.
Selain itu, mereka juga meminta kamu menandatangani perjanjian kerahasiaan. Perjanjian ini juga dibuat oleh ChatGPT, bertujuan agar kamu tidak mencari informasi dari pihak lain.
FBI kemudian mengeluarkan peringatan resmi, menyatakan bahwa penipuan ini terutama menargetkan lansia, dan memanfaatkan keinginan korban untuk segera mendapatkan kembali uang mereka.
Setelah membaca kedua kasus ini, saya merasa dalam era AI yang sudah menjadi standar ini, hal yang paling menggelikan adalah:
Ketika pertama kali menipu, kamu adalah target. Tapi saat menipu lagi, kamu adalah target yang lebih baik, karena kamu sudah membuktikan diri mudah tertipu.
Akhirnya, OpenAI merangkum proses penipuan ini dalam tiga langkah:
Langkah pertama disebut ping, yaitu pendekatan dingin agar target sadar dan memperhatikanmu.
Langkah kedua disebut zing, menciptakan emosi—membuatmu merasa tertarik, bersemangat, atau takut.
Langkah ketiga disebut sting, yaitu memanen uangmu dan mengakhirinya.
Kerangka ini sangat bagus. Kalau diperhatikan, mana langkah yang tidak bisa dilakukan AI?
Dulu, biaya terbesar dari skema skimming adalah tenaga manusia. Kamu harus mempekerjakan banyak orang yang duduk di depan komputer, dan harus bisa berbahasa target. Kawasan penipuan di Kamboja dulu merekrut orang yang fasih berbahasa Inggris, dengan gaji yang tinggi.
Sekarang, melihat kasus penipuan kencan yang disebutkan dalam laporan, supervisor berbicara dalam bahasa Mandarin, staf berbahasa Indonesia, dan targetnya juga orang Indonesia. Ketiga bahasa ini tidak saling mengerti, dulu ini mustahil dilakukan. Tapi dengan ChatGPT, semuanya jadi lancar.
Bahasa hanyalah satu aspek.
Dalam laporan juga disebutkan, para pekerja penipuan bahkan bertanya ke ChatGPT bagaimana mengintegrasikan API OpenAI, agar proses obrolan bisa sepenuhnya otomatis.
Artinya, AI bukan membuat penipuan menjadi lebih canggih, tapi membuatnya lebih murah. AI adalah membuat penipuan menjadi lebih murah.
Menurut OpenAI, kelompok ini mungkin mengelola ratusan kasus sekaligus. Skala meningkat, biaya per korban menjadi lebih rendah, dan otomatis mereka bisa menipu lebih banyak orang dengan nilai yang lebih kecil.
Ada satu hal lain yang menurut saya lebih penting untuk dipikirkan.
OpenAI bisa menemukan ini karena kelompok penipuan menggunakan ChatGPT, dan semua percakapan tersimpan di server OpenAI.
Lalu bagaimana dengan yang menggunakan model open-source yang di-deploy secara lokal?
Laporan ini mungkin hanya menampilkan sebagian kecil dari gambaran besar. Bagian yang tidak terlihat, siapa yang tahu seberapa besar?
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Dalam penipuan ini, AI bertanggung jawab untuk berkencan dan juga membuat surat izin pengacara palsu
Di kawasan penipuan, sebagian besar pekerjaan dilakukan dengan satu akun ChatGPT.
Penulis: Kuri, Deep潮 TechFlow
OpenAI beberapa hari ini merilis sebuah laporan, berisi tentang orang yang menggunakan ChatGPT untuk melakukan kejahatan, dan mereka berhasil ditangkap.
Laporan ini sangat panjang, mencantumkan banyak kasus penyalahgunaan AI. Ada yang melakukan propaganda palsu dari Rusia, ada yang diduga sebagai mata-mata yang melakukan rekayasa sosial, tapi hari ini saya ingin membahas salah satu kasus:
Skema penipuan di Kamboja.
Skema ini tidak asing, cerita tentang kawasan penipuan di Kamboja sudah sering didengar. Yang menarik adalah peran AI di dalamnya.
Dalam kelompok penipuan ini, ChatGPT bertugas untuk berpacaran, menerjemahkan instruksi supervisor, menulis laporan harian, dan memberi perkiraan nilai dari setiap korban.
Dalam skema ini, istilah internal disebut kill value, yaitu perkiraan berapa banyak uang yang bisa diperas dari korban.
Dalam satu rangkaian proses, ChatGPT mungkin adalah karyawan yang paling sibuk.
OpenAI memberi kode nama untuk kasus ini, disebut Operation Date Bait (Perangkap Kencan).
Prosesnya seperti ini.
Kelompok penipuan membuat layanan kencan palsu bernama Klub Romantis, dengan logo yang dibuat oleh ChatGPT. Kemudian mereka memasang iklan berbayar di media sosial, dengan kata kunci seperti golf, yacht, restoran mewah, yang ditargetkan khusus untuk pria muda di Indonesia.
Saat kamu klik iklan, kamu akan diajak ngobrol dengan robot AI. Robot ini berperan sebagai resepsionis yang seksi, menanyakan tipe wanita yang kamu sukai, lalu setelah memilih, dia akan memberikan link Telegram lengkap dengan kode undangan khusus.
Sesampainya di Telegram, orang nyata mulai mengambil alih.
Petugas menyambutmu dan terus menggunakan ChatGPT untuk menghasilkan pesan-pesan mesra, semakin lama semakin vulgar, lalu mengarahkanmu ke dua platform kencan palsu, yaitu LoveCode dan SexAction.
Di platform ini, ada banyak data palsu tentang wanita, dan sebuah kolom pesan bergulir yang terus menampilkan “Selamat, seseorang menyelesaikan tugas, buka bonus”. Semuanya dibuat-buat, dan mereka yang berpengalaman berselancar di internet mungkin bisa langsung menyadari, tapi tidak semua target akan mudah tertipu.
Setelah obrolan cukup dekat, petugas akan mengarahkanmu ke seorang “mentor”. Mentor ini akan meminta kamu melakukan “tugas”, yang semuanya memerlukan uang, dan jumlahnya semakin besar setiap kali. Membeli kartu VIP, memberi voting kepada “gadis idaman”, membayar deposit hotel, dan banyak lagi.
Langkah terakhir mereka sebut kill.
Membuat alasan, misalnya terjadi kesalahan data, atau verifikasi deposit, agar kamu mentransfer sejumlah besar uang sekaligus. Dalam laporan, OpenAI menyertakan surat dari kelompok penipuan yang meminta pembayaran sebesar 20,5 juta rupiah, sekitar 12 ribu dolar AS, dengan janji setelah bayar akan dikembalikan 35% bonusnya.
Setelah uang masuk, penipu di Telegram akan memblokirmu dan memberi catatan bahwa kasus sudah selesai.
Melihat ini, mungkin kamu merasa biasa saja.
Teknik penipuan ini sebenarnya tidak baru, pola skema skimming ini sudah banyak diungkap selama beberapa tahun terakhir. Yang benar-benar membuat terkejut adalah sistem backend-nya.
Para penyelidik OpenAI dari catatan penggunaan akun ChatGPT ini berhasil menyusun sebuah struktur organisasi lengkap:
Kawasan penipuan terbagi menjadi tiga departemen: tim penghasil trafik, tim penerima, dan tim pengelola. Tim penghasil trafik bertugas memasang iklan dan menarik orang, tim penerima bertugas berinteraksi dan membangun kepercayaan, sedangkan tim pengelola bertugas memanen hasil akhir.
Setiap hari mereka membuat laporan harian. Dalam laporan itu, tercantum setiap korban yang sedang diproses, siapa penanggung jawabnya, tahap apa yang sedang berlangsung, dan angka penting berikut:
kill value.
Yaitu perkiraan jumlah uang yang bisa diperas dari korban tersebut.
Mereka juga menggunakan ChatGPT untuk menganalisis keuangan, membuat laporan kerja, bahkan bertanya bagaimana mengintegrasikan API, atau mengubah kode situs kencan. Jika ada supervisor yang berbicara dalam bahasa Mandarin dan staf yang berbahasa Indonesia, ChatGPT yang menerjemahkan kedua belah pihak.
Lucunya, ada satu staf penipuan yang dengan jujur mengisi kolom pekerjaan di ChatGPT sebagai scammer (penipu), dan menanyakan soal pajak setelah mendapatkan penghasilan.
Laporan dari OpenAI ini sangat terbatas, mereka menyatakan berdasarkan catatan input dari kelompok penipuan, kemungkinan mereka mengelola ratusan target sekaligus, dan setiap hari mengantongi ribuan dolar. Tapi mereka juga menegaskan bahwa data ini tidak bisa diverifikasi secara independen.
Namun, saya rasa, tanpa perlu memikirkan angka-angka itu, cukup melihat sistem manajemen ini saja sudah cukup:
Penghasil trafik, konversi, nilai transaksi, laporan harian, pembagian departemen—semuanya mirip buku panduan operasional sebuah SaaS.
Dan semua aktivitas seperti berpacaran, menerjemahkan, menulis laporan, mengubah kode, menghitung uang… sebagian besar dilakukan oleh satu akun ChatGPT.
Cerita ini belum selesai.
Dalam laporan yang sama, OpenAI juga mengungkap jalur kedua, dengan kode nama Operation False Witness (Penipuan Korban Kedua), juga dari Kamboja.
Jalur ini tidak menargetkan orang awam, melainkan orang yang sudah pernah tertipu sebelumnya.
Logikanya sederhana: kamu pernah tertipu skema skimming, lalu ingin mengembalikan uangmu. Kamu cari di internet bagaimana caranya.
Lalu muncul iklan yang menawarkan jasa pengacara khusus membantu korban penipuan mendapatkan kembali kerugiannya. Kamu klik.
Situsnya dibuat sangat meyakinkan. Foto pengacara ada yang diambil dari media sosial, ada yang dihasilkan AI. Setiap firma pengacara punya alamat, izin, dan profil lengkap. ChatGPT bahkan membuat kartu anggota Asosiasi Pengacara New York dan catatan pendaftaran pengacara palsu.
OpenAI menemukan setidaknya enam firma pengacara palsu.
Ada juga satu situs yang meniru langsung halaman Pengaduan Kejahatan Internet FBI. Ada tombol “Kirim Pengaduan”, kalau diklik akan diarahkan ke akun Telegram.
Di Telegram, “pengacara” mulai mengobrol. Pola percakapan dibuat oleh ChatGPT, dengan gaya bahasa Inggris Amerika yang formal dan meniru profesional hukum. Mereka bilang, mereka bekerja sama dengan ICC, dan proses pengembalian dana tidak dipungut biaya sebelumnya.
Tapi kamu harus membayar biaya layanan 15% untuk mengaktifkan akun, menggunakan mata uang kripto.
Selain itu, mereka juga meminta kamu menandatangani perjanjian kerahasiaan. Perjanjian ini juga dibuat oleh ChatGPT, bertujuan agar kamu tidak mencari informasi dari pihak lain.
FBI kemudian mengeluarkan peringatan resmi, menyatakan bahwa penipuan ini terutama menargetkan lansia, dan memanfaatkan keinginan korban untuk segera mendapatkan kembali uang mereka.
Setelah membaca kedua kasus ini, saya merasa dalam era AI yang sudah menjadi standar ini, hal yang paling menggelikan adalah:
Ketika pertama kali menipu, kamu adalah target. Tapi saat menipu lagi, kamu adalah target yang lebih baik, karena kamu sudah membuktikan diri mudah tertipu.
Akhirnya, OpenAI merangkum proses penipuan ini dalam tiga langkah:
Langkah pertama disebut ping, yaitu pendekatan dingin agar target sadar dan memperhatikanmu.
Langkah kedua disebut zing, menciptakan emosi—membuatmu merasa tertarik, bersemangat, atau takut.
Langkah ketiga disebut sting, yaitu memanen uangmu dan mengakhirinya.
Kerangka ini sangat bagus. Kalau diperhatikan, mana langkah yang tidak bisa dilakukan AI?
Dulu, biaya terbesar dari skema skimming adalah tenaga manusia. Kamu harus mempekerjakan banyak orang yang duduk di depan komputer, dan harus bisa berbahasa target. Kawasan penipuan di Kamboja dulu merekrut orang yang fasih berbahasa Inggris, dengan gaji yang tinggi.
Sekarang, melihat kasus penipuan kencan yang disebutkan dalam laporan, supervisor berbicara dalam bahasa Mandarin, staf berbahasa Indonesia, dan targetnya juga orang Indonesia. Ketiga bahasa ini tidak saling mengerti, dulu ini mustahil dilakukan. Tapi dengan ChatGPT, semuanya jadi lancar.
Bahasa hanyalah satu aspek.
Dalam laporan juga disebutkan, para pekerja penipuan bahkan bertanya ke ChatGPT bagaimana mengintegrasikan API OpenAI, agar proses obrolan bisa sepenuhnya otomatis.
Artinya, AI bukan membuat penipuan menjadi lebih canggih, tapi membuatnya lebih murah.
AI adalah membuat penipuan menjadi lebih murah.
Menurut OpenAI, kelompok ini mungkin mengelola ratusan kasus sekaligus. Skala meningkat, biaya per korban menjadi lebih rendah, dan otomatis mereka bisa menipu lebih banyak orang dengan nilai yang lebih kecil.
Ada satu hal lain yang menurut saya lebih penting untuk dipikirkan.
OpenAI bisa menemukan ini karena kelompok penipuan menggunakan ChatGPT, dan semua percakapan tersimpan di server OpenAI.
Lalu bagaimana dengan yang menggunakan model open-source yang di-deploy secara lokal?
Laporan ini mungkin hanya menampilkan sebagian kecil dari gambaran besar. Bagian yang tidak terlihat, siapa yang tahu seberapa besar?