في حديقة الاحتيال، قام أكثر من نصف الأعمال باستخدام حساب ChatGPT واحد.
المؤلف: كوري، تكنولوجيا شينتشاو TechFlow
أصدرت OpenAI خلال الأيام الماضية تقريرًا يفيد بأن هناك من استغل ChatGPT لأغراض خبيثة، وتم القبض عليهم.
التقرير طويل، ويستعرض العديد من حالات إساءة استخدام الذكاء الاصطناعي. من بينهم روسي يروج لادعاءات كاذبة، ومشتبه في تجسسه من خلال الهندسة الاجتماعية، لكن ما أريد الحديث عنه اليوم هو إحدى الحالات:
مزرعة الاحتيال في كمبوديا.
مزرعة الاحتيال ليست جديدة، وقد سمع الجميع عن قصصها كثيرًا. المثير هو دور الذكاء الاصطناعي فيها.
في هذه العصابة الاحتيالية، كان ChatGPT مسؤولًا عن الحب، وعن ترجمة أوامر المشرف، وعن كتابة تقارير العمل اليومية، وتقييم كل ضحية.
في عملية الاحتيال، يُطلق على المصطلح الداخلي “kill value”، وهو التقدير المسبق للمبلغ الذي يمكن استغلاله من الضحية.
على طول خط الإنتاج، ربما يكون ChatGPT هو الموظف الأكثر انشغالًا.
أطلقت OpenAI على هذه الحالة اسم Operation Date Bait (صيد موعد غرامي).
وتتم العملية على النحو التالي:
أولًا، أنشأوا خدمة مواعدة وهمية باسم Klub Romantis، وشعارها مصنوع باستخدام ChatGPT. ثم قاموا بالإعلان المدفوع على وسائل التواصل الاجتماعي، باستخدام كلمات مفتاحية مثل الغولف، اليخت، المطاعم الراقية، مستهدفين الشباب الذكور في إندونيسيا.
عند النقر على الإعلان، تبدأ المحادثة مع روبوت محادثة AI. يقدّم لك موظف استقبال مثير، ويطلب منك اختيار نوع الفتاة التي تفضلها، ثم يرسل لك رابط Telegram مع رمز دعوة خاص.
عند الوصول إلى Telegram، يتولى شخص حقيقي الأمر.
الموظف يواصل استخدام ChatGPT لإرسال رسائل غرامية، وتزداد جرأة في الحديث، ثم يوجهك إلى منصتين وهميتين للمواعدة، إحداهما تسمى LoveCode والأخرى SexAction.
على المنصتين، توجد ملفات شخصية لفتايات وهميات، بالإضافة إلى شريط أخبار متحرك يعلن باستمرار “تهانينا لإنجاز مهمة معينة، وفتح مكافأة”. كلها محض خيال، وربما تكتشف ذلك بسرعة إذا كنت متمرسًا على الإنترنت، لكن ليس كل الأهداف كذلك.
عندما يقترب الأمر من النهاية، يحولك الموظف إلى “مرشد”. يبدأ الأخير في تكليفك بـ"مهام"، وكل مهمة تتطلب دفع أموال، وتزداد المبالغ تدريجيًا. شراء بطاقة VIP، التصويت لفتاة “مفضلة”، دفع عربون فندق، وغيرها من الأسباب.
وفي النهاية، يُطلق عليهم اسم “kill” داخليًا.
يختلقون سببًا، مثل خطأ في معالجة البيانات أو التحقق من العربون، ليطلبوا منك تحويل مبلغ كبير مرة واحدة. أدرجت OpenAI في تقريرها رسالة من العصابة إلى الضحية، تطلب دفع 2050 روبية إندونيسية، أي حوالي 12000 دولار، وتعد بإرجاع 35% من المبلغ كجزء من المكافأة بعد الدفع.
عند وصول المال، يقوم المحتالون على Telegram بحظرك، ويضعون ملاحظة أن القضية أُغلقت.
عند هذه النقطة، قد تعتقد أن الأمر عادي.
أساليب الاحتيال نفسها ليست جديدة، فقد تم كشف عمليات الاحتيال في مزرعة الاحتيال عدة مرات خلال السنوات الماضية. ما يدهش هو الجانب الإداري والخلفي.
تحقيقات OpenAI كشفت من سجلات استخدام حسابات ChatGPT عن بنية تنظيمية كاملة:
مزرعة الاحتيال تتكون من ثلاثة أقسام: قسم الترويج، قسم الاستقبال، وقسم المشرفين. قسم الترويج مسؤول عن الإعلان وجذب الضحايا، وقسم الاستقبال يثقّف ويبني الثقة عبر الدردشة، وقسم المشرفين هو من يجني الأرباح في النهاية.
يُعدّ تقرير يومي يوضح كل ضحية قيد المعالجة، مع تحديد المسؤول عنها، وتقدم الحالة، ورقم يُطلق عليه “kill value”، وهو المبلغ المتوقع أن يُستخلص من الضحية.
كما يستخدمون ChatGPT لتحليل الحسابات المالية، وإعداد تقارير العمل، وحتى استفسارات حول كيفية استخدام API أو تعديل كود مواقع المواعدة. وعندما يكون المشرف يتحدث بالصينية، والموظف بالإندونيسية، يتولى ChatGPT الترجمة بينهما.
المضحك أن أحد موظفي الاحتيال سأل ChatGPT عن الضرائب بعد الحصول على الأموال، وكتب بصدق في خانة المهنة “محتال”.
تقرير OpenAI كان متحفظًا، وقال إنه استنادًا إلى سجلات الإدخال الخاصة بالعصابة، فإنهم ربما يتعاملون مع مئات الأهداف يوميًا، ويحققون آلاف الدولارات. لكنه أشار إلى أنه لا يمكن التحقق من صحة هذه الأرقام بشكل مستقل.
لكنني أعتقد أنه لا حاجة للقلق بشأن الأرقام، فمجرد النظر إلى هذا النظام الإداري يكفي:
الترويج، التحويل، سعر العميل، التقارير اليومية، تقسيم الأقسام، وكل المصطلحات تبدو كأنها من دليل تشغيل شركة SaaS.
وأن تتحدث عن الحب، الترجمة، كتابة التقارير، تعديل الكود، حساب الأموال… كل هذا يمكن أن ينفذه حساب ChatGPT واحد.
القصة لم تنته بعد.
في نفس التقرير، كشفت OpenAI عن خط ثاني، يُسمى Operation False Witness (احتيال الضحية مرة أخرى)، وهو أيضًا من كمبوديا.
هذه الخطة تستهدف الأشخاص الذين سبق وأن تعرضوا للاحتيال.
المنطق بسيط: إذا تعرضت لعملية احتيال في مزرعة الاحتيال، وتريد استرداد أموالك، تبحث على الإنترنت عن كيفية ذلك.
وتجد إعلانًا عن مكتب محاماة يدعي أنه يساعد الضحايا على استرداد أموالهم. تضغط عليه.
الموقع يبدو محترفًا. صور المحامين إما مأخوذة من وسائل التواصل الاجتماعي أو مولدة بواسطة AI. كل مكتب لديه عنوان، وترخيص، ونبذة. وبتوليد ChatGPT، أنشأوا بطاقة عضوية لنقابة المحامين في نيويورك، وسجلات تسجيل وهمية.
اكتشفت OpenAI على الأقل ستة مكاتب محاماة وهمية.
كما وجدوا موقعًا آخر يُحاكي مركز شكاوى الجرائم الإلكترونية التابع لمكتب التحقيقات الفيدرالي (FBI). يوجد زر “تقديم شكوى”، وعند الضغط عليه، يُحولك إلى حساب Telegram.
وعند الوصول إلى Telegram، يبدأ “المحامي” في الحديث معك. النصوص من ChatGPT، ويُطلب منك أن تكتب بأسلوب إنجليزي أمريكي، ونبرة مهنية. يقولون إنهم يتعاونون مع المحكمة الجنائية الدولية، وأن استرداد الأموال لا يتطلب رسومًا مسبقة.
لكن، يجب دفع 15% من المبلغ كرسوم خدمة لتفعيل الحساب، باستخدام العملات المشفرة.
ويطلبون منك توقيع اتفاقية سرية، وهي أيضًا من إعداد ChatGPT، بهدف عدم كشف الأمر للآخرين.
وأصدرت FBI تحذيرًا علنيًا بشأن هذا الاحتيال، موضحًا أنه يستهدف كبار السن بشكل رئيسي، ويستغل رغبتهم في استرداد أموالهم بسرعة.
بعد الاطلاع على هذين النموذجين، أعتقد أن أكثر ما يضحك هو هنا:
عند أول عملية احتيال، أنت هدف. وعند الثانية، أنت هدف أفضل، لأنك أثبت أنك قابلت الاحتيال من قبل.
وفي النهاية، لخصت OpenAI عملية الاحتيال في ثلاث خطوات:
الخطوة الأولى تسمى ping، وهي الوصول البارد، لجذب انتباه الهدف.
الخطوة الثانية تسمى zing، وهي إثارة المشاعر، سواء كانت حبًا، أو خوفًا، أو حماسًا.
الخطوة الثالثة تسمى sting، وهي الحصاد، وسحب الأموال.
هذا الإطار ملخص بشكل جيد، وإذا نظرت إليه عن كثب، أي خطوة لا يمكن للذكاء الاصطناعي القيام بها؟
في عمليات الاحتيال القديمة، كانت أكبر تكلفة هي البشر. عليك توظيف مجموعة من الأشخاص يجلسون أمام الحواسيب ويتحدثون، ويجب أن يكونوا يتحدثون لغة الهدف. في كمبوديا، كانوا يختارون من يتحدث الإنجليزية جيدًا، ويعطونهم رواتب عالية.
أما الآن، مع ذكر تقرير OpenAI لعملية الاحتيال في المواعدة، فإن المشرف يتحدث الصينية، والموظفون يتحدثون الإندونيسية، والهدف إندونيسي. وإذا كانت اللغات غير متوافقة، فهذه كانت مستحيلة قبل، لكن مع ChatGPT، أصبح الأمر ممكنًا.
اللغة ليست سوى جزء من الأمر.
وفي التقرير، هناك تفصيل آخر، وهو أن عمال الاحتيال سألوا ChatGPT عن كيفية استخدام API الخاص بـ OpenAI، بهدف أتمتة عملية الدردشة بشكل كامل.
أي أن الذكاء الاصطناعي لا يجعل الاحتيال أكثر ذكاءً، بل يجعل الاحتيال أرخص.
وحسب ما تقول OpenAI، فإن هذا العصابة ربما تتعامل مع مئات الحالات في وقت واحد. وكلما زاد الحجم، قلت تكلفة كل ضحية، مما يسمح لهم بمزيد من عمليات الاحتيال على أشخاص أقل قيمة.
وأمر آخر أراه مهمًا: هل يمكن أن تكتشف OpenAI ذلك، لأن العصابة تستخدم ChatGPT، وتخزن سجلات الدردشة على خوادم OpenAI؟
وماذا عن الذين يستخدمون نماذج مفتوحة المصدر على أجهزة محلية؟
ربما تكون هذه التقارير مجرد جزء صغير من الصورة الكاملة، وما لا يمكن لـ OpenAI رؤيته هو حجم الصورة الكاملة، ومدى اتساعها.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
في عملية الاحتيال هذه، تتولى الذكاء الاصطناعي مسؤولية الحب، وأيضًا إصدار رخصة محامٍ مزورة
في حديقة الاحتيال، قام أكثر من نصف الأعمال باستخدام حساب ChatGPT واحد.
المؤلف: كوري، تكنولوجيا شينتشاو TechFlow
أصدرت OpenAI خلال الأيام الماضية تقريرًا يفيد بأن هناك من استغل ChatGPT لأغراض خبيثة، وتم القبض عليهم.
التقرير طويل، ويستعرض العديد من حالات إساءة استخدام الذكاء الاصطناعي. من بينهم روسي يروج لادعاءات كاذبة، ومشتبه في تجسسه من خلال الهندسة الاجتماعية، لكن ما أريد الحديث عنه اليوم هو إحدى الحالات:
مزرعة الاحتيال في كمبوديا.
مزرعة الاحتيال ليست جديدة، وقد سمع الجميع عن قصصها كثيرًا. المثير هو دور الذكاء الاصطناعي فيها.
في هذه العصابة الاحتيالية، كان ChatGPT مسؤولًا عن الحب، وعن ترجمة أوامر المشرف، وعن كتابة تقارير العمل اليومية، وتقييم كل ضحية.
في عملية الاحتيال، يُطلق على المصطلح الداخلي “kill value”، وهو التقدير المسبق للمبلغ الذي يمكن استغلاله من الضحية.
على طول خط الإنتاج، ربما يكون ChatGPT هو الموظف الأكثر انشغالًا.
أطلقت OpenAI على هذه الحالة اسم Operation Date Bait (صيد موعد غرامي).
وتتم العملية على النحو التالي:
أولًا، أنشأوا خدمة مواعدة وهمية باسم Klub Romantis، وشعارها مصنوع باستخدام ChatGPT. ثم قاموا بالإعلان المدفوع على وسائل التواصل الاجتماعي، باستخدام كلمات مفتاحية مثل الغولف، اليخت، المطاعم الراقية، مستهدفين الشباب الذكور في إندونيسيا.
عند النقر على الإعلان، تبدأ المحادثة مع روبوت محادثة AI. يقدّم لك موظف استقبال مثير، ويطلب منك اختيار نوع الفتاة التي تفضلها، ثم يرسل لك رابط Telegram مع رمز دعوة خاص.
عند الوصول إلى Telegram، يتولى شخص حقيقي الأمر.
الموظف يواصل استخدام ChatGPT لإرسال رسائل غرامية، وتزداد جرأة في الحديث، ثم يوجهك إلى منصتين وهميتين للمواعدة، إحداهما تسمى LoveCode والأخرى SexAction.
على المنصتين، توجد ملفات شخصية لفتايات وهميات، بالإضافة إلى شريط أخبار متحرك يعلن باستمرار “تهانينا لإنجاز مهمة معينة، وفتح مكافأة”. كلها محض خيال، وربما تكتشف ذلك بسرعة إذا كنت متمرسًا على الإنترنت، لكن ليس كل الأهداف كذلك.
عندما يقترب الأمر من النهاية، يحولك الموظف إلى “مرشد”. يبدأ الأخير في تكليفك بـ"مهام"، وكل مهمة تتطلب دفع أموال، وتزداد المبالغ تدريجيًا. شراء بطاقة VIP، التصويت لفتاة “مفضلة”، دفع عربون فندق، وغيرها من الأسباب.
وفي النهاية، يُطلق عليهم اسم “kill” داخليًا.
يختلقون سببًا، مثل خطأ في معالجة البيانات أو التحقق من العربون، ليطلبوا منك تحويل مبلغ كبير مرة واحدة. أدرجت OpenAI في تقريرها رسالة من العصابة إلى الضحية، تطلب دفع 2050 روبية إندونيسية، أي حوالي 12000 دولار، وتعد بإرجاع 35% من المبلغ كجزء من المكافأة بعد الدفع.
عند وصول المال، يقوم المحتالون على Telegram بحظرك، ويضعون ملاحظة أن القضية أُغلقت.
عند هذه النقطة، قد تعتقد أن الأمر عادي.
أساليب الاحتيال نفسها ليست جديدة، فقد تم كشف عمليات الاحتيال في مزرعة الاحتيال عدة مرات خلال السنوات الماضية. ما يدهش هو الجانب الإداري والخلفي.
تحقيقات OpenAI كشفت من سجلات استخدام حسابات ChatGPT عن بنية تنظيمية كاملة:
مزرعة الاحتيال تتكون من ثلاثة أقسام: قسم الترويج، قسم الاستقبال، وقسم المشرفين. قسم الترويج مسؤول عن الإعلان وجذب الضحايا، وقسم الاستقبال يثقّف ويبني الثقة عبر الدردشة، وقسم المشرفين هو من يجني الأرباح في النهاية.
يُعدّ تقرير يومي يوضح كل ضحية قيد المعالجة، مع تحديد المسؤول عنها، وتقدم الحالة، ورقم يُطلق عليه “kill value”، وهو المبلغ المتوقع أن يُستخلص من الضحية.
كما يستخدمون ChatGPT لتحليل الحسابات المالية، وإعداد تقارير العمل، وحتى استفسارات حول كيفية استخدام API أو تعديل كود مواقع المواعدة. وعندما يكون المشرف يتحدث بالصينية، والموظف بالإندونيسية، يتولى ChatGPT الترجمة بينهما.
المضحك أن أحد موظفي الاحتيال سأل ChatGPT عن الضرائب بعد الحصول على الأموال، وكتب بصدق في خانة المهنة “محتال”.
تقرير OpenAI كان متحفظًا، وقال إنه استنادًا إلى سجلات الإدخال الخاصة بالعصابة، فإنهم ربما يتعاملون مع مئات الأهداف يوميًا، ويحققون آلاف الدولارات. لكنه أشار إلى أنه لا يمكن التحقق من صحة هذه الأرقام بشكل مستقل.
لكنني أعتقد أنه لا حاجة للقلق بشأن الأرقام، فمجرد النظر إلى هذا النظام الإداري يكفي:
الترويج، التحويل، سعر العميل، التقارير اليومية، تقسيم الأقسام، وكل المصطلحات تبدو كأنها من دليل تشغيل شركة SaaS.
وأن تتحدث عن الحب، الترجمة، كتابة التقارير، تعديل الكود، حساب الأموال… كل هذا يمكن أن ينفذه حساب ChatGPT واحد.
القصة لم تنته بعد.
في نفس التقرير، كشفت OpenAI عن خط ثاني، يُسمى Operation False Witness (احتيال الضحية مرة أخرى)، وهو أيضًا من كمبوديا.
هذه الخطة تستهدف الأشخاص الذين سبق وأن تعرضوا للاحتيال.
المنطق بسيط: إذا تعرضت لعملية احتيال في مزرعة الاحتيال، وتريد استرداد أموالك، تبحث على الإنترنت عن كيفية ذلك.
وتجد إعلانًا عن مكتب محاماة يدعي أنه يساعد الضحايا على استرداد أموالهم. تضغط عليه.
الموقع يبدو محترفًا. صور المحامين إما مأخوذة من وسائل التواصل الاجتماعي أو مولدة بواسطة AI. كل مكتب لديه عنوان، وترخيص، ونبذة. وبتوليد ChatGPT، أنشأوا بطاقة عضوية لنقابة المحامين في نيويورك، وسجلات تسجيل وهمية.
اكتشفت OpenAI على الأقل ستة مكاتب محاماة وهمية.
كما وجدوا موقعًا آخر يُحاكي مركز شكاوى الجرائم الإلكترونية التابع لمكتب التحقيقات الفيدرالي (FBI). يوجد زر “تقديم شكوى”، وعند الضغط عليه، يُحولك إلى حساب Telegram.
وعند الوصول إلى Telegram، يبدأ “المحامي” في الحديث معك. النصوص من ChatGPT، ويُطلب منك أن تكتب بأسلوب إنجليزي أمريكي، ونبرة مهنية. يقولون إنهم يتعاونون مع المحكمة الجنائية الدولية، وأن استرداد الأموال لا يتطلب رسومًا مسبقة.
لكن، يجب دفع 15% من المبلغ كرسوم خدمة لتفعيل الحساب، باستخدام العملات المشفرة.
ويطلبون منك توقيع اتفاقية سرية، وهي أيضًا من إعداد ChatGPT، بهدف عدم كشف الأمر للآخرين.
وأصدرت FBI تحذيرًا علنيًا بشأن هذا الاحتيال، موضحًا أنه يستهدف كبار السن بشكل رئيسي، ويستغل رغبتهم في استرداد أموالهم بسرعة.
بعد الاطلاع على هذين النموذجين، أعتقد أن أكثر ما يضحك هو هنا:
عند أول عملية احتيال، أنت هدف. وعند الثانية، أنت هدف أفضل، لأنك أثبت أنك قابلت الاحتيال من قبل.
وفي النهاية، لخصت OpenAI عملية الاحتيال في ثلاث خطوات:
الخطوة الأولى تسمى ping، وهي الوصول البارد، لجذب انتباه الهدف.
الخطوة الثانية تسمى zing، وهي إثارة المشاعر، سواء كانت حبًا، أو خوفًا، أو حماسًا.
الخطوة الثالثة تسمى sting، وهي الحصاد، وسحب الأموال.
هذا الإطار ملخص بشكل جيد، وإذا نظرت إليه عن كثب، أي خطوة لا يمكن للذكاء الاصطناعي القيام بها؟
في عمليات الاحتيال القديمة، كانت أكبر تكلفة هي البشر. عليك توظيف مجموعة من الأشخاص يجلسون أمام الحواسيب ويتحدثون، ويجب أن يكونوا يتحدثون لغة الهدف. في كمبوديا، كانوا يختارون من يتحدث الإنجليزية جيدًا، ويعطونهم رواتب عالية.
أما الآن، مع ذكر تقرير OpenAI لعملية الاحتيال في المواعدة، فإن المشرف يتحدث الصينية، والموظفون يتحدثون الإندونيسية، والهدف إندونيسي. وإذا كانت اللغات غير متوافقة، فهذه كانت مستحيلة قبل، لكن مع ChatGPT، أصبح الأمر ممكنًا.
اللغة ليست سوى جزء من الأمر.
وفي التقرير، هناك تفصيل آخر، وهو أن عمال الاحتيال سألوا ChatGPT عن كيفية استخدام API الخاص بـ OpenAI، بهدف أتمتة عملية الدردشة بشكل كامل.
أي أن الذكاء الاصطناعي لا يجعل الاحتيال أكثر ذكاءً، بل يجعل الاحتيال أرخص.
وحسب ما تقول OpenAI، فإن هذا العصابة ربما تتعامل مع مئات الحالات في وقت واحد. وكلما زاد الحجم، قلت تكلفة كل ضحية، مما يسمح لهم بمزيد من عمليات الاحتيال على أشخاص أقل قيمة.
وأمر آخر أراه مهمًا: هل يمكن أن تكتشف OpenAI ذلك، لأن العصابة تستخدم ChatGPT، وتخزن سجلات الدردشة على خوادم OpenAI؟
وماذا عن الذين يستخدمون نماذج مفتوحة المصدر على أجهزة محلية؟
ربما تكون هذه التقارير مجرد جزء صغير من الصورة الكاملة، وما لا يمكن لـ OpenAI رؤيته هو حجم الصورة الكاملة، ومدى اتساعها.