الذكاء الاصطناعي العميق المزيف يصبح سلاحًا جديدًا للهجوم على شركات العملات الرقمية في كوريا الشمالية: جوجل تحذر

TapChiBitcoin
TOKEN3.33%

مجموعة أمن المعلومات من ماندیانت التابعة لشركة جوجل تحذر من أن قراصنة كوريا الشمالية يدمجون تقنية التزييف العميق التي تنتجها الذكاء الاصطناعي في اجتماعات الفيديو المزيفة، كجزء من حملة هجمات متزايدة التطور تستهدف شركات العملات الرقمية، وفقًا لتقرير نُشر يوم الاثنين.

قالت ماندیانت مؤخرًا إنها حققت في عملية اختراق لشركة تكنولوجيا مالية، تُنسب إلى UNC1069 (المعروفة أيضًا باسم “CryptoCore”) — جهة تهديد ذات ارتباط وثيق بكوريا الشمالية. استخدمت الهجمة حساب تلغرام مخترق، واجتماع زووم مزيف، وتقنية ClickFix لخداع الضحايا لتنفيذ أوامر خبيثة. كما اكتشف المحققون أدلة على أن فيديو تم إنشاؤه بواسطة الذكاء الاصطناعي استُخدم في الاجتماع المزيف لخداع الهدف.

ووفقًا للتقرير، سجلت ماندیانت أن UNC1069 ينفذ هذه التقنيات لاستهداف كل من المؤسسات والأفراد في قطاع العملات الرقمية، بما في ذلك شركات البرمجيات، والمبرمجين، وصناديق الاستثمار المغامرة، بالإضافة إلى فرق العمل والقيادات لديهم.

تصاعد حملة سرقة العملات الرقمية من قبل كوريا الشمالية

يأتي هذا التحذير في ظل استمرار تصاعد عمليات سرقة العملات الرقمية المرتبطة بكوريا الشمالية من حيث الحجم. في منتصف ديسمبر، ذكرت شركة تحليل البلوكتشين Chainalysis أن قراصنة كوريا الشمالية سرقوا 2.02 مليار دولار من العملات الرقمية خلال عام 2025، بزيادة قدرها 51% مقارنة بالعام السابق. ويُقدّر إجمالي الأصول الرقمية التي استولى عليها مجموعات مرتبطة ببيونغ يانغ حاليًا بحوالي 6.75 مليار دولار، على الرغم من انخفاض عدد الهجمات.

تُظهر هذه الاكتشافات تغيرًا في أساليب تشغيل المجموعات الإجرامية المرتبطة بالدولة. بدلاً من تنفيذ حملات تصيد واسعة النطاق، يركز “CryptoCore” والمجموعات المماثلة على هجمات مخصصة بشكل كبير، تستغل الثقة في التفاعلات الرقمية المألوفة مثل دعوات الاجتماعات أو مكالمات الفيديو. وبهذا، يمكن للقراصنة سرقة قيمة أكبر من خلال عدد أقل من الحوادث ولكن مع أهداف واضحة.

وفقًا لماندیانت، تبدأ الهجمة عندما يتواصل الضحية عبر تلغرام مع شخص يبدو كقائد مألوف في مجال العملات الرقمية، لكن الحساب يكون في الواقع تحت سيطرة القراصنة. بعد بناء الثقة، يرسل المهاجم رابط Calendly لترتيب اجتماع مدته 30 دقيقة، يقود الضحية إلى مكالمة زووم مزيفة مخزنة على البنية التحتية الخاصة بالمجموعة. خلال المكالمة، يقول الضحية إنه رأى فيديو تزييف عميق لمدير تنفيذي مشهور في مجال العملات الرقمية.

عند بدء الاجتماع، يبرر القراصنة حدوث مشكلة في الصوت ويوجهون الضحية لتنفيذ أوامر “إصلاح المشكلة” — وهو نوع من تقنية ClickFix — مما يؤدي إلى تفعيل رمز خبيث. ثم تكشف التحليلات الجنائية عن وجود سبعة رموز خبيثة مختلفة على نظام الضحية، تم نشرها بهدف سرقة بيانات الاعتماد، وبيانات المتصفح، ورموز الجلسة، لاستخدامها في الاستيلاء على الأموال والانتحال.

التزييف العميق والذكاء الاصطناعي يرفعان من مستوى استراتيجيات الاحتيال

قال فريزر إدواردز، المؤسس المشارك والرئيس التنفيذي لشركة cheqd المتخصصة في التعرف على الهوية غير المركزية، إن الحادث يعكس اتجاهًا متزايدًا في استهداف القراصنة للأشخاص الذين يعتمدون على الاجتماعات عبر الإنترنت والتعاون عن بعد. وفقًا له، تكمن فعالية هذه الطريقة في أنها تكاد لا تظهر عليها علامات غير طبيعية واضحة: مرسل مألوف، تنسيق اجتماع مألوف، لا يوجد مرفقات أو ثغرات واضحة. يتم استغلال الثقة قبل أن تتدخل التدابير التقنية للدفاع.

ذكر إدواردز أن الفيديو التزييف العميق غالبًا ما يُستخدم في مراحل التصعيد، مثل أثناء المكالمة المباشرة، حيث يمكن لصورة وجه مألوف أن تزيل الشكوك الناتجة عن الطلبات غير المعتادة أو الأعطال التقنية. الهدف ليس إطالة التفاعل، بل فقط خلق مستوى من الواقعية كافٍ لدفع الضحية لاتخاذ الخطوة التالية.

كما أكد أن الذكاء الاصطناعي يُستخدم الآن لدعم عمليات الاحتيال خارج نطاق المكالمات المباشرة، بما في ذلك صياغة الرسائل، وتعديل النغمة، ومحاكاة أسلوب التواصل المألوف لشخص معين مع زملائه أو أصدقائه. هذا يجعل الرسائل اليومية أكثر صعوبة في الشك، ويقلل من احتمالية توقف المستلم للتحقق.

وأشار إدواردز إلى أن المخاطر ستستمر في الارتفاع مع دمج أدوات الذكاء الاصطناعي بشكل أعمق في عمليات التواصل واتخاذ القرارات اليومية. يمكن لهذه الأنظمة إرسال رسائل، وجدولة مكالمات، واتخاذ إجراءات نيابة عن المستخدم بسرعة عالية. وإذا تم استغلالها أو اختراقها، يمكن أن يُنشر التزييف العميق الصوتي والفيديو تلقائيًا، مما يحول عمليات الاحتيال من جهود يدوية إلى عمليات قابلة للتوسع بشكل كبير.

وأضاف أن توقع أن يكتشف معظم المستخدمين التزييف العميق بمفردهم غير واقعي. بدلاً من ذلك، من الضروري بناء أنظمة حماية مدمجة بشكل افتراضي، وتحسين آليات التحقق، وعرض مصداقية المحتوى، بحيث يتمكن المستخدمون من التعرف بسرعة على ما إذا كانت المعلومات حقيقية، أو تم إنشاؤها بواسطة الذكاء الاصطناعي، أو لم يتم التحقق منها، بدلاً من الاعتماد على الحدس أو الاعتياد.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات