في دراسة حديثة، أظهر الفريق كيف يمكن لوظيفة طرف ثالث مخترقة على منصة OpenClaw أن تتجاوز التدابير الوقائية الحالية وتنفيذ أوامر عشوائية على نظام المضيف. تبرز النتائج نقاط ضعف هيكلية في كيفية تقييم ونشر أكواد خارجية في أسواق وكالات الذكاء الاصطناعي.
ركز البحث على عملية المراجعة التي تستخدمها منصة Clawhub، والتي تشمل تحليل الكود الثابت، وفحوصات عبر VirusTotal، وأدوات تعديل تعتمد على الذكاء الاصطناعي.
الأخبار الرائجة
ثري داد بور داد المؤلف: بيتكوين ستصل إلى 750,000 دولار
مراجعة سوق العملات الرقمية: XRP مستعد للانطلاق إلى 1.70 دولار، إيثيريوم (ETH) يدخل وضع السوق الصاعدة، هل شبا إينو (SHIB) أخيرًا في السوق الصاعدة؟
وفقًا لـ CertiK، يمكن تجاوز هذه الآليات من خلال تعديلات بسيطة على الكود. من خلال تعديل بسيط في المنطق أو إعادة هيكلة الثغرات، يمكن لوظيفة خبيثة أن تظهر وكأنها آمنة أثناء التثبيت مع الاحتفاظ بالقدرة على تنفيذ أفعال ضارة بعد النشر.
هذا يخلق شعورًا زائفًا بالأمان للمستخدمين، حيث أن الموافقة من خلال أنظمة مراجعة السوق لا تضمن أن الوظيفة آمنة.
تؤكد هجمة إثبات المفهوم على مشكلة أوسع تؤثر على أنظمة وكالات الذكاء الاصطناعي: نماذج الأمان التي تعتمد بشكل كبير على المراجعة قبل النشر بدلاً من الحماية أثناء التشغيل.
بدون تدابير حماية مثل العزلة (sandboxing)، والتحكم الصارم في الأذونات، والعزل أثناء التشغيل، فإن المنصات تضع مسؤولية كبيرة على أنظمة الكشف التي لم تُصمم للتعامل مع تهديدات معقدة ومتطورة.
تشير النتائج إلى أنه مع توسع أسواق وكالات الذكاء الاصطناعي، ستزداد مخاطر دخول وظائف خبيثة أو مخترقة إلى بيئات الإنتاج.
يجادل باحثو CertiK بأن الصناعة يجب أن تعيد التفكير في نهجها في تأمين وكالات الذكاء الاصطناعي من خلال إعطاء الأولوية للحجز أثناء التشغيل بدلاً من الكشف.
بدلاً من الافتراض أن جميع الأكواد الخبيثة يمكن تحديدها قبل النشر، يجب تصميم المنصات على أساس أن بعض التهديدات ستتجاوز عمليات المراجعة حتمًا. في هذا النموذج، يتحول التركيز من منع كل خرق إلى تقليل الضرر المحتمل الناتج عن واحد منها.
يمثل هذا انتقالًا أوسع من عقلية “الكشف المثالي” إلى التركيز على احتواء الضرر ومرونة النظام.
لمعالجة هذه المخاطر، يوضح CertiK عدة تدابير للمطورين الذين يبنون منصات وكالات الذكاء الاصطناعي.
يجب أن يصبح العزل (sandboxing) النموذج الافتراضي لتنفيذ الوظائف الخارجية، لضمان أن الكود الخارجي يعمل في بيئات معزولة بدلاً من التفاعل المباشر مع أنظمة المضيف.
بالإضافة إلى ذلك، ينبغي أن تنفذ المنصات أطر أذونات دقيقة لكل وظيفة على حدة. يجب أن يصرح كل وظيفة بشكل واضح عن الموارد التي تحتاجها، مع فرض تلك الأذونات أثناء التنفيذ. هذا النهج يقلل من التأثير المحتمل للمكونات المخترقة أو الخبيثة.
كما يؤكد الباحثون أن الوظائف الخارجية لا ينبغي أن ترث ثقة واسعة ومضمّنة من النظام المضيف، حيث يزيد ذلك بشكل كبير من خطر الاستغلال.
بالنسبة للمستخدمين، يسلط التقرير الضوء على قيود مهمة: تصنيف “غير ضار” داخل السوق لا يعادل الأمان الحقيقي. هو فقط يشير إلى أن عملية المراجعة الحالية لم تكشف عن تهديد.
حتى يتم اعتماد تدابير حماية أقوى أثناء التشغيل على نطاق واسع، قد تكون منصات مثل OpenClaw أكثر ملاءمة لبيئات منخفضة المخاطر لا تتضمن بيانات حساسة أو بيانات اعتماد أو أصول عالية القيمة.
وعلى نطاق أوسع، تشير الأبحاث إلى مشكلة هيكلية في أنظمة الذكاء الاصطناعي. بينما يمكن لعمليات المراجعة أن تساعد في تحديد التهديدات الواضحة، فهي لا يمكن أن تكون الدفاع الرئيسي للأنظمة التي تنفذ أكواد طرف ثالث بصلاحيات عالية.
تختتم CertiK بأن تحسينات الأمان الفعالة ستتطلب إعادة التفكير في تصميم منصات وكالات الذكاء الاصطناعي.
بدلاً من الاعتماد على أنظمة كشف معقدة بشكل متزايد، يجب على المطورين بناء بيئات تفترض أن الفشل ممكن، والتأكد من احتواء أي خرق. يتضمن ذلك اعتماد تقنيات عزل أقوى، وفرض أذونات صارمة، ومعاملة الأمان أثناء التشغيل كطبقة حماية أساسية.
مع استمرار نمو تطبيقات الذكاء الاصطناعي وتبنيها، قد يصبح القدرة على احتواء المخاطر أثناء التشغيل العامل الحاسم في تأمين أنظمة الجيل القادم الرقمية.