BlockBeats أخبار، في 5 مارس، أعلنت شركة أمن Web3 GoPlus أن أداة تطوير الذكاء الاصطناعي OpenClaw تعرضت مؤخرًا لحادث أمني من نوع “هجوم ذاتي”. أثناء تنفيذ مهمة تلقائية، قام النظام خلال استدعاء أمر Shell لإنشاء مشكلة على GitHub ببناء أمر Bash خاطئ، مما أدى بشكل غير متوقع إلى حقن أوامر، وكشف عن العديد من متغيرات البيئة الحساسة.
في الحادث، تضمن السلسلة التي أنشأها الذكاء الاصطناعي أقواس معقوفة حول الأمر set، والتي فسرها Bash على أنها استبدال أمر وتنفيذها تلقائيًا. نظرًا لأن Bash عند تشغيل الأمر set بدون معلمات يعرض جميع متغيرات البيئة الحالية، أدى ذلك في النهاية إلى كتابة أكثر من 100 سطر من المعلومات الحساسة (بما في ذلك مفاتيح Telegram، رموز التوثيق، وغيرها) مباشرة في مشكلة GitHub ونشرها علنًا.
توصي GoPlus بأنه في سيناريوهات التطوير أو الاختبار التلقائي باستخدام الذكاء الاصطناعي، يجب استخدام استدعاءات API بدلاً من دمج أوامر Shell مباشرة، والالتزام بمبدأ أقل الامتيازات لعزل متغيرات البيئة، مع تعطيل وضع التنفيذ عالي الخطورة، وإدخال آليات مراجعة يدوية في العمليات الحرجة.