BlockBeats melaporkan bahwa pada tanggal 5 Maret, perusahaan keamanan Web3 GoPlus menyatakan bahwa alat pengembangan AI OpenClaw baru-baru ini mengalami insiden keamanan “serangan diri sendiri”. Saat menjalankan tugas otomatisasi, sistem secara tidak sengaja membangun perintah Bash yang salah saat memanggil perintah Shell untuk membuat Issue di GitHub, yang secara tak terduga memicu injeksi perintah, sehingga banyak variabel lingkungan sensitif menjadi terbuka.
Dalam kejadian tersebut, string yang dihasilkan AI mengandung perintah set yang dibungkus tanda backtick, yang diinterpretasikan oleh Bash sebagai penggantian perintah dan dieksekusi secara otomatis. Karena Bash akan menampilkan semua variabel lingkungan saat menjalankan perintah set tanpa parameter, akhirnya lebih dari 100 baris informasi sensitif (termasuk kunci Telegram, token otentikasi, dan lain-lain) langsung ditulis ke Issue GitHub dan dipublikasikan secara terbuka.
GoPlus menyarankan bahwa dalam skenario pengembangan atau pengujian otomatisasi AI, sebaiknya menggunakan panggilan API sebanyak mungkin sebagai pengganti penggabungan langsung perintah Shell, mengikuti prinsip hak akses minimum untuk mengisolasi variabel lingkungan, serta menonaktifkan mode eksekusi berisiko tinggi dan memperkenalkan mekanisme peninjauan manual dalam operasi penting.