Китайський уряд вперше офіційно оголосив про ризики промислового проникнення AI-агентів, спрямовуючи увагу на 小龍蝦.
(Передісторія: Увага! ClawHub приховує 1184 зловмисних навичок: крадіжка приватних ключів криптогаманців, SSH-ключів, паролів браузерів)
(Додатковий фон: Після популяризації OpenClaw: відкритий малий краб, який вплинув на американські акції?)
Малий краб OpenClaw швидко став популярним у Китаї, багато технологічних гігантів впроваджують його у маси, пропонуючи одноклікові сервіси для подальшого використання, що зробило його короткостроковою популярною моделлю для побутового AI. Малий краб став зіркою, але з іншого боку, офіційний Пекін почав вживати заходів.
Центр розвитку інформаційної безпеки промисловості Китаю (далі — «Центр безпеки») 12 березня випустив рідкісний спеціальний звіт про ризики, прямо вказуючи на швидке проникнення OpenClaw у внутрішні промислові об’єкти. У цьому звіті вперше офіційно оголошено про регуляторний попереджувальний сигнал щодо застосування AI-агентів у промисловості.
Звіт зазначає, що OpenClaw наразі прискорює розробку та впровадження у сферах проектування, виробництва та обслуговування промислових систем. Можливості AI-агента дозволяють йому бути корисним у виробничих умовах, але пов’язані з цим безпекові ризики не можна перекрити традиційними фаєрволами.
Центр безпеки конкретизує три типи ризиків у звіті:
1. Ризик перевищення повноважень промислових систем та втрати контролю над виробництвом. Атака може здійснюватися через «інжекцію команд» (Prompt Injection), змушуючи агент виконувати несанкціоновані команди, що може призвести до зміни параметрів виробництва або навіть виходу з ладу систем управління. У високотехнологічних автоматизованих сценаріях одна закладена команда може поширитися по всьому виробничому ланцюгу.
2. Ризик витоку конфіденційної інформації. Після розгортання у виробництві OpenClaw здатен читати проектну документацію, технологічні параметри та дані постачальників. Якщо через підміну у ланцюгу поставок (Supply Chain Poisoning) у навички агента буде вставлено зловмисний модуль, ці дані можуть бути безпомилково витягнуті та поширені.
3. Ризик розширення атак та посилення їх ефекту. AI-агент має здатність працювати у кількох системах і платформах одночасно, тому при зломі він може діяти від імені агента у кількох системах одночасно, що ускладнює захист традиційними методами.
Центр безпеки рекомендує промисловим підприємствам керуватися «Посібником з кібербезпеки промислових систем» та «Правилами класифікації та управління безпекою Індустріального Інтернету», а також провести самоперевірку відповідно до рекомендацій платформи NVDB щодо загроз і вразливостей у мережі.
Цей звіт є сигналом для промислового сектору про необхідність «екстреного зупинення» швидкого впровадження AI-агентів у промисловість з боку офіційної влади Китаю.