OpenClaw — це поганий хлопець серед агентів штучного інтелекту. Ось чому експерти з безпеки кажуть, що слід бути обережним

Ласкаво просимо до Eye on AI з репортером Шароном Голдман. У цьому випуску: Дика сторона OpenClaw… Новий супер PAC Anthropic на 20 мільйонів доларів проти OpenAI… OpenAI випустила свою першу модель, розроблену для надзвичайно швидкого виводу… Anthropic покриє зростання цін на електроенергію для своїх дата-центрів AI… Isomorphic Labs заявляє, що відкрила новий біологічний фронтир понад AlphaFold.

Рекомендоване відео


OpenClaw за останні кілька тижнів показав, наскільки безрозсудними можуть бути агенти штучного інтелекту — і при цьому залучив віддану аудиторію.

Безкоштовний, відкритий автономний агент штучного інтелекту, розроблений Петером Штайнбергером і спочатку відомий як ClawdBot, бере знайомих нам чатботів — таких як ChatGPT і Claude — і надає їм інструменти та автономію для безпосередньої взаємодії з вашим комп’ютером та іншими через інтернет. Уявіть, що він може надсилати електронні листи, читати ваші повідомлення, бронювати квитки на концерт, робити замовлення в ресторанах і багато іншого — ймовірно, поки ви сидите і насолоджуєтеся цукерками.

Проблема з наданням OpenClaw надзвичайних можливостей для виконання крутих речей? Не дивно, що це дає йому багато можливостей робити те, чого не слід — включаючи витік даних, виконання непередбачених команд або тиху зломи attacker’ів через шкідливе програмне забезпечення або так звані “prompt injection” атаки (коли зловмисник вставляє шкідливі інструкції для AI-агента у дані, які він може використовувати).

Захоплення уваги до OpenClaw, кажуть двоє експертів з кібербезпеки, з якими я спілкувався цього тижня, полягає в тому, що він не має обмежень, фактично надаючи користувачам майже необмежені можливості налаштовувати його на свій розсуд.

“Єдина правила — це відсутність правил,” сказав Бен Сері, співзасновник і технічний директор Zafran Security, що спеціалізується на управлінні ризиками загроз для підприємств. “Це частина гри.” Але ця гра може перетворитися на кошмар безпеки, оскільки правила і межі — це основа запобігання зломам і витокам.

Класичні питання безпеки

Проблеми безпеки досить класичні, каже Колін Ші-Блімір, дослідник Центру безпеки та нових технологій Джорджтаунського університету (CSET), де він працює над проектом CyberAI. Налаштування дозволів — хто або що має право робити що — означає, що люди можуть випадково надати OpenClaw більше повноважень, ніж вони усвідомлюють, і зловмисники можуть цим скористатися.

Наприклад, у OpenClaw багато ризиків походить від того, що розробники називають “навичками”, які фактично є додатками або плагінами, що агент AI може використовувати для виконання дій — наприклад, доступу до файлів, перегляду веб-сторінок або запуску команд. Відмінність у тому, що, на відміну від звичайної програми, OpenClaw сам вирішує, коли використовувати ці навички і як їх поєднувати, що може швидко призвести до серйозних наслідків через невірний дозвіл.

“Уявіть, що він може отримати доступ до сторінки бронювання ресторану і одночасно мати доступ до вашого календаря з особистою інформацією,” сказав він. “Або що, якщо це шкідливе програмне забезпечення і воно знайде неправильну сторінку і встановить вірус?”

OpenClaw має сторінки безпеки у своїй документації і намагається тримати користувачів у курсі і напоготові, сказав Shea-Blymyer. Але питання безпеки залишаються складними технічними проблемами, які більшість звичайних користувачів навряд чи зможе повністю зрозуміти. І хоча розробники OpenClaw працюють над виправленням вразливостей, вони не можуть легко вирішити основну проблему — здатність агента діяти самостійно, що і робить цю систему такою привабливою.

“Це основна напруга у таких системах,” сказав він. “Чим більше доступу ви їм надаєте, тим цікавіше і цікавіше вони будуть — але й більш небезпечними.”

Промислові компанії будуть повільно впроваджувати

Сері з Zafran Security визнав, що малоймовірно зупинити цікавість користувачів до системи на кшталт OpenClaw, хоча він підкреслив, що підприємства будуть набагато повільніше впроваджувати таку неконтрольовану, небезпечну систему. Для звичайного користувача, сказав він, слід ставитися до цього як до роботи в хімічній лабораторії з дуже вибуховим матеріалом.

Ші-Блімір зазначив, що добре, що OpenClaw з’являється спершу на рівні хобі. “Ми багато дізнаємося про екосистему, перш ніж хтось спробує її на рівні підприємства,” сказав він. “Інтелектуальні системи можуть провалитися у способах, яких ми навіть уявити не можемо,” пояснив він. “[OpenClaw] може дати нам багато інформації про те, чому різні великі мовні моделі поводяться так, як вони поводяться, і про нові питання безпеки.”

Але хоча OpenClaw сьогодні може бути експериментом для хобі, експерти з безпеки бачать у ньому попередній огляд того, які автономні системи підприємства з часом будуть змушені впроваджувати.

Поки що, якщо хтось не хоче бути об’єктом досліджень у галузі безпеки, звичайному користувачу краще триматися подалі від OpenClaw, сказав Shea-Blymyer. Інакше не дивуйтеся, якщо ваш особистий AI-асистент забреде у дуже небезпечну територію.

З цим — ще більше новин про штучний інтелект.

Шарон Голдман
sharon.goldman@fortune.com
@sharongoldman

FORTUNE ПРО AI

Вірусний блог Мета Шумера про вплив AI на знаних працівників базується на хибних припущеннях — Джеремі Канн

Генеральний директор Capgemini попереджає. Ви можете неправильно уявляти собі AI — Камал Ахмед

Лідер AI, що отримав Нобелівську премію від Google, бачить попереду “відродження” — після 10- або 15-річної кризи — Нік Ліхтенберг

X-odus: Половина засновників xAI залишила компанію Ілона Маска, що може ускладнити його плани щодо гучного IPO SpaceX — Беатріс Нолан

OpenAI заперечує заяву контролюючих органів про порушення нового закону Каліфорнії щодо безпеки AI з останнім релізом моделі — Беатріс Нолан

НОВИНИ ПРО AI

Новий супер PAC Anthropic на 20 мільйонів доларів проти OpenAI. За даними The New York Times, Anthropic пообіцяв 20 мільйонів доларів на діяльність супер PAC, спрямовану на підтримку кандидатів, які виступають за посилення безпеки AI та регулювання, що створює прямий конфлікт перед проміжними виборами. Фінансування проходитиме через некомерційну організацію Public First Action та союзні PAC, у противагу Leading the Future, супер PAC, підтримуваному переважно президентом і співзасновником OpenAI Грегом Брокманом та венчурною компанією Andreessen Horowitz. Хоча Anthropic не називає прямо OpenAI, воно попереджає, що “величезні ресурси” спрямовуються на протидію зусиллям у сфері безпеки AI, що підсилює розкол у галузі щодо того, наскільки сильно слід регулювати потужні моделі — і сигналізує, що боротьба за управління AI тепер відбувається не лише у лабораторіях і наради, а й на виборчих дільницях.

Муссафа Сулейман планує “самодостатність” AI, поки Microsoft послаблює зв’язки з OpenAI. Газета Financial Times повідомляє, що Microsoft прагне до того, що його керівник AI Муссафа Сулейман називає “справжньою самодостатністю” штучного інтелекту, прискорюючи зусилля щодо створення власних базових моделей і зменшення довгострокової залежності від OpenAI, хоча й залишається одним із найбільших інвесторів у цю компанію. У інтерв’ю Сулейман сказав, що цей перехід слідує за реорганізацією відносин Microsoft з OpenAI у жовтні минулого року, яка зберегла доступ до найсучасніших моделей OpenAI до 2032 року, але також дала ChatGPT-розробнику більше свободи шукати нових інвесторів і партнерів — потенційно перетворюючи його на конкурента. Microsoft тепер інвестує значні кошти у гігаватні обчислювальні потужності, дата-пайплайни та висококласні дослідницькі команди AI, з планами запустити власні моделі вже цього року, спрямовані на автоматизацію білого комірця і захоплення більшої частки ринку підприємств за допомогою того, що Сулейман називає “професійним рівнем AGI.”

OpenAI випустила свою першу модель, розроблену для надзвичайно швидкого виводу. OpenAI представила дослідний попередній перегляд GPT-5.3-Codex-Spark — першого реального продукту співпраці з Cerebras, що використовує їхню AI-апаратну платформу wafer-scale для забезпечення ультранизької затримки і реального часу кодування у Codex. Менша модель, спрощена версія GPT-5.3-Codex, оптимізована для швидкості, а не максимальної потужності, генерує відповіді до 15 разів швидше, що дозволяє розробникам робити цілеспрямовані редагування, змінювати логіку і ітеративно працювати без довгих очікувань. Спочатку вона доступна як дослідний попередній перегляд для користувачів ChatGPT Pro і кількох API-партнерів, ця реліз сигналізує про зростаючу увагу OpenAI до швидкості взаємодії, оскільки AI-агенти беруть на себе дедалі більше автономних і довготривалих завдань — з реальним часом кодування як одним із перших тестових випадків для розкриття потенціалу швидшого виведення.

Anthropic покриє зростання цін на електроенергію для своїх дата-центрів AI. Після подібної заяви OpenAI минулого місяця, Anthropic оголосила вчора, що з розширенням своїх дата-центрів AI у США вона візьме на себе відповідальність за будь-яке зростання цін на електроенергію, яке інакше могло б бути передане споживачам, пообіцявши оплатити всі витрати на підключення до мережі та модернізацію, запустити нові джерела енергії для задоволення попиту і співпрацювати з енергетичними компаніями та експертами для оцінки і покриття будь-яких цінових ефектів; вона також планує інвестувати у технології зменшення споживання енергії і оптимізації мережі, підтримувати місцеві громади навколо своїх об’єктів і виступати за ширше політичне реформування для прискорення і зниження вартості енергетичної інфраструктури, стверджуючи, що створення інфраструктури AI не повинно обтяжувати звичайних платників.

Isomorphic Labs заявляє, що відкрила новий біологічний фронтир понад AlphaFold. AI-компанія з відкриття ліків, пов’язана з Alphabet і DeepMind, повідомила, що її новий інструмент Isomorphic Labs Drug Design Engine є значним проривом у обчислювальній медицині, оскільки поєднує кілька моделей AI у єдину платформу, здатну передбачати взаємодію біологічних молекул з безпрецедентною точністю. У блозі йдеться, що він більш ніж удвічі перевищує попередні показники у ключових бенчмарках і перевершує традиційні фізичні методи у задачах прогнозування структури білок-ліганд і оцінки зв’язувальної здатності — можливості, які, за словами компанії, можуть значно прискорити процес розробки і оптимізації нових кандидатів у ліки. Система базується на успіху AlphaFold 3, передової моделі AI, випущеної у 2024 році, яка передбачає 3D-структури і взаємодії всіх молекул життя, включаючи білки, ДНК і РНК. Але компанія стверджує, що вона йде далі, ідентифікуючи нові кармани зв’язування, узагальнюючи структури за межами тренувальних даних і інтегруючи ці передбачення у масштабовану платформу, яка має зменшити розрив між структурною біологією і реальним відкриттям ліків, потенційно змінюючи підходи фармацевтичних досліджень до складних цілей і розширюючись у сферу біологічних препаратів.

NUMERAI ПРО AI

77%

Саме стільки фахівців з безпеки повідомляють про певну впевненість у тому, що автономні системи AI можуть діяти без людського контролю, хоча й залишаються обережними, згідно з новим опитуванням 1200 фахівців з безпеки, проведеним компанією Ivanti, глобальним постачальником корпоративного ІТ і безпеки. Крім того, у звіті зазначається, що впровадження агентних AI є пріоритетом для 87% команд безпеки.

Однак головний директор з безпеки Ivanti, Даніель Спайсер, каже, що команди безпеки не повинні так легко ставитися до ідеї розгортання автономних AI. Хоча захисники оптимістично налаштовані щодо потенціалу AI у кібербезпеці, результати також показують, що компанії все далі відстають у підготовці до захисту від різноманітних загроз.

“Це те, що я називаю ‘Дефіцитом готовності до кібербезпеки,’” написав він у блозі. “Постійний, що зростає з року в рік, дисбаланс у здатності організацій захищати свої дані, людей і мережі від еволюціонуючих технологій.”

КАЛЕНДАР AI

10-11 лютого: AI Action Summit, Нью-Делі, Індія.

24-26 лютого: Міжнародна асоціація безпечного і етичного AI (IASEAI), ЮНЕСКО, Париж, Франція.

2-5 березня: Mobile World Congress, Барселона, Іспанія.

16-19 березня: Nvidia GTC, Сан-Хосе, Каліфорнія.

6-9 квітня: HumanX, Сан-Франциско.

**Приєднуйтесь до нас на саміті Fortune Workplace Innovation **19–20 травня 2026 року, Атланта. Наступна ера інновацій у робочому середовищі вже тут — і старий сценарій переписується. На цьому ексклюзивному, енергійному заході найінноваційніші лідери світу зберуться, щоб дослідити, як AI, людство і стратегія знову перетинаються, щоб переосмислити майбутнє роботи. Реєструйтеся зараз.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Популярні активності Gate Fun

    Дізнатися більше
  • Рин. кап.:$2.48KХолдери:2
    0.09%
  • Рин. кап.:$2.43KХолдери:1
    0.00%
  • Рин. кап.:$2.45KХолдери:2
    0.00%
  • Рин. кап.:$2.43KХолдери:1
    0.00%
  • Рин. кап.:$2.43KХолдери:1
    0.00%
  • Закріпити