OpenClaw — плохой парень среди AI-агентов. Вот почему эксперты по безопасности предупреждают вас быть осторожными

Добро пожаловать в Eye on AI с репортером Шэрон Голдман. В этом выпуске: дикая сторона OpenClaw… новая суперкампания Anthropic на 20 миллионов долларов против OpenAI… OpenAI выпускает свою первую модель, предназначенную для сверхбыстрой генерации… Anthropic компенсирует рост цен на электроэнергию для своих дата-центров ИИ… Isomorphic Labs заявляет, что открыла новую биологическую границу за пределами AlphaFold.

Рекомендуемое видео


OpenClaw за последние несколько недель показал, насколько безрассудными могут стать агенты ИИ — и при этом привлек преданных последователей.

Бесплатный, открытый автономный агент искусственного интеллекта, разработанный Питером Штайнбергером и изначально известный как ClawdBot, берет чат-ботов, которых мы знаем и любим — таких как ChatGPT и Claude — и наделяет их инструментами и автономией для прямого взаимодействия с вашим компьютером и другими устройствами через интернет. Представьте отправку электронных писем, чтение ваших сообщений, заказ билетов на концерт, бронирование ресторанов и многое другое — предположительно, пока вы отдыхаете и едите конфеты.

Проблема с предоставлением OpenClaw исключительных полномочий для выполнения крутых вещей? Неудивительно, что это также дает ему множество возможностей делать то, чего не следует, включая утечку данных, выполнение непреднамеренных команд или тихое захват системы злоумышленниками через вредоносное ПО или так называемые «prompt injection» атаки (когда злоумышленник вставляет вредоносные инструкции в данные, которые использует агент ИИ).

По словам двух экспертов по кибербезопасности, с которыми я общался на этой неделе, волнение вокруг OpenClaw связано с тем, что у него практически нет ограничений, что дает пользователям широкие возможности для настройки по своему усмотрению.

«Единственное правило — это отсутствие правил», — сказал Бен Серри, соучредитель и технический директор Zafran Security, специализирующейся на управлении угрозами для корпоративных клиентов. «Это часть игры». Но эта игра может превратиться в кошмар с точки зрения безопасности, поскольку правила и границы — это основа защиты от хакеров и утечек.

Классические опасения по безопасности

Эти опасения довольно типичны, говорит Колин Ши-Блимейр, научный сотрудник Центра безопасности и новых технологий Джорджтаунского университета (CSET), где он занимается проектом CyberAI. Неправильная настройка разрешений — кто или что может делать что — означает, что люди могут случайно дать OpenClaw больше полномочий, чем они предполагают, и злоумышленники могут этим воспользоваться.

Например, в OpenClaw большая часть риска связана с так называемыми «навыками», которые по сути являются приложениями или плагинами, которые агент ИИ может использовать для выполнения действий — например, доступ к файлам, просмотр веб-страниц или запуск команд. Разница в том, что, в отличие от обычного приложения, OpenClaw сам решает, когда использовать эти навыки и как их связывать, что может быстро привести к серьезным последствиям из-за небольшой ошибки в разрешениях.

«Представьте, что он использует его для доступа к странице бронирования ресторана, а также имеет доступ к вашему календарю с личной информацией», — сказал он. «Или что если это вредоносное ПО и оно находит неправильную страницу и устанавливает вирус?»

OpenClaw действительно содержит разделы по безопасности в своей документации и старается держать пользователей в курсе и бдительными, отметил Ши-Блимейр. Но вопросы безопасности остаются сложными техническими проблемами, которые большинство обычных пользователей вряд ли полностью поймут. И хотя разработчики OpenClaw могут усердно работать над устранением уязвимостей, они не могут легко решить основную проблему — возможность агента действовать самостоятельно, — что и делает систему такой привлекательной.

«Это основное противоречие в таких системах», — сказал он. «Чем больше доступа вы им предоставляете, тем более увлекательными и интересными они становятся — но и тем опаснее».

Корпоративные компании будут медленно внедрять

Серри из Zafran Security признал, что маловероятно, что пользователи перестанут интересоваться системой вроде OpenClaw, хотя он подчеркнул, что корпоративные компании будут гораздо медленнее принимать такую неконтролируемую и небезопасную систему. Для обычного пользователя, по его словам, стоит относиться к экспериментам как к работе в химической лаборатории с очень взрывоопасным материалом.

Ши-Блимейр отметил, что хорошо, что OpenClaw сначала появился на уровне хобби. «Мы узнаем много о экосистеме, прежде чем кто-либо попробует его на уровне предприятия», — сказал он. «ИИ-системы могут провалиться так, как мы даже представить не можем», — объяснил он. «[OpenClaw] может дать нам много информации о том, почему разные большие языковые модели ведут себя так, как ведут, и о новых проблемах безопасности».

Но хотя сегодня OpenClaw — это эксперимент для любителей, эксперты по безопасности видят в нем предварительный просмотр того, какие автономные системы рано или поздно начнут внедрять предприятия.

Пока, если только кто-то не хочет стать объектом исследования в области безопасности, обычному пользователю лучше держаться подальше от OpenClaw, сказал Ши-Блимейр. Иначе не удивляйтесь, если ваш личный помощник на базе ИИ начнет заходить в очень опасные территории.

А теперь — еще новости об ИИ.

Шэрон Голдман
sharon.goldman@fortune.com
@sharongoldman

FORTUNE О ИИ

Вирусный блог Мэтта Шумера о грядущем влиянии ИИ на работников знаний основан на ошибочных предположениях — Джереми Канн

Генеральный директор Capgemini предупреждает. Вы, возможно, неправильно представляете себе ИИ — Камал Ахмед

Лидер Google, удостоенный Нобелевской премии по ИИ, видит впереди «ренессанс» — после 10- или 15-летнего кризиса — Ник Лихтенберг

X-odus: половина основателей xAI покинула компанию Илона Маска, что может усложнить его планы по первому публичному размещению SpaceX — Беатрис Нолан

OpenAI оспаривает заявление надзорных органов о нарушении нового закона Калифорнии о безопасности ИИ с помощью последней модели — Беатрис Нолан

НОВОСТИ ИИ

Новая суперкампания Anthropic на 20 миллионов долларов против OpenAI. Согласно The New York Times, Anthropic выделила 20 миллионов долларов на работу суперкампании, направленной на поддержку кандидатов, выступающих за усиление безопасности и регулирования ИИ, что создает прямое противостояние перед промежуточными выборами. Финансирование будет осуществляться через некоммерческую организацию Public First Action и связанные с ней PAC, в противовес суперкампании Leading the Future, поддерживаемой в основном президентом и соучредителем OpenAI Грегом Брокманом и венчурной компанией Andreessen Horowitz. Хотя Anthropic не назвала прямо OpenAI, она предупредила, что «огромные ресурсы» направлены на противодействие усилиям по обеспечению безопасности ИИ, что подчеркивает углубляющийся разрыв внутри индустрии по поводу того, насколько строго должны регулироваться мощные модели — и сигнализирует, что борьба за управление ИИ теперь происходит не только в лабораториях и на совещаниях, но и на избирательных участках.

Мухтасар Сулейман планирует автономность ИИ, пока Microsoft ослабляет связи с OpenAI. В газете Financial Times сообщается, что Microsoft движется к тому, что его руководитель по ИИ Мухтасар Сулейман называет «истинной автономностью» в области искусственного интеллекта, ускоряя создание собственных базовых моделей и сокращая долгосрочную зависимость от OpenAI, несмотря на то, что остается одним из крупнейших инвесторов стартапа. В интервью Сулейман заявил, что этот сдвиг последовал за реструктуризацией отношений Microsoft с OpenAI в октябре прошлого года, которая сохранила доступ к самым передовым моделям OpenAI до 2032 года, а также дала создателю ChatGPT больше свободы искать новых инвесторов и партнеров — потенциально превращая его в конкурента. Сейчас Microsoft активно инвестирует в вычислительные мощности на гигаваттном уровне, дата-пайплайны и элитные команды исследований ИИ, планируя запустить собственные модели уже в этом году, ориентированные на автоматизацию офисной работы и расширение доли рынка предприятий с помощью так называемого «профессионального уровня AGI».

OpenAI выпускает свою первую модель, предназначенную для сверхбыстрой генерации. OpenAI представила предварительный исследовательский образец GPT-5.3-Codex-Spark — первого продукта своего партнерства с Cerebras, использующего их чиповую AI-аппаратную платформу для обеспечения сверхнизкой задержки и реального времени при кодировании в Codex. Модель меньшего размера, упрощенная версия GPT-5.3-Codex, оптимизирована для скорости, а не максимальной мощности, и генерирует ответы в 15 раз быстрее, что позволяет разработчикам вносить целенаправленные правки, менять логику и взаимодействовать без долгих ожиданий. Изначально доступна как исследовательский предварительный просмотр для пользователей ChatGPT Pro и небольшого числа API-партнеров, этот релиз подчеркивает растущее внимание OpenAI к скорости взаимодействия, поскольку агенты ИИ берут на себя более автономные и долгосрочные задачи — ранний пример того, что может дать ускоренная обработка.

Anthropic компенсирует рост цен на электроэнергию для своих дата-центров ИИ. После аналогичного объявления OpenAI в прошлом месяце, Anthropic вчера объявила, что при расширении своих дата-центров ИИ в США она возьмет на себя ответственность за любые повышения стоимости электроэнергии, которые иначе были бы переложены на потребителей, пообещав оплачивать все расходы на подключение к электросетям и модернизацию, запускать новые источники энергии для соответствия спросу и сотрудничать с коммунальными службами и экспертами для оценки и покрытия возможных ценовых эффектов; также планируется инвестировать в технологии снижения потребления энергии и оптимизации электросетей, поддерживать местные сообщества вокруг своих объектов и выступать за более широкие политические реформы для ускорения и снижения стоимости развития энергетической инфраструктуры, утверждая, что создание инфраструктуры ИИ не должно обременять обычных потребителей.

Isomorphic Labs заявляет, что открыла новую биологическую границу за пределами AlphaFold. Компания Isomorphic Labs, связанная с Alphabet и DeepMind, заявила, что их новая система Design Engine представляет собой значительный прорыв в вычислительной медицине, объединяя несколько моделей ИИ в единый движок, способный с беспрецедентной точностью предсказывать взаимодействия биологических молекул. В блоге говорится, что новая система более чем вдвое превзошла предыдущие показатели по ключевым бенчмаркам и обошла традиционные физические методы в задачах предсказания структур белков и лигандов, а также оценки сродства связывания — возможности, которые, по мнению компании, могут значительно ускорить разработку и оптимизацию новых лекарственных кандидатов. Эта система базируется на успехе AlphaFold 3, продвинутой модели ИИ, выпущенной в 2024 году, которая предсказывает 3D-структуры и взаимодействия всех молекул жизни, включая белки, ДНК и РНК. Но компания утверждает, что идет дальше, выявляя новые карманы для связывания, обобщая структуры за пределами обучающих данных и интегрируя эти предсказания в масштабируемую платформу, которая должна сократить разрыв между структурной биологией и реальными разработками лекарств, потенциально меняя подход фармацевтических исследований к сложным мишеням и расширяя возможности в области биологических препаратов.

ЧИСЛА ИИ В ЭКСПЕРТИЗЕ

77%

Это доля специалистов по безопасности, которые сообщают о некотором уровне уверенности в том, что автономные системы ИИ могут действовать без человеческого контроля, хотя они все еще остаются осторожными, согласно новому опросу 1200 специалистов по безопасности, проведенному компанией Ivanti, глобальным поставщиком корпоративного ИТ и программного обеспечения для безопасности. Кроме того, в отчете отмечается, что внедрение агентных ИИ — приоритет для 87% команд безопасности.

Однако главный специалист по безопасности Ivanti, Дэниел Спайсер, считает, что команды безопасности не должны так легко доверять идее развертывания автономных ИИ. Несмотря на оптимизм защитников по поводу потенциала ИИ в кибербезопасности, результаты показывают, что компании все дальше отстают в подготовке к защите от различных угроз.

«Это то, что я называю «дефицитом готовности к кибербезопасности», — написал он в блоге. — Постоянное, ежегодное расширение разрыва в способности организации защищать свои данные, людей и сети от развивающегося технологического ландшафта».

КАЛЕНДАРЬ ИИ

10-11 февраля: Саммит по действиям в области ИИ, Нью-Дели, Индия.

24-26 февраля: Международная ассоциация безопасного и этичного ИИ (IASEAI), ЮНЕСКО, Париж, Франция.

2-5 марта: Mobile World Congress, Барселона, Испания.

16-19 марта: Nvidia GTC, Сан-Хосе, Калифорния.

6-9 апреля: HumanX, Сан-Франциско.

**Присоединяйтесь к нам на Саммите по инновациям в рабочем пространстве Fortune **19–20 мая 2026 года в Атланте. Новая эпоха инноваций в рабочем пространстве уже здесь — и старые правила переписываются. На этом эксклюзивном, насыщенном мероприятии соберутся самые инновационные лидеры мира, чтобы обсудить, как ИИ, человечество и стратегия вновь меняют будущее работы. Регистрируйтесь сейчас.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$2.48KДержатели:2
    0.09%
  • РК:$2.43KДержатели:1
    0.00%
  • РК:$2.45KДержатели:2
    0.00%
  • РК:$2.43KДержатели:1
    0.00%
  • РК:$2.43KДержатели:1
    0.00%
  • Закрепить