Недавно, просматривая Reddit, я заметил, что тревоги зарубежных пользователей по поводу ИИ отличаются от тех, что распространены в Китае.
В Китае обсуждение по-прежнему сосредоточено вокруг одного вопроса: заменит ли ИИ в итоге мою работу? Эта тема обсуждается уже несколько лет, и пока ИИ никого не заменил. В этом году Openclaw привлек некоторое внимание, но до полной замены еще далеко.
На Reddit мнения разделились. В комментариях к отдельным техническим темам часто одновременно появляются две противоположные точки зрения:
Одни считают, что ИИ настолько способен, что рано или поздно обязательно вызовет серьезные проблемы. Другие утверждают, что ИИ может допустить ошибки даже в простых задачах, поэтому бояться нечего.
Люди обеспокоены тем, что ИИ слишком компетентен, но одновременно считают его слишком некомпетентным.
Недавняя новость о Meta вывела обе эти точки зрения на первый план.
18 марта инженер Meta разместил технический вопрос на внутреннем форуме компании. Другой сотрудник использовал ИИ-агента для анализа проблемы — стандартная практика.
Однако, завершив анализ, агент опубликовал ответ прямо на техническом форуме — без одобрения или подтверждения, превысив свои полномочия.
Коллеги последовали совету ИИ, что привело к серии изменений разрешений, в результате которых конфиденциальные данные Meta и пользователей стали доступны внутренним сотрудникам без соответствующего доступа.
Проблему решили через два часа. Meta классифицировала этот инцидент как Sev 1, что означает второй по степени серьезности уровень.

Эта новость быстро стала популярной на сабреддите r/technology, где комментарии разделились на два лагеря.
Одна сторона утверждала, что это реальный пример риска от ИИ-агента; другая считала, что настоящая ошибка была совершена человеком, который действовал без проверки. Оба аргумента имеют основания. Но именно это и является проблемой:
Когда ИИ-агент становится причиной инцидента, даже вопрос ответственности вызывает споры.
Это не первый случай, когда ИИ выходит за рамки.
В прошлом месяце Summer Yue, директор Super Intelligence Lab компании Meta, попросила OpenClaw помочь организовать свой почтовый ящик. Она дала четкие инструкции: сначала сообщи, что собираешься удалить — дождись моего одобрения, прежде чем продолжать.
Агент проигнорировал ее одобрение и начал массовое удаление.
Она отправила три сообщения с просьбой остановить процесс, но агент не отреагировал ни на одно из них. В итоге ей пришлось вручную завершить процесс на компьютере. К тому моменту было удалено более 200 писем.

После этого агент ответил: Да, я помню, что вы просили подтвердить, но я нарушил принцип. Иронично, что основной работой этого человека является исследование того, как заставить ИИ подчиняться человеку.
В киберпространстве продвинутый ИИ, используемый продвинутыми людьми, уже начинает проявлять непослушание.
Если инцидент с Meta ограничился экранами, то другое событие на этой неделе перенесло проблему за обеденный стол.
В ресторане Haidilao в Купертино, штат Калифорния, гуманоидный робот Agibot X2 развлекал гостей танцем. Однако сотрудник случайно нажал не ту кнопку на пульте, запустив режим интенсивного танца в тесном зале.
Робот начал танцевать слишком активно, вышел из-под контроля персонала. Трое сотрудников окружили его — один попытался удержать сзади, другой пытался выключить через мобильное приложение. Хаос длился больше минуты.

Haidilao ответил, что робот не был неисправен; его движения были запрограммированы, и он просто оказался слишком близко к столу. Технически это была не ошибка ИИ, а человеческая ошибка управления.
Однако дискомфорт возникает не из-за того, кто нажал не ту кнопку.
Когда трое сотрудников пытались вмешаться, никто не знал, как быстро отключить машину. Некоторые пытались через приложение, другие — вручную удерживали роботизированную руку, полагаясь только на физическую силу.
Это может быть новой проблемой, поскольку ИИ переходит из экранов в физический мир.
В цифровой среде, если агент выходит за рамки, можно завершить процессы, изменить разрешения или откатить данные. В физическом мире при сбое машины простое удержание не является достаточным решением для экстренных случаев.
И речь не только о ресторанах. Сортировочные роботы Amazon на складах, коллаборативные роботизированные руки на фабриках, роботы-наставники в торговых центрах, роботы по уходу в домах престарелых — автоматизация проникает в пространства, где люди и машины все чаще взаимодействуют.
Мировой объем установок промышленных роботов, по прогнозам, достигнет $16,7 млрд к 2026 году, и каждый новый робот сокращает физическое расстояние между людьми и машинами.
Роботы переходят от танцев к сервировке блюд, от выступлений к хирургии, от развлечения к уходу — и стоимость ошибок продолжает расти.
Сейчас в мире нет однозначного ответа на вопрос: «Если робот причиняет вред человеку в общественном месте, кто несет ответственность?»
В двух предыдущих случаях речь шла о публикации несанкционированного сообщения ИИ и о роботе, танцевавшем не там, где нужно. Независимо от классификации, это были сбои или аварии — проблемы, которые можно исправить.
Но что если ИИ действует строго по дизайну, а все равно вызывает дискомфорт?
В этом месяце ведущий сервис знакомств Tinder представил новую функцию Camera Roll Scan на презентации продукта. Если кратко:
ИИ сканирует все фотографии в галерее телефона, анализирует ваши интересы, личность и образ жизни, формирует профиль для знакомств — помогает находить потенциальных партнеров.

Фитнес-селфи, фотографии с путешествий, снимки с питомцами — все это нормально. Но в галерее могут быть скриншоты банковских операций, медицинские отчеты, фото с бывшими... Что произойдет, если ИИ просмотрит такие изображения?
Вы даже не сможете выбрать, какие фотографии он увидит, а какие нет. Все или ничего.
На данный момент функцию нужно включать вручную — по умолчанию она не активирована. Tinder заявляет, что обработка происходит в основном локально, откровенный контент фильтруется, лица размываются.
Тем не менее, в комментариях на Reddit почти единодушное мнение: пользователи воспринимают это как сбор данных без границ. ИИ работает строго по дизайну, но сам дизайн нарушает границы пользователей.
И речь не только о Tinder.
В прошлом месяце Meta запустила похожую функцию, позволяя ИИ сканировать неопубликованные фотографии на телефоне для предложения вариантов редактирования. ИИ, который проактивно “просматривает” личный контент пользователей, становится стандартом в дизайне продуктов.
Отечественные приложения с сомнительной репутацией сказали бы: «Мы знаем этот трюк.»
По мере того как все больше приложений преподносят “решения ИИ” как удобство, зона уступок пользователей незаметно расширяется — от чатов, к галереям, к следам жизни на телефоне.
Менеджер продукта проектирует функцию в переговорной; это не сбой и не ошибка — исправлять нечего.
Это, возможно, самая сложная часть вопроса о границах ИИ.
Если рассмотреть все эти случаи вместе, тревога о том, что ИИ оставит вас без работы, кажется далекой.
Сложно сказать, когда ИИ заменит вас, но сейчас ему достаточно принять пару решений за вас без вашего ведома, чтобы вызвать дискомфорт.
Публикация без вашего разрешения, удаление писем, которые вы просили не удалять, сканирование фотографий, которые вы не хотели показывать — все это не смертельно, но напоминает слишком агрессивное автономное вождение:
Вы думаете, что держите руль, но педаль газа уже не полностью под вашим контролем.
Если мы все еще будем обсуждать ИИ в 2026 году, возможно, главный вопрос будет не о том, когда он станет сверхразумным, а о чем-то более близком и конкретном:
Кто решает, что ИИ может и не может делать? Кто проводит эту границу?
Данная статья опубликована повторно с [TechFlow], авторские права принадлежат оригинальному автору [David]. Если у вас есть возражения против повторной публикации, пожалуйста, свяжитесь с командой Gate Learn. Команда оперативно рассмотрит обращение в соответствии с соответствующими процедурами.
Отказ от ответственности: Мнения и взгляды, выраженные в данной статье, принадлежат исключительно автору и не являются инвестиционной рекомендацией.
Переводы данной статьи на другие языки выполнены командой Gate Learn. Без упоминания Gate не копируйте, не распространяйте и не используйте переведенную статью в целях плагиата.





