Когда статья об ИИ напугала Уолл-стрит, их настоящая страх — это не потеря работы

Заголовок: Когда статья об ИИ напугала Уолл-стрит, их по-настоящему испугало не безработицу

Автор: LazAI

Источник:

Репост: Mars Finance

В понедельник утром Уолл-стрит сделала то, что умеет лучше всего: сначала продала, потом подумала.

NASDAQ упал на 1,4%, S&P 500 — на 1,2%. IBM рухнул на 13%, Mastercard и American Express также значительно снизились. На рынок повлияло не решение ФРС, не отчет по занятости и не финансовые отчеты технологических гигантов, а статья. Ее заголовок звучит так, будто специально написан для трейдеров-кошмаров: «Глобальный кризис интеллекта 2028 года». Согласно сценарию статьи, это не обычный аналитический отчет, а виртуальный макроэкономический меморандум от 30 июня 2028 года, описывающий, как ИИ превращается из инструмента повышения эффективности в системный финансовый кризис; моделируемый финал включает рост безработицы до 10,2%, снижение индекса S&P 500 с пика 2026 года на 38%. После публикации статья быстро распространилась и 23 февраля вызвала значительные колебания на американском рынке.

Причина, по которой статья смогла пробить рынок, не в том, что участники действительно поверили в каждое ее число. Рынок никогда не нуждается в полном доверии к определенному нарративу — ему достаточно напомнить: какая-то изначально невыразимая страховая эмоция уже обрела язык, на котором ее можно торговать.

Статья Citrini эффективна не потому, что она «предсказывает» что-то, а потому, что она назвала что-то. Она дала имя ощущению, которое формируется: Ghost GDP. Основная идея статьи — после внедрения ИИ в бизнес, производительность труда взлетает, номинальный ВВП остается сильным, но богатство концентрируется в руках владельцев вычислительных мощностей и капитала, не попадая в реальный потребительский цикл; далее следуют крах потребления, дефолты по кредитам, давление на ипотеку и потребительское кредитование, сначала падают софт и консалтинг, затем — частные кредиты и традиционная банковская система.

Ghost GDP — хорошее слово, потому что оно захватывает самую опасную парадоксальную суть эпохи: рост продолжается, но потребительский спрос уходит.

За два века люди привыкли считать технологические революции историей предложения. Паровая машина, электричество, конвейеры, интернет — их сначала воспринимали как победу в повышении эффективности, снижении затрат и увеличении производства. Даже если эти революции приводили к безработице, тревоге и перераспределению богатства, мейнстрим уверенно верил, что технологии в конечном итоге создадут новые рабочие места, перераспределят ресурсы и перестроят общество на более крупном масштабе. Краткосрочные жестокости технологий укутывались в обещания долгосрочного процветания.

ИИ впервые ставит под сомнение этот старый рассказ.

Потому что атака ИИ идет не только по «бюджету инструментов», но и все более прямо по «бюджету рабочей силы». В отчете Sequoia 2025 AI Ascent прямо говорится: возможности ИИ — не только в перепроектировании программного рынка, а в перестройке глобального рынка труда, превращая его из «продажи инструментов» в «продажу результатов». Вторая сторона этого утверждения почти тревожит: если компании покупают не программное обеспечение для помощи сотрудникам, а прямо результаты, заменяющие часть работников, то первичные последствия ИИ — не только «повышение эффективности», а также «распределение зарплат, поддержание потребления, кто еще остается платежеспособным в этой системе».

Иными словами, по-настоящему страшит Уолл-стрит не ошибка ИИ, а его успех. Вот что делает «Глобальный кризис интеллекта 2028» особенно тревожным. Он не о пробуждении машин, не о гибели человечества и даже не о безработице. Он о более капиталистическом, более современном вопросе: что произойдет, если компании станут более эффективными, а домашний сектор — более слабым?

Ответ — общество может расти в статистике, но терять в реальности.

Страна может иметь более высокую производительность, но при этом — более хрупкую потребительскую базу.

Рынок может радоваться росту прибыли, но паниковать из-за опустошения спроса, его поддерживающего.

Это не фантастика, а макроэкономика.

Но если остановиться на этом, получится лишь один вид высокого уровня тревоги. Следующий важный вопрос — не «станет ли ИИ слишком мощным», а «что общество сможет удержать, когда ИИ станет действительно сильным». Самый популярный и ленивый ответ — «замедлить». Не пускать агента так быстро в бизнес, не позволять автоматизации так быстро переписывать организации, не давать технологиям развиваться слишком далеко, пока институты не подготовлены. Это понятно, но оно ошибочно воспринимает ИИ как инструмент, который можно замедлить. На самом деле, ИИ все больше превращается не в инструмент, а в вопрос порядка.

Потому что, когда агенты начинают участвовать в платежах, сотрудничестве, исполнении, памяти и принятии решений, настоящая проблема уже не в том, будет ли модель говорить глупости, а в том, кто напишет правила для миллиардов таких агентов.

В современном интернете есть два стандартных ответа.

Первый — платформа. Платформа задает идентичность, права, платежные интерфейсы, системы доверия, границы цензуры. Она управляет всем и определяет все. Ее главный плюс — плавность, эффективность, управляемость; главный риск — именно в этом: если будущее агентское общество построено на таком пути, то человечество получит не открытую демократию, а усовершенствованную версию платформенной империи. Правила не пишутся в конституции, а в условиях использования.

Второй — более свободный: оставить все на индивидуальных устройствах. Каждый управляет своим агентом, сам решает права, память, платежи, безопасность и сотрудничество. Этот сценарий кажется очень привлекательным с точки зрения свободы по каноническому стилю Кремниевой долины, но у него есть простая проблема: большинство людей не способны долго управлять высокоразвитыми агентами, не говоря уже о сети таких агентов, которые вызывают друг друга, платят друг другу и наследуют состояния. Суверенитет на устройстве легко превращается в его полное отсутствие.

Если первый ответ — империя, второй — анархия, то третий путь — не просто альтернатива, а сама суть цивилизации.

Это — то, что LazAI предлагает всерьез. Не потому, что у него много технических модулей, а потому, что он выдвигает более редкую, но более перспективную идею: превратить социальные эксперименты Web3 в области идентичности, активов, платежей, консенсуса, доказательств и управления в систему институтов для эпохи ИИ. LazAI четко формулирует эту цель. Он не создает «более умных рабов», а пытается воспитать «равных цифровых граждан»: агенты с идентичностью (EIP-8004), собственностью (DAT), способные торговать по протоколу (x402), поведение которых ограничено математикой (Verified Computing), и в конечном итоге — согласованы с интересами человека через iDAO. В материалах даже говорится, что это — создание конституции и денежной политики для будущего цифрового общества.

Это очень амбициозное заявление. Но большое — не равно пустое.

Потому что, если разобрать эту концепцию, она отвечает на пять фундаментальных вопросов, которые должен решить любой цивилизационный проект.

Первый — кто есть кто.

EIP-8004 пытается превратить агента из анонимного процесса на сервере в субъект с идентичностью, репутацией и верификационной историей. Без этого уровня будущее сеть будет погружена в непрозрачных автоматизированных субъектов, никто не будет знать, кто действует и кто за что отвечает. В знаниях LazAI это обозначено как система доверия к агентам.

Второй — кто что держит.

DAT превращает данные, модели и вычислительные результаты из «ресурсов» в «активы», которые можно программировать, отслеживать и получать прибыль. В материалах прямо говорится, что ключевое новшество DAT — превращение датасетов и моделей ИИ в проверяемые, отслеживаемые и прибыльные активы на блокчейне. Это не мелкие улучшения. Это означает, что ценность в экономике ИИ не обязательно всегда будет сосредоточена в платформе или у владельцев моделей и вычислительных мощностей.

Третий — как они торгуют.

x402 и GMPayer — не только «можно заплатить», а создают нативный язык ценообразования и расчетов между машинами. В материалах LazAI ясно говорится, что это — инфраструктура для обмена ресурсами и платежами между агентами. Машины не только обмениваются информацией, но и бюджетами, ответственностью и ценностями — вот что такое агентская экономика, а не просто чат-боты.

Четвертый — как убедиться, что система работает по правилам.

Здесь очень хорошо сказано: Proof is AI’s moat. Его система верификации, объединяющая TEE и ZKP, превращает доверие к бренду в доверие к доказательствам. Традиционный ИИ говорит: «Trust me, bro», а LazAI — «Don’t trust, verify». Это не только технологический апгрейд, а перенос доверия с репутации компании на проверяемое исполнение.

Пятый — что делать при конфликте правил.

Это роль iDAO. Он — не просто голосовалка, а система ценностей, критериев допуска, распределения доходов, механизма отмены и наказаний. LazAI ставит его рядом с системой верификации как ядро системы доверия. Это означает, что будущие агенты не просто «разрешены к запуску», а живут в системе, где их действия можно оспорить, привлечь к ответственности и отменить. В совокупности это — не просто «алгоритмическая конституция», а конкретная институциональная амбиция: обеспечить порядок без единого хозяина.

Конечно, самое сложное — то, что эти компоненты не автоматически дают ответ на социальные вопросы.

Право собственности не равно восстановлению покупательной способности.

Долевое участие — не равно макроэкономической стабильности.

Государственное управление на блокчейне — не равно реальному социальному договору.

Пострадавшие от ИИ не обязательно окажутся в выгодных позициях в новых институтах.

Именно поэтому Citrini и LazAI — не противоположные идеи, а разные уровни обсуждения одной эпохи. Первая говорит о симптомах: если выгоды ИИ в основном идут в капитал и вычислительные мощности, а не в более широкие доходы общества, то потребление, кредит и средний класс первыми пострадают. Вторая — о механизмах: если общество не хочет полностью отдавать агентский мир платформам и не хочет его оставить без порядка, нужно изобретать новые структуры идентичности, активов, платежей, верификации и управления.

Одна говорит о болезни.

Другая — о органах.

Обе необходимы, но ни одна не дает полного ответа.

Это объясняет, почему широко цитируемая фраза Виталика — «ИИ — двигатель, человек — рулевое колесо» — так важна и так недостаточна. Важна потому, что напоминает: более мощная система не автоматически обладает легитимностью; цели, ценности и конечные ограничения не должны доверяться одному ИИ или центру. Недостаточно потому, что она не отвечает на более сложный вопрос: что делать, когда система становится настолько сложной, что человек уже не может держать рулевое колесо?

Ответ не может быть в продолжении мелких манипуляций.

Ответ также не в надежде на более умного или доброго центра.

Единственный достойный ответ — институционализировать «руль»: превратить часть ограничений в регистрацию идентичности, накопление репутации, закрепление активов, бюджетные ограничения, математические квитанции, механизмы вызова, отмены и наказания.

Именно поэтому социальные эксперименты Web3 в эпоху ИИ внезапно становятся очень важными. Раньше их воспринимали как спекулятивные технические детали; но когда сложность систем превысит возможности прямого управления человеком, эти эксперименты о «может ли порядок существовать без централизованного доверия» перестанут быть побочным эффектом и станут репетицией будущего.

И тогда истинное острое оружие статьи наконец проявится.

Уолл-стрит напугала не первая статья об ИИ.

Ее напугало то, что ей впервые так прямо напомнили: самая опасная сторона ИИ — не в том, чтобы сделать машины похожими на людей, а в том, чтобы старый цикл доходов, потребительская логика и институты вдруг оказались устаревшими.

Если Citrini прав, то ИИ — не только революция производительности, но и перераспределения.

Если Виталик прав, то ИИ — не только инженерная проблема, а вопрос суверенитета. А если LazAI хотя бы частично прав, то следующая битва за ИИ — не только за модели, а за институты.

Главный вопрос уже не в том, насколько модели станут сильнее.

Не в том, станут ли агенты более автономными.

Не в том, продолжит ли бизнес сокращать штаты.

А в том, кто напишет конституцию для миллиардов агентов, когда сеть станет слишком сложной для человека.

Если ответ — платформа, мы получим цифровую империю.

Если ответ — устройство, мы получим хаос с высокими издержками.

Если ответ — набор проверяемых, комбинируемых, соревнующихся и наказываемых правил, то мы начинаем приближаться к другой возможности: обществу, управляемому не более умным хозяином, а более совершенными институтами.

Самая сложная проблема эпохи ИИ — не модели.

Это — порядок.

И, возможно, в тот день, когда Уолл-стрит продала свои акции, она продала не только бумаги.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить