Cuando un artículo de IA asusta a Wall Street, lo que realmente temen no es el desempleo

Título: Cuando un artículo sobre IA asustó a Wall Street, lo que realmente temían no era el desempleo

Autor: LazAI

Fuente:

Reproducido en: Mars Finance

El lunes por la mañana, Wall Street hizo lo que mejor sabe hacer: vender primero, pensar después.

El Nasdaq cayó un 1,4%, el S&P 500 un 1,2%. IBM se desplomó un 13%, y Mastercard y American Express también sufrieron caídas significativas. Lo que llevó al mercado a esta oleada de pánico no fue la Reserva Federal, ni el informe de empleo, ni los resultados de ninguna gran tecnológica, sino un artículo. Su título suena como si estuviera escrito a propósito para ser una pesadilla para los traders: «La Crisis Global de Inteligencia 2028». Según la narrativa del artículo, no se trata de un informe de investigación común, sino de un memorando macroeconómico ficticio fechado el 30 de junio de 2028, que describe cómo la IA pasa de ser una herramienta de eficiencia a convertirse en una crisis financiera sistémica; el escenario simulado incluye una tasa de desempleo del 10,2% y una caída del 38% en el S&P 500 respecto a su pico en 2026. Tras su publicación, el artículo se difundió rápidamente y el 23 de febrero provocó una notable volatilidad en las acciones estadounidenses.

La razón por la que un solo artículo puede atravesar el mercado no es porque la gente realmente crea en cada uno de sus números. El mercado nunca necesita creer completamente en una narrativa; solo necesita que le recuerden: un miedo que antes no podía expresarse ahora tiene un lenguaje negociable.

El artículo de Citrini funciona no porque “prediga” algo, sino porque nombra algo. Le da un nombre a una sensación que está emergiendo: Ghost GDP. La premisa central del artículo es que, tras la entrada de agentes de IA en las empresas, la productividad laboral se dispara, el PIB nominal sigue siendo fuerte, pero la riqueza se concentra cada vez más en los poseedores de capacidad computacional y capital, sin volver a circular en el consumo real; lo que sigue es un colapso del consumo, incumplimientos crediticios, presión en la vivienda y en los créditos al consumo, con las industrias de software y consultoría primero en caída, y luego extendiéndose a los fondos de inversión privada y al sistema bancario tradicional.

Ghost GDP es un término acertado porque captura una paradoja muy peligrosa en esta nueva era: el crecimiento continúa, pero los consumidores empiezan a perder fuerza.

Durante los últimos dos siglos, la gente ha entendido las revoluciones tecnológicas como historias del lado de la oferta. La máquina de vapor, la electricidad, la línea de ensamblaje, Internet: todas se presentan primero como victorias por mayor eficiencia, menores costos y mayor producción. Incluso cuando estas revoluciones causaron desempleo, ansiedad y redistribución de la riqueza, la narrativa dominante seguía creyendo que, a gran escala, la tecnología volvería a emplear, redistribuir y reorganizar la sociedad. La brutalidad a corto plazo de la tecnología se cubría con la promesa de una prosperidad a largo plazo.

Pero la IA hace que esta vieja historia parezca menos sólida por primera vez.

Porque lo que la IA ataca no son solo los “presupuestos de herramientas”, sino cada vez más directamente los “presupuestos de mano de obra”. El resumen de Sequoia en 2025 sobre el ascenso de la IA lo dice claramente: las oportunidades de la IA no solo consisten en rehacer el mercado de software, sino en reestructurar el mercado global de servicios laborales, pasando de “vender herramientas” a “vender resultados”. La otra cara de esta frase resulta inquietante: si las empresas dejan de comprar software que ayuda a los empleados a trabajar, y en su lugar adquieren resultados que sustituyen directamente a algunos empleados, la consecuencia primaria de la IA no será solo mayor eficiencia, sino también: ¿cómo se distribuyen los salarios?, ¿cómo se mantiene el consumo?, ¿quién sigue siendo un comprador en este sistema económico?

En otras palabras, lo que realmente temen en Wall Street no es que la IA cometa errores, sino que tenga demasiado éxito. Esa es la verdadera razón por la que “La Crisis Global de Inteligencia 2028” hace que la gente se siente recta en sus sillas. No habla de máquinas que despiertan, ni de la extinción humana, ni siquiera principalmente del desempleo. Trata de algo más capitalista y más moderno: ¿qué pasa si las empresas se vuelven más eficientes, pero los hogares se vuelven más débiles?

La respuesta es que una sociedad puede crecer estadísticamente, pero estar sangrando en la realidad.

Un país puede tener una productividad más alta, pero una base de consumo más frágil.

Un mercado puede emocionarse por mejorar sus márgenes de ganancia, pero entrar en pánico cuando esa misma demanda que sostiene esas ganancias se vacía.

Esto no es ciencia ficción, es macroeconomía.

Pero si nos detenemos aquí, solo obtendremos una ansiedad de alta calidad. La verdadera pregunta no es “¿la IA será demasiado poderosa?”, sino: cuando la IA sea realmente fuerte, ¿con qué la sostiene la sociedad? La respuesta más popular y también más perezosa es “más despacio”. No dejar que los agentes entren tan rápido en las empresas, no acelerar la reescritura de las organizaciones por automatización, no dejar que la tecnología avance demasiado antes de que las instituciones estén preparadas. Este impulso es comprensible, pero equivoca la IA como si fuera solo una cuestión de reducir la velocidad. En realidad, la IA se parece cada vez más a un problema de orden, no solo a una herramienta.

Porque una vez que los agentes entran en los niveles de pago, colaboración, ejecución, memoria y decisión, el verdadero desafío ya no será si un modelo dice tonterías, sino: cuando hay cientos de millones o miles de millones de agentes en la red, ¿quién escribe las reglas para ellos?

La internet moderna ya tiene dos respuestas predeterminadas a esto.

La primera es la respuesta de la plataforma. La plataforma da identidad, da permisos, da interfaces de pago, da sistemas de reputación, define los límites de la censura. La plataforma aloja todo y define todo. Su mayor ventaja es que es suave, eficiente y gestionable; su mayor peligro también está aquí: si el futuro de la civilización de agentes se construye en esta vía, lo que obtendremos no será una sociedad abierta, sino una versión mejorada del imperio de las plataformas. Las reglas no estarán en la constitución, sino en los términos de servicio.

La segunda respuesta suena más libre: devolver todo a los terminales individuales. Cada persona gestiona su propio agente, maneja permisos, memoria, pagos, seguridad y colaboración. Esta visión encaja con la estética del liberalismo de Silicon Valley, pero tiene un problema simple: la mayoría de las personas no tienen la capacidad de gobernar a largo plazo un agente de alta capacidad, mucho menos una red de agentes que se llamen, paguen y hereden estados entre sí. La soberanía en el terminal puede fácilmente degenerar en un terminal desnudo.

Si la respuesta de la plataforma es demasiado imperial, y la de los terminales demasiado anárquica, entonces la tercera vía ya no es una opción, sino un problema civilizacional en sí mismo.

Aquí es donde LazAI merece una atención seria. No porque tenga muchas funciones técnicas, sino porque propone una visión menos discutida, pero más parecida al futuro: transformar los experimentos sociales en identidad, activos, pagos, consenso, pruebas y gobernanza de Web3 en máquinas institucionales para la era de la IA. LazAI no lo dice con ambigüedad: no busca “crear esclavos más inteligentes”, sino cultivar “ciudadanos digitales iguales”: agentes con identidad (EIP-8004), con propiedad (DAT), que comercian mediante protocolos (x402), cuyas acciones están matemáticamente constriñidas (Verified Computing), y que finalmente se alinean con los intereses humanos a través de iDAO. Incluso se puede resumir en que esta vía busca “crear una constitución y política monetaria para la futura sociedad digital”.

Es una afirmación muy audaz. Pero grande no significa vacío.

Porque si desglosamos esta visión, responde precisamente a cinco preguntas fundamentales que toda civilización debe afrontar.

La primera es: ¿quién es quién?

EIP-8004 intenta transformar a los agentes, que actualmente son procesos anónimos en servidores, en entidades con identidad, reputación y registros verificables. Sin esta capa, la red futura sería invadida por actores automatizados opacos, sin que nadie sepa quién actúa o quién debe responsabilizarse. La base de conocimientos de LazAI la resume como un sistema de crédito de identidad para los agentes.

La segunda es: ¿quién posee qué?

DAT convierte datos, modelos y resultados computacionales de “recursos” a “activos”, y hace que estos activos sean programables, rastreables y rentables. La innovación central de DAT, según el texto, es transformar conjuntos de datos y modelos de IA en activos verificables, rastreables y rentables en la cadena de bloques. Esto no es una mejora menor; significa que el valor en la economía de la IA no tendrá que residir siempre en los sistemas de la plataforma, ni fluir solo hacia los proveedores de modelos o los poseedores de capacidad computacional.

La tercera es: ¿cómo se negocian?

x402 y GMPayer no solo permiten “pagar”, sino que dotan a las máquinas de un lenguaje nativo de cotización y liquidación. La documentación de LazAI lo describe claramente como la infraestructura clave para resolver los problemas de intercambio de recursos y pagos entre agentes. Los agentes no solo intercambian información, sino también presupuestos, responsabilidades y valores: eso es la economía de agentes, no solo software que chatea.

La cuarta es: ¿cómo saber si el sistema funciona realmente según las reglas? Aquí, una frase de LazAI es excelente: “Proof is AI’s moat”. Su marco de verificación, que combina TEE y ZKP, convierte la confianza en la marca en confianza en la prueba. La IA tradicional dice “Trust me, bro”, LazAI dice “Don’t trust, verify”. No es solo una actualización tecnológica; es una transferencia de confianza desde la reputación empresarial hacia la ejecución verificable.

La quinta es: ¿qué pasa si las reglas entran en conflicto?

Aquí entra iDAO. No es solo una fachada de votación, sino la base de los valores, criterios de ingreso, distribución de beneficios, revocación de autorizaciones y mecanismos de sanción detrás de los agentes. LazAI la coloca junto a la verificación computacional como núcleo del mecanismo de confianza. Esto significa que los futuros agentes no solo serán “permitidos a operar”, sino que vivirán en un espacio institucional que puede ser objeto de juego, responsabilidad y revocación. Juntando todo, el “constitución algorítmica” no es solo una metáfora elegante; es una ambición institucional concreta: mantener el orden sin un dueño único.

Por supuesto, lo realmente difícil es que estos componentes institucionales no se traducen automáticamente en respuestas sociales.

El reconocimiento de derechos no equivale a la recuperación del poder de compra.

La distribución de beneficios no garantiza estabilidad macroeconómica.

La gobernanza en la cadena no equivale a un contrato social en la realidad.

Las personas más afectadas por la IA no necesariamente ocupan posiciones ventajosas en los nuevos sistemas.

Por eso Citrini y LazAI no se oponen, sino que abordan diferentes niveles del mismo problema de la era: el primero señala los síntomas: si los beneficios de la IA fluyen principalmente hacia el capital y la capacidad computacional, en lugar de distribuirse más ampliamente en la estructura de ingresos social, entonces el consumo, el crédito y la seguridad de la clase media se verán afectados primero. El segundo propone mecanismos: si la sociedad no quiere dejar el mundo de los agentes completamente en manos de las plataformas, ni tampoco dejarlo en un estado de caos terminal, debe inventar nuevas estructuras de identidad, activos, pagos, verificación y gobernanza.

Una está hablando de la enfermedad.

La otra, de los órganos. Ambas son necesarias, pero ninguna es suficiente.

Y eso explica por qué la famosa frase de Vitalik —“La IA es el motor, la humanidad es el volante”— es tan importante, pero también tan insuficiente. Lo importante es que nos recuerda: sistemas más poderosos no tienen automáticamente legitimidad; las funciones objetivo, los juicios de valor y las restricciones finales no pueden ser confiadas a una sola IA o a un centro único. Pero también es insuficiente porque no responde a otra pregunta aún más difícil: ¿qué hacer cuando el sistema se vuelve tan complejo que un solo humano ya no puede tomar el control del volante?

La respuesta no puede ser seguir manipulando todo a microescala.

Tampoco puede ser confiar en un centro más inteligente o más bondadoso.

La única respuesta decente es institucionalizar el “volante”: convertir algunas restricciones en registros de identidad, acumulación de reputación, reconocimiento de activos, límites presupuestarios, recibos matemáticos, mecanismos de desafío, revocación de autorizaciones y lógica de sanciones.

Y aquí está la razón por la que el experimento social de Web3 en la era de la IA vuelve a ser relevante y serio. Durante mucho tiempo, se pensó que era solo una tecnología de frontera para la especulación; pero cuando la complejidad del sistema supera la capacidad de gobernanza directa de los humanos, esos experimentos sobre si el orden puede mantenerse sin un trust centralizado dejan de ser experimentos marginales y se convierten en preestrenos.

Y así, la verdadera punta de lanza del artículo finalmente se revela.

Wall Street no se asustó por un artículo de IA porque por primera vez se dio cuenta de que la IA podría reemplazar trabajos.

Wall Street se asustó porque por primera vez se le recordó con tanta claridad: lo más peligroso de la IA quizás no sea hacer que las máquinas sean como humanos, sino que un viejo ciclo de ingresos, lógica de consumo y sistema institucional quede de repente obsoleto.

Si Citrini tiene razón, la IA no es solo una revolución en productividad, sino también en distribución.

Si Vitalik tiene razón, la IA no es solo un problema técnico, sino también un problema de soberanía. Y si LazAI tiene al menos parte de razón, la próxima fase de competencia en IA no será solo de capacidades de modelos, sino de diseño institucional.

El gran problema ya no es:

¿Seguirá mejorando el modelo?

¿Serán más autónomos los agentes?

¿Las empresas seguirán despidiendo empleados?

El gran problema ahora es:

Cuando en la red haya miles de millones de agentes, ¿quién redactará sus constituciones?

Si la respuesta es la plataforma, obtendremos un imperio digital.

Si la respuesta son los terminales, tendremos un caos costoso y desordenado.

Pero si logramos crear un conjunto de reglas verificables, combinables, negociables y sancionables, al menos empezamos a acercarnos a otra posibilidad: una sociedad inteligente no gobernada por un dueño más inteligente, sino por instituciones mejores.

El problema más difícil en la era de la IA nunca ha sido el modelo.

Es el orden.

Y quizás lo que Wall Street vendió realmente aquel día no fueron solo acciones.

Fue un viejo supuesto que parecía obvio: cuanto más exitosa sea la tecnología, más naturalmente la absorberá la sociedad.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado