La cantidad de tráfico generado por agentes de IA ya supera al de los humanos, representando el 51% de toda la actividad en la red. Sin embargo, la confianza en los agentes completamente autónomos ha caído del 43% al 22%. Para que la economía de los agentes funcione realmente, son indispensables tres capas de infraestructura: descubribilidad, autenticación e sistemas de reputación. Este artículo se basa en el escrito de Vaidik Mandloi titulado “Know your Agent”, editado y traducido por Dongqu.
(Resumen previo: Rusia planea implementar una “Ley de Monedas Estables” que podría entrar en vigor en julio de este año, apostando por el potencial de las monedas estables en pagos transfronterizos)
(Información adicional: ¡El FBI de EE.UU. arrestó a John Daghita! Tras robar 46 millones de dólares en activos criptográficos del gobierno, su ostentación de riqueza lo delató)
La promesa de que los agentes de IA transformarán el panorama de Internet se está convirtiendo en realidad. Ya no son solo herramientas experimentales en ventanas de chat, sino partes esenciales de nuestra operación diaria—desde limpiar bandejas de entrada, programar reuniones hasta responder a tickets de soporte. Están aumentando la productividad silenciosamente, aunque a menudo pasamos por alto estos cambios.
Pero este crecimiento no es solo un rumor.
Para 2025, el tráfico generado por IA superará al humano, representando el 51% de toda la actividad en línea. Solo en sitios minoristas en EE.UU., el tráfico impulsado por IA ha crecido un 4700% en comparación con el año anterior. Los agentes de IA ahora operan en múltiples sistemas, muchos pueden acceder a datos, activar flujos de trabajo e incluso iniciar transacciones.
No obstante, la confianza en los agentes totalmente autónomos ha disminuido del 43% al 22% en un año, en gran parte debido al aumento de incidentes de seguridad. Casi la mitad de las empresas aún usan claves API compartidas para autenticar agentes, método que nunca fue diseñado para transferir valor o actuar de forma independiente.
El problema radica en que la expansión de los agentes supera la infraestructura diseñada para gobernarlos.
En respuesta, están surgiendo nuevas capas de protocolos. Monedas estables, integraciones con redes de tarjetas y estándares nativos como x402 permiten transacciones iniciadas por máquinas. Al mismo tiempo, se desarrollan nuevas capas de identidad y autenticación para que los agentes puedan identificarse y operar en entornos estructurados.
Pero pagar no equivale a tener una economía. Cuando los agentes puedan transferir valor, surgirán problemas más fundamentales: ¿cómo descubren servicios adecuados en un formato legible por máquina? ¿Cómo prueban su identidad y autorización? ¿Cómo verificamos que las operaciones que afirman haber realizado realmente ocurrieron?
Este artículo explora la infraestructura necesaria para la ejecución a gran escala de una economía impulsada por agentes, y evalúa si estas capas están lo suficientemente maduras para soportar participantes persistentes y autónomos que operan a velocidad de máquina.
Antes de que un agente pueda pagar por un servicio, debe encontrarlo. Parece simple, pero en realidad es la mayor fricción actual.
Internet fue construido para que los humanos lean páginas. Cuando buscan contenido, los motores de búsqueda devuelven enlaces clasificados. Estas páginas están optimizadas para persuadir. Están llenas de diseños, rastreadores, anuncios, barras de navegación y estilos, que tienen sentido para las personas, pero para las máquinas son principalmente “ruido”.
Cuando un agente solicita la misma página, recibe HTML en bruto. Un artículo típico de blog o una página de producto puede requerir unas 16,000 tokens en esa forma. Convertido a Markdown limpio, el conteo cae a unas 3,000 tokens. Esto significa que el modelo debe procesar un 80% menos de contenido. Para una sola solicitud, esta diferencia puede no ser significativa. Pero si un agente realiza miles de estas solicitudes en diferentes servicios, el procesamiento excesivo se acumula en retrasos, costos y mayor complejidad de razonamiento.
@Cloudflare
Al final, los agentes gastan mucho poder computacional en eliminar elementos de interfaz para acceder a la información central necesaria para actuar. Este esfuerzo no mejora la calidad de la salida, solo compensa una red que nunca fue diseñada para ellos.
A medida que el tráfico impulsado por agentes crece, esta ineficiencia se vuelve más evidente. La rastreabilidad de IA en sitios minoristas y de software ha aumentado significativamente en el último año, representando ahora la mayor parte del tráfico en línea.
Al mismo tiempo, aproximadamente el 79% de los principales sitios de noticias y contenido bloquean al menos un rastreador de IA. Desde su perspectiva, es comprensible: los agentes extraen contenido sin interactuar con anuncios, suscripciones o embudos de conversión tradicionales. Bloquearles protege los ingresos.
El problema es que la web no tiene un método confiable para distinguir entre bots maliciosos y agentes legítimos. Ambos aparecen como tráfico automático, provenientes de infraestructura en la nube. Para los sistemas, parecen iguales.
Un problema aún más profundo es que los agentes no intentan “consumir” la página, sino descubrir qué acciones son posibles.
Cuando un humano busca “vuelos por menos de 500 dólares”, una lista de enlaces clasificados basta. La persona puede comparar opciones y decidir. Pero cuando un agente recibe la misma instrucción, necesita algo muy diferente: saber qué servicios aceptan reservas, qué formato de entrada requieren, cómo se calculan los precios y si el pago puede liquidarse programáticamente. Muy pocos servicios publican claramente esta información.
@TowardsAI
Por eso, la búsqueda se está desplazando del SEO (optimización para motores de búsqueda) hacia la descubribilidad orientada a agentes (Agent-Oriented Discoverability), conocida como AEO. Si el usuario final es un agente, la clasificación en la página de búsqueda importa menos. Lo crucial es que el servicio pueda describir sus capacidades en un formato que los agentes puedan interpretar sin conjeturas. Si no, puede volverse “invisible” en la creciente economía de actividad.
@Hackernoon
Una vez que un agente puede descubrir servicios y realizar transacciones, el siguiente problema clave es que la otra parte del sistema sepa con quién está tratando. Es decir: identidad.
Hoy en día, los sistemas financieros ejecutan muchas más identidades de máquinas que humanas. En finanzas, la proporción de identidades no humanas frente a humanas es aproximadamente 96 a 1. API, cuentas de servicio, scripts automatizados y agentes internos dominan la infraestructura institucional. La mayoría nunca fueron diseñados para tener control sobre capital. Ejecutan instrucciones predefinidas, sin capacidad de negociar, escoger proveedores o iniciar pagos en redes abiertas.
Los agentes autónomos cambian esa frontera. Si un agente puede mover directamente monedas estables o activar procesos de liquidación sin confirmación manual, la cuestión central pasa de “¿puede pagar?” a “¿quién le autoriza a pagar?”.
Aquí es donde la identidad se vuelve fundamental, y surge el concepto de “Know Your Agent” (Conoce a tu Agente).
Al igual que las instituciones financieras verifican a los clientes antes de permitirles operar, los servicios que interactúan con agentes autónomos deben verificar tres cosas antes de otorgar acceso a capital o realizar operaciones sensibles:
Estas verificaciones conforman una pila de identidad:
Simultáneamente, protocolos como UCP, liderados por Google y Shopify, permiten a los comerciantes publicar “listas de capacidades” que los agentes pueden descubrir y negociar. Esto actúa como un orquestador, con planes de integrarse en Google Search y Gemini.
@FintechBrainfood
Una diferencia importante es que los sistemas sin permisos y con permisos coexistirán.
En blockchains públicas, los agentes pueden operar sin un umbral centralizado, lo que aumenta la velocidad y la composabilidad, pero también la presión regulatoria. La adquisición de Bridge por parte de Stripe ejemplifica esta tensión. Las monedas estables permiten transferencias transfronterizas en tiempo real, pero las obligaciones regulatorias no desaparecen solo porque la liquidación ocurra en la cadena.
Esta tensión inevitablemente involucra a los reguladores. Cuando los agentes autónomos puedan iniciar transacciones financieras y operar en mercados sin supervisión humana directa, la responsabilidad se vuelve ineludible. Los sistemas financieros no pueden permitir que el capital fluya a actores no identificados o no autorizados, incluso si son fragmentos de software.
Ya se están adoptando marcos regulatorios. La “Ley de IA de Colorado” entra en vigor el 1 de febrero de 2026, estableciendo requisitos de responsabilidad para sistemas automatizados de alto riesgo, y legislaciones similares avanzan globalmente. A medida que los agentes comiencen a tomar decisiones financieras a gran escala, la identidad dejará de ser opcional. Si la descubribilidad hace a los agentes visibles, la identidad será la credencial que los valide.
Cuando los agentes comienzan a ejecutar tareas que involucran dinero, contratos o información sensible, tener solo identidad no basta. Un agente verificado aún puede crear ilusiones, distorsionar su trabajo, filtrar información o actuar de manera ineficiente.
Por eso, la pregunta clave es: ¿cómo demostrar que el agente realmente completó lo que afirmó?
Si un agente declara haber analizado 1,000 archivos, detectado patrones de fraude o ejecutado estrategias de trading, debe existir un método para verificar que ese cálculo ocurrió realmente y que la salida no fue falsificada o dañada. Para ello, necesitamos una capa de rendimiento que lo garantice.
Actualmente, hay tres enfoques:
Estas mecanismos abordan el mismo problema desde diferentes ángulos. Sin embargo, las pruebas de ejecución son puntuales. Verifican tareas individuales, pero el mercado necesita algo acumulativo. Aquí es donde la reputación se vuelve crucial.
La reputación convierte pruebas aisladas en un historial de rendimiento a largo plazo. Los sistemas emergentes buscan que la efectividad del agente sea portable y esté encriptada, en lugar de depender de evaluaciones en plataformas específicas o paneles internos opacos.
Ethereum Attestation Service (EAS) permite a usuarios o servicios publicar pruebas firmadas en cadena sobre el comportamiento del agente. Una tarea exitosa, una predicción precisa o una transacción conforme pueden quedar registradas de forma inmutable y trasladarse entre aplicaciones.
@EAS
También se están formando entornos de evaluación competitiva. Los Agent Arenas evalúan agentes en tareas estandarizadas y usan sistemas de puntuación como Elo. Recall Network reportó que más de 110,000 participantes generaron 5.88 millones de predicciones, creando datos medibles de rendimiento. Con la expansión de estos sistemas, empiezan a parecerse a mercados reales de calificación de agentes IA.
Esto permite que la reputación sea portable entre plataformas.
En finanzas tradicionales, agencias como Moody’s califican bonos para emitir señales de crédito. La economía de los agentes necesitará una capa equivalente para evaluar a los actores no humanos. El mercado requerirá juzgar si un agente es confiable para delegar capital, si sus salidas son estadísticamente consistentes y si puede mantener un comportamiento estable a largo plazo.
A medida que los agentes adquieran autoridad real, el mercado necesitará un método claro para medir su confiabilidad. Los agentes portarán registros verificables de rendimiento basados en pruebas de ejecución y evaluaciones de referencia, con calificaciones ajustadas por calidad y permisos trazables a autorizaciones explícitas. Los aseguradores, comerciantes y sistemas regulatorios dependerán de estos datos para decidir qué agentes pueden acceder a capital, datos o flujos regulados.
En resumen, estas capas comienzan a constituir la infraestructura de la economía de los agentes: