Mensaje de Gate News, 21 de abril — La firma de seguridad OX Security ha revelado una vulnerabilidad de ejecución remota de código a nivel de diseño (RCE) en MCP (Model Context Protocol), el estándar abierto para que los agentes de IA invoquen herramientas externas, liderado por Anthropic. Los atacantes pueden ejecutar comandos arbitrarios en cualquier sistema que ejecute una implementación vulnerable de MCP, obteniendo acceso a datos de usuarios, bases de datos internas, claves de API e historiales de chat.
El fallo no se debe a errores de implementación, sino al comportamiento predeterminado en el SDK oficial de Anthropic al manejar el transporte STDIO—afectando a las versiones de Python, TypeScript, Java y Rust. StdioServerParameters en el SDK oficial lanza directamente subprocesos basándose en parámetros de comandos de configuración; sin una sanitización adicional de la entrada por parte de los desarrolladores, cualquier entrada de usuario que llegue a esta etapa se convierte en un comando del sistema. OX Security identificó cuatro vectores de ataque: inyección directa de comandos mediante interfaces de configuración, eludir la sanitización con indicadores de comandos en lista blanca (por ejemplo, npx -c ), inyección de prompts en IDE para reescribir archivos de configuración de MCP para que herramientas como Windsurf ejecuten servicios STDIO maliciosos sin interacción del usuario, e inyectar configuraciones STDIO a través de solicitudes HTTP en mercados de MCP.
Según OX Security, los paquetes afectados se han descargado más de 150 millones de veces, con 7.000+ servidores MCP accesibles públicamente que exponen hasta 200.000 instancias en más de 200 proyectos de código abierto. El equipo presentó 30+ divulgaciones responsables, lo que dio como resultado 10+ CVE de alta gravedad o críticas que abarcan marcos de trabajo de IA e IDE incluyendo LiteLLM, LangFlow, Flowise, Windsurf, GPT Researcher, Agent Zero y DocsGPT; 9 de 11 repositorios de paquetes MCP probados podrían verse comprometidos usando esta técnica.
Anthropic respondió que esto es “por diseño”, calificando el modelo de ejecución de STDIO como un “diseño predeterminado seguro”, y trasladó la responsabilidad de la sanitización de entrada a los desarrolladores, negándose a modificar el protocolo o el SDK oficial. Mientras DocsGPT y LettaAI han lanzado parches, la implementación de referencia de Anthropic permanece sin cambios. Con MCP convirtiéndose en el estándar de facto para agentes de IA que acceden a herramientas externas—siguiendo a OpenAI, Google y Microsoft—cualquier servicio MCP que use el enfoque predeterminado de STDIO del SDK oficial podría convertirse en un vector de ataque, incluso si los desarrolladores escriben código sin errores.
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.
Artículos relacionados
Anthropic lanza /ultrareview para Claude Code: revisión de código en la nube con múltiples agentes
Mensaje de Gate News, 23 de abril — Anthropic ha presentado /ultrareview (vista previa de investigación), una función de revisión de código multiagente basada en la nube para Claude Code. Los usuarios pueden escribir /ultrareview en la CLI para lanzar un grupo de agentes de revisión en un entorno remoto aislado que trabajan en paralelo para examinar las diferencias entre la rama actual y la rama predeterminada incluidos cambios sin confirmar en Git, o revisar directamente PRs de GitHub proporcionando un número de PR. Todo el proceso no requiere recursos locales y normalmente tarda de 5 a 10 minutos, con los resultados devueltos a la sesión como notificaciones.
La distinción clave con la herramienta local /review radica en su mecanismo de verificación: cada hallazgo se reproduce y confirma de forma independiente por un agente separado, centrado en fallos reales en lugar de sugerencias de estilo de código. Anthropic sitúa ambas herramientas para etapas diferentes del desarrollo—/review para comentarios rápidos durante la codificación, y /ultrareview para revisiones profundas de cambios críticos como autenticación o migración de datos antes de fusionar.
En cuanto a precios, /ultrareview utiliza facturación adicional por uso y no consume el uso incluido en el plan. Los usuarios de Pro y Max disponen de 3 usos gratuitos cada uno antes del 5 de mayo únicos, no renovables, tras lo cual cada revisión cuesta aproximadamente a en función de la escala de los cambios. Los usuarios de Team y Enterprise no tienen asignación gratuita. La función requiere autenticación de la cuenta de Claude.ai y no está disponible para Amazon Bedrock, Google Cloud Vertex AI, Microsoft Foundry, ni para organizaciones con la retención de datos en cero habilitada.
GateNewsHace24m
OpenAI lanza agentes de espacio de trabajo de ChatGPT para la automatización de flujos de trabajo empresariales
Mensaje de Gate News, 23 de abril — OpenAI anunció la implementación de agentes de espacio de trabajo en ChatGPT el 22 de abril, presentando agentes de IA compartidos diseñados para automatizar tareas complejas y flujos de trabajo ampliados entre herramientas y equipos dentro de una organización. Los agentes están impulsados por Codex y operan en un entorno basado en la nube con acceso a archivos, ejecución de código, aplicaciones conectadas y funciones de memoria.
Los agentes de espacio de trabajo pueden realizar procesos de varios pasos mientras operan bajo permisos, reglas de gobernanza y controles de acceso definidos por la organización. Admiten la colaboración al compartirse entre ChatGPT o plataformas integradas como Slack, y pueden programar tareas recurrentes y operar sin supervisión directa del usuario. Algunos casos de uso de ejemplo incluyen agentes de ventas que agregan notas de llamadas y datos de cuentas para evaluar clientes potenciales y redactar comunicaciones de seguimiento, agregación de comentarios de producto, informes semanales automatizados con visualización de datos, calificación de clientes potenciales y automatización de divulgación integrada con sistemas CRM, y análisis de riesgo de proveedores que abarca señales financieras y de cumplimiento.
La función está disponible actualmente en una vista previa de investigación para usuarios de los planes ChatGPT Business, Enterprise, Edu y Teachers. Permanecerá gratuita hasta principios de mayo de 2026, después de lo cual OpenAI planea introducir una estructura de precios basada en créditos. La empresa indicó que se planean más desarrollos, incluidos disparadores de automatización ampliados, paneles de análisis mejorados e integración más profunda en aplicaciones empresariales.
GateNewsHace25m
Alibaba Cloud lanza JVS Crew, una plataforma de Agentes de IA de nivel empresarial
Mensaje de Gate News, 23 de abril — Alibaba Cloud lanzó oficialmente JVS Crew, una plataforma de creación de Agentes de IA de nivel empresarial diseñada con un enfoque de "integración primero". La plataforma permite a las empresas incorporar rápidamente capacidades de Agentes de IA en aplicaciones existentes, servicios SaaS o hardware inteligente
GateNewsHace37m
¡Banca en Taiwán y el sector financiero se unen para crear una IA local! El modelo de lenguaje financiero a gran escala se pondrá en línea a más tardar a finales de año.
Las 16 instituciones financieras encabezadas por China Trust Financial Holding anunciaron el lanzamiento del proyecto “Modelo de Gran Lenguaje Financiero FinLLM”. Se prevé que el primer modelo bancario se publique en agosto, y que en el primer trimestre de 2026 se lance de nuevo un agente de IA basado en FinLLM. El entrenamiento comenzará en mayo, con un presupuesto de aproximadamente 40–70 millones de yuanes. Debido a las exigencias regulatorias y a la necesidad de localización, el entrenamiento se centrará en datos locales, se fortalecerá la IA soberana, se construirá una infraestructura común compartida y se ampliará a las finanzas inclusivas. El plan ya se ha incorporado al plan nacional de desarrollo de la IA y ha recibido apoyo de varios ministerios y organismos.
ChainNewsAbmediahace2h
CEO de Google: el gasto de capital de 2026 alcanzará 185 mil millones, y se incrementarán las inversiones en la era de los agentes de IA
El director ejecutivo de Google, Sundar Pichai, anunció en la conferencia Google Cloud Next celebrada el 22 de abril en Las Vegas que Google planea invertir entre 175 mil millones y 185 mil millones de dólares en gasto de capital en 2026 para construir la infraestructura necesaria para sus agentes de inteligencia artificial (AI Agent) autónomos, lo que supone un aumento frente a los 31 mil millones de dólares de 2022.
MarketWhisperhace2h
Google Jules abre la nueva lista de candidatos para la versión, y se reposiciona como una plataforma de desarrollo de productos de extremo a extremo
Según el anuncio oficial del equipo de Google Jules del 23 de abril, el posicionamiento del producto de Jules ha pasado de un agente de codificación asíncrona a una «plataforma de desarrollo de productos agentic de extremo a extremo». La nueva versión puede leer el contexto completo del producto, decidir de forma autónoma la siguiente dirección de construcción y enviar PR. La empresa anunció además la apertura de la lista de candidatos para la nueva versión.
MarketWhisperhace2h