La inteligencia artificial (IA) produjo un torbellino de avances durante el fin de semana, con renuncias ejecutivas, disputas en el Pentágono, avances en robótica, lanzamientos de modelos empresariales y nuevas herramientas de seguridad que en conjunto muestran una industria acelerándose en casi todos los frentes.
Uno de los desarrollos más destacados ocurrió el 7 de marzo cuando Caitlin Kalinowski, jefa de robótica y hardware de consumo de OpenAI, renunció a la empresa. Kalinowski supuestamente expresó preocupaciones sobre la búsqueda de OpenAI de un contrato con el Pentágono que involucra el despliegue de IA en sistemas gubernamentales clasificados. Se dice que advirtió que la propuesta carecía de salvaguardas suficientes respecto a usos de vigilancia doméstica y la posibilidad de armas autónomas letales.
OpenAI respondió reiterando que la compañía mantiene “líneas rojas” estrictas respecto a ciertas aplicaciones militares. Sin embargo, la salida destaca la creciente tensión entre las ambiciones de IA de Silicon Valley y las prioridades de seguridad nacional de Washington, especialmente a medida que las agencias de defensa exploran cada vez más el uso de sistemas avanzados de IA en operaciones sensibles.
Esas tensiones se intensificaron aún más cuando el Pentágono designó formalmente a Anthropic como un “riesgo en la cadena de suministro” el 5 de marzo. La designación limita a los contratistas de defensa el uso de ciertas versiones del modelo de IA Claude de la compañía en proyectos gubernamentales. La rara etiqueta aplicada a una empresa tecnológica nacional indica cuán agudas están comenzando a chocar las diferencias sobre la seguridad de la IA y su uso militar con la planificación de la defensa nacional.
En medio de esas disputas, una coalición de tecnólogos y responsables políticos presentó una nueva propuesta de gobernanza destinada a guiar la próxima fase del desarrollo de la inteligencia artificial. El 7 de marzo, el físico del MIT Max Tegmark y un grupo bipartidista de investigadores y defensores de políticas introdujeron la “Declaración Pro-Humano”, un marco diseñado para asegurar que el desarrollo de IA permanezca alineado con la supervisión humana y las libertades civiles.
La declaración establece cinco principios fundamentales, incluyendo mantener a los humanos en control final de los sistemas avanzados de IA, prevenir la concentración excesiva de poder en unas pocas empresas, aplicar rigurosas pruebas de seguridad, proteger los derechos civiles y poner límites estrictos a la superinteligencia que se auto-mejora. Sus autores posicionaron la propuesta como una hoja de ruta para los legisladores que enfrentan debates cada vez más complejos sobre políticas de IA.
Mientras los responsables políticos debatían marcos de gobernanza, los investigadores demostraron cuán rápidamente evoluciona la robótica impulsada por IA. Científicos de la Universidad Northwestern revelaron una nueva clase de “metamáquinas” con patas, robots modulares diseñados por IA capaces de adaptar sus formas y seguir operando incluso tras daños físicos severos.
Fuente de la imagen: Noticias de la Universidad Northwestern.
El estudio, publicado en las Actas de la Academia Nacional de Ciencias, muestra robots que pueden ensamblarse en diferentes configuraciones y desplazarse por terrenos irregulares. En las pruebas, algunos robots fueron cortados en partes y aún lograron recuperar movilidad reorganizando sus componentes restantes — un comportamiento que, según los investigadores, podría ser útil en zonas de desastre, misiones de exploración u otros entornos impredecibles.
En el ámbito del software, OpenAI lanzó su familia de modelos GPT-5.4 el 5 de marzo, diseñados específicamente para cargas de trabajo profesionales y empresariales. La versión incluye variantes especializadas Pro y Thinking, con capacidades mejoradas de razonamiento, tareas complejas de codificación y control directo por computadora.
Algunas versiones de GPT-5.4 soportan ventanas de contexto que alcanzan casi un millón de tokens, permitiendo a los usuarios analizar documentos o conjuntos de datos enormes en una sola consulta. OpenAI afirmó que los nuevos modelos buscan reducir las alucinaciones y mejorar la fiabilidad en aplicaciones empresariales como análisis de datos, ingeniería y flujos de trabajo automatizados.
La inteligencia artificial también está demostrando ser útil en la defensa cibernética. Anthropic anunció el 6 de marzo que su modelo Claude IA descubrió 22 vulnerabilidades en el navegador Mozilla Firefox durante una colaboración de dos semanas con Mozilla.
Catorce de esos problemas fueron calificados como de alta gravedad. Los hallazgos resaltan cómo los sistemas avanzados de IA se están usando cada vez más para ayudar en la detección de vulnerabilidades, permitiendo a los equipos de seguridad identificar y corregir fallos mucho más rápido que con auditorías manuales tradicionales.
La última versión de Openclaw, la 2026.3.7, fue lanzada el domingo con una importante actualización en extensibilidad y fiabilidad para el marco de agentes autónomos de código abierto que funciona localmente en casi cualquier plataforma.
La característica principal es el nuevo sistema de plugins ContextEngine con hooks de ciclo de vida completos (arranque, ingestión, compactación, gestión de subagentes, etc.), que da a los desarrolladores y a la comunidad en general la libertad de crear plugins personalizados de gestión de contexto — como lossless-claw — que amplían o modifican el comportamiento central, manteniendo la compatibilidad hacia atrás.
Las principales empresas tecnológicas también compiten por integrar agentes de IA en industrias reales. Amazon Web Services presentó el 5 de marzo Amazon Connect Health, una plataforma compatible con HIPAA diseñada para desplegar agentes de IA en operaciones de salud.
La plataforma puede automatizar la programación de pacientes, asistir con documentación, verificar detalles de seguros y gestionar tareas administrativas, integrándose con sistemas de registros electrónicos de salud. AWS afirma que el sistema busca reducir la carga administrativa para los proveedores de salud y mejorar la coordinación con los pacientes.
OpenAI lanzó otra herramienta empresarial con Codex Security, un agente de IA capaz de escanear bases de código, identificar vulnerabilidades, validar hallazgos y proponer soluciones. Inicialmente lanzada como vista previa de investigación, la herramienta indica cómo la IA se está integrando cada vez más en auditorías de software y seguridad en el desarrollo.
La compañía también presentó un complemento beta de ChatGPT para Microsoft Excel, que permite a los usuarios interactuar con GPT-5.4 directamente dentro de las hojas de cálculo. La integración permite a analistas y equipos de negocio ejecutar modelos de escenarios, analizar conjuntos de datos y generar proyecciones financieras sin salir de Excel, integrando aún más la IA en los flujos de trabajo cotidianos.
Los últimos avances en IA de las últimas 48 horas muestran una industria que avanza en múltiples frentes simultáneamente — desde robótica y ciberseguridad hasta automatización en salud y debates geopolíticos sobre el papel de la IA en la defensa nacional. Los desarrollos también revelan una creciente lucha entre innovación y supervisión, mientras gobiernos, investigadores y gigantes tecnológicos se esfuerzan por definir límites mientras la tecnología continúa avanzando más rápido de lo que las políticas pueden seguir cómodamente.