Bienvenido a Eye on AI, con la reportera de IA Sharon Goldman. En esta edición: El lado salvaje de OpenClaw… La nueva super PAC de 20 millones de dólares de Anthropic contrarresta a OpenAI… OpenAI lanza su primer modelo diseñado para una salida ultrarrápida… Anthropic cubrirá los aumentos en el precio de la electricidad de sus centros de datos de IA… Isomorphic Labs dice que ha desbloqueado una nueva frontera biológica más allá de AlphaFold.
Video recomendado
OpenClaw ha pasado las últimas semanas demostrando lo imprudentes que pueden ser los agentes de IA — y atrayendo a un público devoto en el proceso.
El agente de inteligencia artificial autónomo, de código abierto y gratuito, desarrollado por Peter Steinberger y originalmente conocido como ClawdBot, toma los chatbots que conocemos y amamos — como ChatGPT y Claude — y les da las herramientas y la autonomía para interactuar directamente con tu computadora y con otros en internet. Piensa en enviar correos electrónicos, leer tus mensajes, reservar entradas para un concierto, hacer reservas en restaurantes, y mucho más — presumiblemente mientras tú te relajas y comes bombones.
¿El problema de dar a OpenClaw un poder extraordinario para hacer cosas geniales? No sorprende que también le brinde muchas oportunidades para hacer cosas que no debería, incluyendo filtrar datos, ejecutar comandos no deseados, o ser secuestrado silenciosamente por atacantes, ya sea mediante malware o ataques de “inyección de prompts” (donde alguien incluye instrucciones maliciosas para el agente de IA en datos que este podría usar).
La emoción por OpenClaw, dicen dos expertos en ciberseguridad con los que hablé esta semana, es que no tiene restricciones, lo que básicamente da a los usuarios un poder en gran medida sin límites para personalizarlo como quieran.
“La única regla es que no tiene reglas,” dijo Ben Seri, cofundador y CTO de Zafran Security, que se especializa en gestionar la exposición a amenazas para empresas. “Eso es parte del juego.” Pero ese juego puede convertirse en una pesadilla de seguridad, ya que las reglas y límites son fundamentales para mantener alejados a los hackers y las filtraciones.
Preocupaciones clásicas de seguridad
Las preocupaciones de seguridad son bastante clásicas, dijo Colin Shea-Blymyer, investigador en el Centro de Seguridad y Tecnología Emergente de Georgetown (CSET), donde trabaja en el Proyecto CyberAI. Las configuraciones incorrectas de permisos — quién o qué puede hacer qué — significan que los humanos podrían dar accidentalmente a OpenClaw más autoridad de la que creen, y los atacantes pueden aprovecharse de ello.
Por ejemplo, en OpenClaw, gran parte del riesgo proviene de lo que los desarrolladores llaman “habilidades,” que son básicamente aplicaciones o plugins que el agente de IA puede usar para realizar acciones — como acceder a archivos, navegar por la web o ejecutar comandos. La diferencia es que, a diferencia de una aplicación normal, OpenClaw decide por sí mismo cuándo usar estas habilidades y cómo encadenarlas, lo que significa que un pequeño error en los permisos puede escalar rápidamente a algo mucho más serio.
“Imagina usarlo para acceder a la página de reservas de un restaurante y que también tenga acceso a tu calendario con toda clase de información personal,” dijo. “¿O qué pasa si es malware y encuentra la página equivocada e instala un virus?”
OpenClaw sí tiene páginas de seguridad en su documentación y está intentando mantener a los usuarios alertas y conscientes, dijo Shea-Blymyer. Pero los problemas de seguridad siguen siendo problemas técnicos complejos que la mayoría de los usuarios promedio probablemente no entienden completamente. Y aunque los desarrolladores de OpenClaw trabajen arduamente para solucionar vulnerabilidades, no pueden resolver fácilmente el problema subyacente de que el agente pueda actuar por sí solo — que es lo que hace que el sistema sea tan atractivo en primer lugar.
“Esa es la tensión fundamental en este tipo de sistemas,” dijo. “Cuanto más acceso les des, más divertidos e interesantes serán — pero también más peligrosos.”
Las empresas corporativas serán lentas en adoptar
Seri de Zafran Security admitió que hay poca posibilidad de apagar la curiosidad de los usuarios respecto a un sistema como OpenClaw, aunque enfatizó que las empresas serán mucho más lentas en adoptar un sistema tan incontrolable e inseguro. Para el usuario promedio, dijo, deberían experimentar como si estuvieran trabajando en un laboratorio de química con un material altamente explosivo.
Shea-Blymyer señaló que es algo positivo que OpenClaw esté ocurriendo primero a nivel de aficionados. “Aprenderemos mucho sobre el ecosistema antes de que alguien lo intente a nivel empresarial,” dijo. “Los sistemas de IA pueden fallar de maneras que ni siquiera podemos imaginar,” explicó. “[OpenClaw] podría darnos mucha información sobre por qué diferentes modelos de lenguaje grande (LLMs) se comportan como lo hacen y sobre nuevas preocupaciones de seguridad.”
Pero aunque OpenClaw pueda ser hoy un experimento de hobby, los expertos en seguridad lo ven como una vista previa de los tipos de sistemas autónomos que las empresas eventualmente sentirán la presión de desplegar.
Por ahora, a menos que alguien quiera ser objeto de investigación en seguridad, el usuario promedio debería mantenerse alejado de OpenClaw, dijo Shea-Blymyer. De lo contrario, no te sorprendas si tu asistente personal de IA se adentra en territorios muy poco amigables.
El blog viral de Matt Shumer sobre el impacto inminente de la IA en los trabajadores del conocimiento se basa en suposiciones erróneas — por Jeremy Kahn
El CEO de Capgemini advierte. Podrías estar pensando mal sobre la IA — por Kamal Ahmed
El líder de IA galardonado con el Nobel de Google ve un ‘renacimiento’ por delante — tras una limpieza de 10 o 15 años — por Nick Lichtenberg
X-odus: La mitad del equipo fundador de xAI ha dejado la empresa de IA de Elon Musk, lo que podría complicar sus planes para una oferta pública de SpaceX — por Beatrice Nolan
OpenAI disputa la afirmación del organismo regulador de que violó la nueva ley de seguridad de IA de California con su último lanzamiento de modelo — por Beatrice Nolan
NOTICIAS SOBRE IA
La nueva super PAC de 20 millones de dólares de Anthropic contrarresta a OpenAI. Según el New York Times, Anthropic ha prometido 20 millones de dólares a una operación de super PAC diseñada para apoyar a candidatos que favorecen una mayor seguridad y regulación de la IA, preparando un enfrentamiento directo antes de las elecciones de medio término. La financiación fluirá a través de la organización sin fines de lucro de dinero oscuro Public First Action y PACs aliados, en oposición a Leading the Future, una super PAC respaldada principalmente por el presidente y cofundador de OpenAI, Greg Brockman, y la firma de capital de riesgo Andreessen Horowitz. Aunque Anthropic evitó nombrar directamente a OpenAI, advirtió que se están desplegando “recursos vastos” para oponerse a los esfuerzos de seguridad de la IA, destacando una división cada vez mayor en la industria de la IA sobre qué tan estrictamente deben ser regulados los modelos poderosos — y señalando que la batalla por la gobernanza de la IA ahora se desarrolla no solo en laboratorios y salas de juntas, sino también en las urnas.
Mustafa Suleyman planea una ‘autosuficiencia’ en IA mientras Microsoft afloja sus lazos con OpenAI. El Financial Times informó que Microsoft está avanzando hacia lo que su jefe de IA, Mustafa Suleyman, llama “verdadera autosuficiencia” en inteligencia artificial, acelerando esfuerzos para construir sus propios modelos fundacionales y reducir la dependencia a largo plazo de OpenAI, aunque sigue siendo uno de sus mayores inversores. En una entrevista, Suleyman dijo que este cambio sigue a una reestructuración de la relación de Microsoft con OpenAI en octubre pasado, que preservó el acceso a los modelos más avanzados de OpenAI hasta 2032, pero también le dio al creador de ChatGPT más libertad para buscar nuevos inversores y socios — potencialmente convirtiéndolo en un competidor. Microsoft ahora invierte mucho en computación a escala gigavatio, pipelines de datos y equipos de investigación en IA de élite, con planes de lanzar sus propios modelos internos más adelante este año, enfocados en automatizar trabajos de oficina y captar más del mercado empresarial con lo que Suleyman llama “IA general de grado profesional.”
OpenAI lanza su primer modelo diseñado para una salida ultrarrápida. OpenAI ha lanzado una vista previa de investigación de GPT-5.3-Codex-Spark, el primer producto tangible de su colaboración con Cerebras, usando el hardware de IA de escala de oblea del fabricante de chips para ofrecer codificación en tiempo real y con latencia ultrabaja en Codex. El modelo más pequeño, una versión optimizada de GPT-5.3-Codex, está enfocado en la velocidad en lugar de la máxima capacidad, generando respuestas hasta 15 veces más rápidas para que los desarrolladores puedan hacer ediciones específicas, modificar lógica y iterar de forma interactiva sin esperar a que finalicen largos procesos. Inicialmente disponible como vista previa de investigación para usuarios de ChatGPT Pro y un pequeño grupo de socios API, el lanzamiento señala el creciente enfoque de OpenAI en la velocidad de interacción a medida que los agentes de IA asumen tareas más autónomas y de larga duración — con la codificación en tiempo real emergiendo como un caso de prueba temprano de lo que la inferencia más rápida puede desbloquear.
Anthropic cubrirá los aumentos en el precio de la electricidad de sus centros de datos de IA. Tras un anuncio similar de OpenAI el mes pasado, Anthropic anunció ayer que, a medida que expande sus centros de datos de IA en EE. UU., asumirá la responsabilidad por cualquier aumento en los costos de electricidad que de otra forma se trasladarían a los consumidores, comprometiéndose a pagar todos los costos de conexión y actualización de la red, poner en marcha nuevas fuentes de energía para satisfacer la demanda y trabajar con utilities y expertos para estimar y cubrir cualquier efecto en los precios; también planea invertir en tecnologías para reducir el consumo de energía y optimizar la red, apoyar a las comunidades locales alrededor de sus instalaciones y abogar por reformas políticas más amplias para acelerar y reducir el costo del desarrollo de infraestructura energética, argumentando que construir infraestructura de IA no debería ser una carga para los tarifas de los usuarios comunes.
Isomorphic Labs dice que ha desbloqueado una nueva frontera biológica más allá de AlphaFold. Isomorphic Labs, la compañía de descubrimiento de fármacos basada en IA afiliada a Alphabet y DeepMind, dice que su nuevo Motor de Diseño de Fármacos de Isomorphic Labs representa un avance significativo en la medicina computacional al combinar múltiples modelos de IA en un motor unificado que puede predecir cómo interactúan las moléculas biológicas con una precisión sin precedentes. Una publicación en su blog afirmó que ha más que duplicado el rendimiento anterior en métricas clave y superado los métodos tradicionales basados en física para tareas como la predicción de estructuras de proteínas y ligandos y la estimación de afinidad de unión — capacidades que la compañía argumenta podrían acelerar dramáticamente el diseño y la optimización de nuevos candidatos a fármacos. El sistema se basa en el éxito de AlphaFold 3, un modelo avanzado de IA lanzado en 2024 que predice las estructuras 3D y las interacciones de todas las moléculas de la vida, incluyendo proteínas, ADN y ARN. Pero la compañía dice que va más allá al identificar nuevos bolsillos de unión, generalizar a estructuras fuera de sus datos de entrenamiento e integrar estas predicciones en una plataforma escalable que busca cerrar la brecha entre la biología estructural y el descubrimiento de fármacos en el mundo real, potencialmente revolucionando cómo la investigación farmacéutica aborda objetivos difíciles y se expande a biologics complejos.
NÚMEROS SOBRE IA EN EYE ON AI
77%
Eso es lo que reportan los profesionales de seguridad que se sienten al menos algo cómodos permitiendo que los sistemas de IA autónomos actúen sin supervisión humana, aunque todavía son cautelosos, según una encuesta a 1,200 profesionales de seguridad realizada por Ivanti, una compañía global de software de seguridad y TI empresarial. Además, el informe encontró que adoptar IA agentica es una prioridad para el 87% de los equipos de seguridad.
Sin embargo, el director de seguridad de Ivanti, Daniel Spicer, dice que los equipos de seguridad no deberían estar tan cómodos con la idea de desplegar IA autónoma. Aunque los defensores son optimistas sobre el potencial de la IA en ciberseguridad, los hallazgos también muestran que las empresas están cada vez más rezagadas en cuanto a qué tan preparadas están para defenderse contra una variedad de amenazas.
“Esto es lo que yo llamo el ‘Déficit de Preparación en Ciberseguridad,’” escribió en una publicación, “una brecha persistente que se amplía año tras año en la capacidad de una organización para proteger sus datos, personas y redes frente a un panorama tecnológico en constante evolución.”
CALENDARIO DE IA
10-11 de febrero: Cumbre de Acción en IA, Nueva Delhi, India.
24-26 de febrero: Asociación Internacional para IA Segura y Ética (IASEAI), UNESCO, París, Francia.
2-5 de marzo: Mobile World Congress, Barcelona, España.
16-19 de marzo: Nvidia GTC, San José, California.
6-9 de abril: HumanX, San Francisco.
**Únete a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune **19-20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí — y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrate ahora.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
OpenClaw es el chico malo de los agentes de IA. Aquí te explicamos por qué los expertos en seguridad dicen que debes tener cuidado
Bienvenido a Eye on AI, con la reportera de IA Sharon Goldman. En esta edición: El lado salvaje de OpenClaw… La nueva super PAC de 20 millones de dólares de Anthropic contrarresta a OpenAI… OpenAI lanza su primer modelo diseñado para una salida ultrarrápida… Anthropic cubrirá los aumentos en el precio de la electricidad de sus centros de datos de IA… Isomorphic Labs dice que ha desbloqueado una nueva frontera biológica más allá de AlphaFold.
Video recomendado
OpenClaw ha pasado las últimas semanas demostrando lo imprudentes que pueden ser los agentes de IA — y atrayendo a un público devoto en el proceso.
El agente de inteligencia artificial autónomo, de código abierto y gratuito, desarrollado por Peter Steinberger y originalmente conocido como ClawdBot, toma los chatbots que conocemos y amamos — como ChatGPT y Claude — y les da las herramientas y la autonomía para interactuar directamente con tu computadora y con otros en internet. Piensa en enviar correos electrónicos, leer tus mensajes, reservar entradas para un concierto, hacer reservas en restaurantes, y mucho más — presumiblemente mientras tú te relajas y comes bombones.
¿El problema de dar a OpenClaw un poder extraordinario para hacer cosas geniales? No sorprende que también le brinde muchas oportunidades para hacer cosas que no debería, incluyendo filtrar datos, ejecutar comandos no deseados, o ser secuestrado silenciosamente por atacantes, ya sea mediante malware o ataques de “inyección de prompts” (donde alguien incluye instrucciones maliciosas para el agente de IA en datos que este podría usar).
La emoción por OpenClaw, dicen dos expertos en ciberseguridad con los que hablé esta semana, es que no tiene restricciones, lo que básicamente da a los usuarios un poder en gran medida sin límites para personalizarlo como quieran.
“La única regla es que no tiene reglas,” dijo Ben Seri, cofundador y CTO de Zafran Security, que se especializa en gestionar la exposición a amenazas para empresas. “Eso es parte del juego.” Pero ese juego puede convertirse en una pesadilla de seguridad, ya que las reglas y límites son fundamentales para mantener alejados a los hackers y las filtraciones.
Preocupaciones clásicas de seguridad
Las preocupaciones de seguridad son bastante clásicas, dijo Colin Shea-Blymyer, investigador en el Centro de Seguridad y Tecnología Emergente de Georgetown (CSET), donde trabaja en el Proyecto CyberAI. Las configuraciones incorrectas de permisos — quién o qué puede hacer qué — significan que los humanos podrían dar accidentalmente a OpenClaw más autoridad de la que creen, y los atacantes pueden aprovecharse de ello.
Por ejemplo, en OpenClaw, gran parte del riesgo proviene de lo que los desarrolladores llaman “habilidades,” que son básicamente aplicaciones o plugins que el agente de IA puede usar para realizar acciones — como acceder a archivos, navegar por la web o ejecutar comandos. La diferencia es que, a diferencia de una aplicación normal, OpenClaw decide por sí mismo cuándo usar estas habilidades y cómo encadenarlas, lo que significa que un pequeño error en los permisos puede escalar rápidamente a algo mucho más serio.
“Imagina usarlo para acceder a la página de reservas de un restaurante y que también tenga acceso a tu calendario con toda clase de información personal,” dijo. “¿O qué pasa si es malware y encuentra la página equivocada e instala un virus?”
OpenClaw sí tiene páginas de seguridad en su documentación y está intentando mantener a los usuarios alertas y conscientes, dijo Shea-Blymyer. Pero los problemas de seguridad siguen siendo problemas técnicos complejos que la mayoría de los usuarios promedio probablemente no entienden completamente. Y aunque los desarrolladores de OpenClaw trabajen arduamente para solucionar vulnerabilidades, no pueden resolver fácilmente el problema subyacente de que el agente pueda actuar por sí solo — que es lo que hace que el sistema sea tan atractivo en primer lugar.
“Esa es la tensión fundamental en este tipo de sistemas,” dijo. “Cuanto más acceso les des, más divertidos e interesantes serán — pero también más peligrosos.”
Las empresas corporativas serán lentas en adoptar
Seri de Zafran Security admitió que hay poca posibilidad de apagar la curiosidad de los usuarios respecto a un sistema como OpenClaw, aunque enfatizó que las empresas serán mucho más lentas en adoptar un sistema tan incontrolable e inseguro. Para el usuario promedio, dijo, deberían experimentar como si estuvieran trabajando en un laboratorio de química con un material altamente explosivo.
Shea-Blymyer señaló que es algo positivo que OpenClaw esté ocurriendo primero a nivel de aficionados. “Aprenderemos mucho sobre el ecosistema antes de que alguien lo intente a nivel empresarial,” dijo. “Los sistemas de IA pueden fallar de maneras que ni siquiera podemos imaginar,” explicó. “[OpenClaw] podría darnos mucha información sobre por qué diferentes modelos de lenguaje grande (LLMs) se comportan como lo hacen y sobre nuevas preocupaciones de seguridad.”
Pero aunque OpenClaw pueda ser hoy un experimento de hobby, los expertos en seguridad lo ven como una vista previa de los tipos de sistemas autónomos que las empresas eventualmente sentirán la presión de desplegar.
Por ahora, a menos que alguien quiera ser objeto de investigación en seguridad, el usuario promedio debería mantenerse alejado de OpenClaw, dijo Shea-Blymyer. De lo contrario, no te sorprendas si tu asistente personal de IA se adentra en territorios muy poco amigables.
Con eso, aquí más noticias de IA.
Sharon Goldman
sharon.goldman@fortune.com
@sharongoldman
FORTUNE SOBRE IA
El blog viral de Matt Shumer sobre el impacto inminente de la IA en los trabajadores del conocimiento se basa en suposiciones erróneas — por Jeremy Kahn
El CEO de Capgemini advierte. Podrías estar pensando mal sobre la IA — por Kamal Ahmed
El líder de IA galardonado con el Nobel de Google ve un ‘renacimiento’ por delante — tras una limpieza de 10 o 15 años — por Nick Lichtenberg
X-odus: La mitad del equipo fundador de xAI ha dejado la empresa de IA de Elon Musk, lo que podría complicar sus planes para una oferta pública de SpaceX — por Beatrice Nolan
OpenAI disputa la afirmación del organismo regulador de que violó la nueva ley de seguridad de IA de California con su último lanzamiento de modelo — por Beatrice Nolan
NOTICIAS SOBRE IA
La nueva super PAC de 20 millones de dólares de Anthropic contrarresta a OpenAI. Según el New York Times, Anthropic ha prometido 20 millones de dólares a una operación de super PAC diseñada para apoyar a candidatos que favorecen una mayor seguridad y regulación de la IA, preparando un enfrentamiento directo antes de las elecciones de medio término. La financiación fluirá a través de la organización sin fines de lucro de dinero oscuro Public First Action y PACs aliados, en oposición a Leading the Future, una super PAC respaldada principalmente por el presidente y cofundador de OpenAI, Greg Brockman, y la firma de capital de riesgo Andreessen Horowitz. Aunque Anthropic evitó nombrar directamente a OpenAI, advirtió que se están desplegando “recursos vastos” para oponerse a los esfuerzos de seguridad de la IA, destacando una división cada vez mayor en la industria de la IA sobre qué tan estrictamente deben ser regulados los modelos poderosos — y señalando que la batalla por la gobernanza de la IA ahora se desarrolla no solo en laboratorios y salas de juntas, sino también en las urnas.
Mustafa Suleyman planea una ‘autosuficiencia’ en IA mientras Microsoft afloja sus lazos con OpenAI. El Financial Times informó que Microsoft está avanzando hacia lo que su jefe de IA, Mustafa Suleyman, llama “verdadera autosuficiencia” en inteligencia artificial, acelerando esfuerzos para construir sus propios modelos fundacionales y reducir la dependencia a largo plazo de OpenAI, aunque sigue siendo uno de sus mayores inversores. En una entrevista, Suleyman dijo que este cambio sigue a una reestructuración de la relación de Microsoft con OpenAI en octubre pasado, que preservó el acceso a los modelos más avanzados de OpenAI hasta 2032, pero también le dio al creador de ChatGPT más libertad para buscar nuevos inversores y socios — potencialmente convirtiéndolo en un competidor. Microsoft ahora invierte mucho en computación a escala gigavatio, pipelines de datos y equipos de investigación en IA de élite, con planes de lanzar sus propios modelos internos más adelante este año, enfocados en automatizar trabajos de oficina y captar más del mercado empresarial con lo que Suleyman llama “IA general de grado profesional.”
OpenAI lanza su primer modelo diseñado para una salida ultrarrápida. OpenAI ha lanzado una vista previa de investigación de GPT-5.3-Codex-Spark, el primer producto tangible de su colaboración con Cerebras, usando el hardware de IA de escala de oblea del fabricante de chips para ofrecer codificación en tiempo real y con latencia ultrabaja en Codex. El modelo más pequeño, una versión optimizada de GPT-5.3-Codex, está enfocado en la velocidad en lugar de la máxima capacidad, generando respuestas hasta 15 veces más rápidas para que los desarrolladores puedan hacer ediciones específicas, modificar lógica y iterar de forma interactiva sin esperar a que finalicen largos procesos. Inicialmente disponible como vista previa de investigación para usuarios de ChatGPT Pro y un pequeño grupo de socios API, el lanzamiento señala el creciente enfoque de OpenAI en la velocidad de interacción a medida que los agentes de IA asumen tareas más autónomas y de larga duración — con la codificación en tiempo real emergiendo como un caso de prueba temprano de lo que la inferencia más rápida puede desbloquear.
Anthropic cubrirá los aumentos en el precio de la electricidad de sus centros de datos de IA. Tras un anuncio similar de OpenAI el mes pasado, Anthropic anunció ayer que, a medida que expande sus centros de datos de IA en EE. UU., asumirá la responsabilidad por cualquier aumento en los costos de electricidad que de otra forma se trasladarían a los consumidores, comprometiéndose a pagar todos los costos de conexión y actualización de la red, poner en marcha nuevas fuentes de energía para satisfacer la demanda y trabajar con utilities y expertos para estimar y cubrir cualquier efecto en los precios; también planea invertir en tecnologías para reducir el consumo de energía y optimizar la red, apoyar a las comunidades locales alrededor de sus instalaciones y abogar por reformas políticas más amplias para acelerar y reducir el costo del desarrollo de infraestructura energética, argumentando que construir infraestructura de IA no debería ser una carga para los tarifas de los usuarios comunes.
Isomorphic Labs dice que ha desbloqueado una nueva frontera biológica más allá de AlphaFold. Isomorphic Labs, la compañía de descubrimiento de fármacos basada en IA afiliada a Alphabet y DeepMind, dice que su nuevo Motor de Diseño de Fármacos de Isomorphic Labs representa un avance significativo en la medicina computacional al combinar múltiples modelos de IA en un motor unificado que puede predecir cómo interactúan las moléculas biológicas con una precisión sin precedentes. Una publicación en su blog afirmó que ha más que duplicado el rendimiento anterior en métricas clave y superado los métodos tradicionales basados en física para tareas como la predicción de estructuras de proteínas y ligandos y la estimación de afinidad de unión — capacidades que la compañía argumenta podrían acelerar dramáticamente el diseño y la optimización de nuevos candidatos a fármacos. El sistema se basa en el éxito de AlphaFold 3, un modelo avanzado de IA lanzado en 2024 que predice las estructuras 3D y las interacciones de todas las moléculas de la vida, incluyendo proteínas, ADN y ARN. Pero la compañía dice que va más allá al identificar nuevos bolsillos de unión, generalizar a estructuras fuera de sus datos de entrenamiento e integrar estas predicciones en una plataforma escalable que busca cerrar la brecha entre la biología estructural y el descubrimiento de fármacos en el mundo real, potencialmente revolucionando cómo la investigación farmacéutica aborda objetivos difíciles y se expande a biologics complejos.
NÚMEROS SOBRE IA EN EYE ON AI
77%
Eso es lo que reportan los profesionales de seguridad que se sienten al menos algo cómodos permitiendo que los sistemas de IA autónomos actúen sin supervisión humana, aunque todavía son cautelosos, según una encuesta a 1,200 profesionales de seguridad realizada por Ivanti, una compañía global de software de seguridad y TI empresarial. Además, el informe encontró que adoptar IA agentica es una prioridad para el 87% de los equipos de seguridad.
Sin embargo, el director de seguridad de Ivanti, Daniel Spicer, dice que los equipos de seguridad no deberían estar tan cómodos con la idea de desplegar IA autónoma. Aunque los defensores son optimistas sobre el potencial de la IA en ciberseguridad, los hallazgos también muestran que las empresas están cada vez más rezagadas en cuanto a qué tan preparadas están para defenderse contra una variedad de amenazas.
“Esto es lo que yo llamo el ‘Déficit de Preparación en Ciberseguridad,’” escribió en una publicación, “una brecha persistente que se amplía año tras año en la capacidad de una organización para proteger sus datos, personas y redes frente a un panorama tecnológico en constante evolución.”
CALENDARIO DE IA
10-11 de febrero: Cumbre de Acción en IA, Nueva Delhi, India.
24-26 de febrero: Asociación Internacional para IA Segura y Ética (IASEAI), UNESCO, París, Francia.
2-5 de marzo: Mobile World Congress, Barcelona, España.
16-19 de marzo: Nvidia GTC, San José, California.
6-9 de abril: HumanX, San Francisco.
**Únete a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune **19-20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí — y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrate ahora.