A quienes crearon robots para OpenAI, vieron un futuro aterrador

robot
Generación de resúmenes en curso

Autor: Amigo Geek

El 7 de marzo de 2026, cuando vi la noticia de que Caitlin Kalinowski renunciaba, mi primera reacción no fue de sorpresa, sino — “Por fin alguien actúa en serio”.

Kalinowski es la responsable de ingeniería de hardware y robótica en OpenAI, y solo se unió en noviembre de 2024, menos de un año y medio antes de decidir irse.

Sus motivos son directos y pesados: no puede aceptar que, tras firmar un contrato con el Departamento de Defensa de EE. UU., puedan surgir aplicaciones de vigilancia interna y armas autónomas.

Esto no es una simple fuga de talento. Es alguien que participó en la construcción del cuerpo físico de la IA y que, con su renuncia, le dice al mundo: no quiere hacerse responsable de lo que pueda hacer lo que ella misma ayudó a crear.

Para entender la salida de Kalinowski, hay que remontarse a aproximadamente una semana antes.

El 28 de febrero, Sam Altman anunció que OpenAI había llegado a un acuerdo con el Departamento de Defensa de EE. UU., permitiendo que el Pentágono utilice los modelos de IA de OpenAI en sus redes clasificadas. La noticia causó un revuelo enorme.

Curiosamente, el referente de este contrato fue la empresa competidora Anthropic.

Poco antes, Anthropic había rechazado una propuesta similar del Pentágono, exigiendo cláusulas éticas más estrictas en el contrato. Como respuesta, el secretario de Defensa, Pete Hegseth, criticó públicamente en X (antes Twitter), calificando la postura de Anthropic como una “clase magistral de arrogancia y traición”, y en línea con la orden del gobierno de Trump de detener toda colaboración con esa empresa.

Luego, OpenAI tomó la iniciativa y asumió ese negocio.

La reacción de los usuarios fue muy intensa. El 28 de febrero, las desinstalaciones de ChatGPT se dispararon un 295% respecto al día anterior. La campaña #QuitGPT se viralizó rápidamente en las redes sociales, y en solo tres días, más de 2.5 millones de personas apoyaron el boicot digital. Claude, la competencia de ChatGPT, aprovechó la situación y superó en descargas diarias a ChatGPT en EE. UU., alcanzando la primera posición en la tienda de aplicaciones de Apple.

Bajo presión, Altman admitió públicamente el 3 de marzo que “no debería haberse lanzado apresuradamente este contrato”, calificándolo de “oportunista y precipitado”, y anunció que revisaría la redacción del acuerdo, dejando claro que “los sistemas de IA no deben ser utilizados intencionadamente para vigilancia interna de estadounidenses y ciudadanos”.

Pero esa palabra, “intencionadamente”, en sí misma es una vulnerabilidad. Los abogados de la Electronic Frontier Foundation señalaron con precisión que las agencias de inteligencia y de aplicación de la ley suelen depender de datos obtenidos por “casualidad” o “compra comercial” para evadir protecciones de privacidad más estrictas — agregar la palabra “intencionadamente” no equivale a una verdadera restricción.

La renuncia de Kalinowski ocurrió en este contexto.

1 Ella vio, en realidad, algo más concreto que lo que imaginamos

Mientras la mayoría aún discute si OpenAI está o no cediendo ante el gobierno, Kalinowski enfrentaba un problema aún más específico y brutal: su equipo estaba construyendo robots.

La ingeniería de hardware y robótica no es un trabajo abstracto de escribir código o ajustar parámetros. Es equipar a la IA con manos, pies y ojos. Cuando la colaboración entre OpenAI y el Departamento de Defensa pasa de “uso de modelos” a posibles aplicaciones militares con IA encarnada, la naturaleza de su trabajo cambia.

Los investigadores en armas autónomas llevan tiempo advirtiendo sobre este día.

Las políticas actuales del Departamento de Defensa de EE. UU. no exigen que las armas autónomas pasen por aprobación humana antes de usar la fuerza. En otras palabras, el contrato de OpenAI no impide técnicamente que sus modelos se conviertan en parte de sistemas que “decidan matar a alguien” con GPT.

No es una exageración. Jessica Tillipman, profesora de leyes de adquisiciones gubernamentales en la Universidad de Georgetown, analizó el contrato revisado de OpenAI y señaló claramente que las cláusulas “no otorgan a OpenAI una libertad similar a la de Anthropic para prohibir el uso legal por parte del gobierno”, sino que simplemente establecen que el Pentágono no puede usar la tecnología de OpenAI para violar “las leyes y políticas existentes”. Pero las leyes actuales ya dejan un vacío enorme en la regulación de armas autónomas.

Los expertos en gobernanza de la Universidad de Oxford también opinan que el acuerdo de OpenAI “no es probable que cubra” los fallos estructurales que dejan en la gobernanza las armas autónomas y la vigilancia interna impulsada por IA.

La salida de Kalinowski fue su respuesta personal a esa evaluación.

2 Dentro de OpenAI, ¿qué está pasando?

Kalinowski no es la primera en irse, y probablemente no será la última.

Datos muestran que la tasa de rotación en los equipos de ética y seguridad de IA de OpenAI ya alcanza el 37%, y la mayoría de quienes se van argumentan que es por “conflicto con los valores de la empresa” o “incapacidad para aceptar el uso militar de la IA”. Aidan McLaughlin, científico investigador, escribió internamente: “Personalmente, creo que esta transacción no vale la pena”.

Es importante notar que esta ola de salidas coincide con una fase de rápida expansión comercial de OpenAI. Justo antes y después del escándalo del contrato militar, la compañía anunció que ampliaría su acuerdo con AWS de 38 mil millones a 100 mil millones de dólares, con una duración de ocho años; además, ajustó sus metas de gasto público, proyectando que para 2030 sus ingresos totales superarían los 280 mil millones de dólares.

El crecimiento comercial continúa, pero el equipo de seguridad sigue marchándose. Esta brecha, entre expansión y pérdida de talento en seguridad, es la clave para entender la situación actual de OpenAI.

El valor de una empresa se refleja en quiénes permanecen y quiénes se van. Cuando quienes más se preocupan por “cómo se usará esta tecnología” empiezan a abandonar la organización, es fácil imaginar en qué dirección se moverá la estructura restante.

Anthropic eligió otro camino en esta partida: rechazó el contrato, soportó la ira del Departamento de Defensa, pero ganó la confianza de muchos usuarios. Durante ese tiempo, las descargas de Claude aumentaron en contra de la tendencia, demostrando que “negociar con principios” no siempre es una estrategia perdedora en los negocios.

Pero Anthropic también pagó un precio: fue excluida por el gobierno, al menos por ahora.

Aquí está el verdadero dilema: ninguna opción es perfecta.

Rechazar puede significar perder influencia, incluso ser excluido de la formulación de reglas. Aceptar, implica respaldar con su propia tecnología acciones que no puede controlar completamente.

La respuesta de Kalinowski fue la tercera vía: irse.

Es lo más honesto que podía hacer.

3 La guerra por el alma de Silicon Valley acaba de comenzar

Si ampliamos la perspectiva, el significado de esto va mucho más allá de la renuncia de una persona.

La integración de IA y militar es una decisión que toda la industria tendrá que afrontar tarde o temprano. El Pentágono tiene presupuesto, demanda y capacidad tecnológica para seguir extendiendo la mano a las empresas de IA. Y estas, ya sea OpenAI en busca de AGI, Anthropic que prioriza la seguridad, o otros actores, tendrán que dar su respuesta en esta cuestión.

La estrategia de Altman ha sido intentar aceptar la realidad comercial, estableciendo límites mediante el redacción de contratos. Pero, como señalan varios expertos en leyes y gobernanza, esas palabras parecen más una protección de relaciones públicas que restricciones técnicas firmes.

El problema más profundo es que, cuando los modelos de IA se despliegan en redes clasificadas y empiezan a participar en decisiones militares, el mundo exterior no tiene la capacidad de verificar si esas “garantías” realmente se cumplen.

La falta de transparencia es, en sí misma, el mayor riesgo.

Kalinowski estuvo menos de un año y medio en OpenAI, y en este momento decidió irse. No hizo declaraciones extensas, no acusó a nadie en particular, simplemente marcó sus límites con acciones.

En cierto sentido, eso tiene más fuerza que cualquier artículo de política pública.

La ingeniería de hardware y robótica en IA fue uno de los campos más emocionantes en Silicon Valley. Cuando Kalinowski se fue, no solo dejó un currículum, sino también una pregunta para todos los que aún permanecen en esta industria:

¿Hasta dónde estás dispuesto a responsabilizarte por lo que construyes?

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado