Autor:Geek Lao You
El 7 de marzo de 2026, cuando vi la noticia de la renuncia de Caitlin Kalinowski, mi primera reacción no fue de shock, sino de—«finalmente alguien habla con acciones».
Kalinowski era la responsable de ingeniería de hardware y robótica en OpenAI, se unió recién en noviembre de 2024 y eligió irse en menos de un año y medio.
Su razón fue directa y contundente: no podía aceptar las posibles aplicaciones de vigilancia doméstica y armas autónomas tras la firma del contrato de OpenAI con el Departamento de Defensa de EE. UU.
Esta no es una pérdida de talento común. Es alguien que participó personalmente en construir el cuerpo de la IA, diciéndole al mundo con su renuncia: no está dispuesta a ser responsable de lo que lo que ella creó podría hacer.
Para entender la partida de Kalinowski, debemos retroceder a lo sucedido aproximadamente una semana antes.
El 28 de febrero, Sam Altman anunció que OpenAI había llegado a un acuerdo con el Departamento de Defensa de EE. UU., permitiendo al Pentágono usar los modelos de IA de OpenAI en sus redes clasificadas. La noticia causó un gran revuelo.
Curiosamente, el «punto de referencia» para este contrato fue la empresa rival Anthropic.
Poco antes, Anthropic había rechazado una cooperación similar propuesta por el Pentágono, insistiendo en incluir salvaguardas éticas más estrictas en el contrato. Como resultado, el Secretario de Defensa Pete Hegseth los criticó directamente en X, calificando la acción de Anthropic como una «clase magistral de arrogancia y traición»», y haciendo eco a la orden del gobierno de Trump de cesar la cooperación con Anthropic.
OpenAI luego tomó el negocio.
La reacción de los usuarios fue bastante intensa. El mismo 28 de febrero, las desinstalaciones de ChatGPT aumentaron un 295% respecto al día anterior, el movimiento #QuitGPT se extendió rápidamente por las redes sociales, y los partidarios del boicot digital superaron los 2.5 millones en tres días. Claude aprovechó la oportunidad para superar a ChatGPT y convertirse en la aplicación de descarga diaria número uno en EE. UU., llegando a la cima de la lista de aplicaciones gratuitas en Apple App Store.
Bajo presión, Altman admitió públicamente el 3 de marzo que «no debería haber lanzado este contrato apresuradamente», dijo que «solo pareció oportunista y precipitado», y anunció una revisión de los términos del contrato para aclarar que «los sistemas de IA no deben ser utilizados intencionalmente para la vigilancia doméstica de personal y ciudadanos estadounidenses».
Pero la palabra «intencionalmente» es en sí misma una laguna. Un abogado de la Electronic Frontier Foundation señaló acertadamente que las agencias de inteligencia y aplicación de la ley a menudo dependen de datos «accidentales» o «adquiridos comercialmente» para eludir protecciones de privacidad más fuertes—agregar «intencionalmente» no equivale a una restricción real.
La renuncia de Kalinowski ocurrió en este contexto.
01 Lo que ella vio es más concreto de lo que imaginamos
Mientras la mayoría aún debatía si «OpenAI se está comprometiendo con el gobierno», Kalinowski enfrentaba un problema más concreto y cruel—su equipo estaba construyendo robots.
La ingeniería de hardware y robótica no es un trabajo abstracto de escribir código o ajustar parámetros. Es darle manos, pies y ojos a la IA. Cuando la cooperación de OpenAI con el Departamento de Defensa se extiende del «uso de modelos» a una posible futura «aplicación militar de IA encarnada», la naturaleza del trabajo de Kalinowski cambió.
Los investigadores en el campo de las armas autónomas llevan tiempo advirtiendo sobre la llegada de este día.
La política actual del Departamento de Defensa de EE. UU. no requiere que las armas autónomas pasen por una aprobación humana antes de usar la fuerza. En otras palabras, el contrato que OpenAI firmó, técnicamente no impide que sus modelos se conviertan en parte de un sistema que «permite a GPT decidir matar a alguien».
Esto no es alarmismo. Jessica Tillipman, instructora de derecho de adquisiciones gubernamentales en la Universidad de Georgetown, al analizar el contrato revisado de OpenAI, señaló claramente que los términos del contrato «no le dan a OpenAI una libertad similar a la de Anthropic para prohibir usos gubernamentales legítimos», solo declara que el Pentágono no puede usar la tecnología de OpenAI para violar «leyes y políticas existentes»—pero las leyes existentes tienen grandes vacíos en la regulación de armas autónomas.
Expertos en gobernanza de la Universidad de Oxford tienen un juicio similar, considerando que el acuerdo de OpenAI «es poco probable que compense» los vacíos estructurales dejados a nivel de gobernanza por los sistemas de vigilancia doméstica y armas autónomas impulsados por IA.
La partida de Kalinowski es su respuesta personal a este juicio.
02 Qué está pasando dentro de OpenAI
Kalinowski no es la primera en irse, y probablemente no será la última.
Datos muestran que la tasa de deserción en el equipo de ética y el equipo de seguridad de IA de OpenAI ya alcanza el 37%, y la mayoría citó como razón de su partida «incompatibilidad con los valores de la empresa» o «no poder aceptar el uso militar de la IA». El científico investigador Aidan McLaughlin escribió internamente: «Personalmente, no creo que este trato valga la pena».
Vale la pena señalar el momento de esta ola de renuncias—precisamente en una etapa donde OpenAI está expandiendo rápidamente su presencia comercial. Justo alrededor del escándalo del contrato de defensa, la empresa anunció la expansión de su acuerdo existente de 38 mil millones de dólares con AWS en 100 mil millones, con una duración de ocho años;同时 reajustó sus objetivos de gasto divulgados externamente, proyectando que los ingresos totales superarán los 280 mil millones de dólares para 2030.
Aceleración comercial, salida continua del equipo de seguridad. Esta diferencia de tijera es el eje más importante para entender la situación actual de OpenAI.
Los valores de una empresa finalmente se reflejan en a quién retiene y a quién no. Cuando las personas más preocupadas por «cómo se usará esta tecnología» comienzan a irse, no es difícil inferir hacia qué dirección se deslizará la estructura organizativa restante.
Anthropic eligió otro camino en este juego—rechazar el contrato, soportar la ira del Departamento de Defensa, pero ganarse la confianza de muchos usuarios. Durante ese tiempo, las descargas de Claude aumentaron contra la tendencia, demostrando de alguna manera que «el rechazo por principios» no es necesariamente una estrategia perdedora comercialmente.
Pero Anthropic también pagó un precio—fue expulsada del juego gubernamental, al menos por ahora.
Este es el verdadero dilema: ninguna opción es perfecta.
Rechazar significa posiblemente perder influencia, o incluso ser excluido de la formulación de reglas. Aceptar significa respaldar con tu propia tecnología comportamientos que no puedes controlar completamente.
La respuesta de Kalinowski fue una tercera vía—irse.
Es lo más honesto que pudo hacer.
03 La batalla por el alma de Silicon Valley, recién comienza
Si ampliamos la perspectiva, el significado de esto va mucho más allá de la renuncia de una persona.
La integración de la IA con lo militar es una elección que toda la industria tendrá que enfrentar tarde o temprano. El Pentágono tiene presupuesto, demanda y capacidad de integración tecnológica, no dejará de extender ramas de olivo a las empresas de IA. Y las empresas de IA—ya sea OpenAI persiguiendo la AGI, Anthropic enfatizando la seguridad, u otros actores—tendrán que dar su respuesta ante esta pregunta.
La estrategia de Altman es intentar, al aceptar la realidad comercial, trazar líneas rojas mediante los términos del contrato. Pero como señalaron múltiples expertos legales y de gobernanza, esos términos parecen más una protección a nivel de relaciones públicas que una restricción técnica dura.
Un problema más fundamental es que, cuando los modelos de IA se despliegan en redes clasificadas, cuando comienzan a participar en decisiones militares, el mundo exterior no tiene capacidad para verificar si esas «garantías» se están cumpliendo realmente.
La falta de transparencia es en sí misma el mayor riesgo.
Kalinowski estuvo en OpenAI menos de un año y medio, pero eligió irse en este momento. No emitió una declaración pública extensa, no criticó a nadie nominalmente, solo trazó su límite con acciones.
En cierto sentido, esto es más poder que cualquier artículo de política.
La ingeniería de hardware y robótica de IA era originalmente una de las fronteras más emocionantes de Silicon Valley. Cuando Kalinowski se fue, no solo se llevó un currículum, sino también una pregunta para todos los que aún permanecen en esta industria—
¿Hasta qué punto estás dispuesto a responsabilizarte por lo que construyes?





