La persona que construye robots para OpenAI ve un futuro aterrador

marsbitPublicado a 2026-03-09Actualizado a 2026-03-09

Resumen

Resumen: En marzo de 2026, Caitlin Kalinowski, responsable de hardware y robótica de OpenAI, renunció tras menos de un año y medio en la empresa. Su dimisión fue una respuesta directa a la controvertida colaboración de OpenAI con el Departamento de Defensa de EE.UU., que permitiría el uso de sus modelos de IA en redes clasificadas del Pentágono. Kalinowski, quien trabajaba en el hardware que daba "cuerpo" a la IA, consideró inaceptable el posible uso de la tecnología en vigilancia doméstica y sistemas de armas autónomas. OpenAI había asumido el contrato después de que Anthropic lo rechazara por razones éticas, lo que generó protestas masivas de usuarios y una oleada de deserciones en los equipos de ética y seguridad de OpenAI (con una tasa del 37%). Aunque Sam Altman intentó suavizar el acuerdo, expertos legales señalaron que las cláusulas seguidas dejaban vacíos peligrosos. La salida de Kalinowski simboliza un conflicto más profundo en Silicon Valley entre el avance comercial de la IA y la responsabilidad ética, planteando la pregunta crucial: ¿hasta dónde están dispuestos los creadores a asumir las consecuencias de su tecnología?

Autor:Geek Lao You

El 7 de marzo de 2026, cuando vi la noticia de la renuncia de Caitlin Kalinowski, mi primera reacción no fue de shock, sino de—«finalmente alguien habla con acciones».

Kalinowski era la responsable de ingeniería de hardware y robótica en OpenAI, se unió recién en noviembre de 2024 y eligió irse en menos de un año y medio.

Su razón fue directa y contundente: no podía aceptar las posibles aplicaciones de vigilancia doméstica y armas autónomas tras la firma del contrato de OpenAI con el Departamento de Defensa de EE. UU.

Esta no es una pérdida de talento común. Es alguien que participó personalmente en construir el cuerpo de la IA, diciéndole al mundo con su renuncia: no está dispuesta a ser responsable de lo que lo que ella creó podría hacer.

Para entender la partida de Kalinowski, debemos retroceder a lo sucedido aproximadamente una semana antes.

El 28 de febrero, Sam Altman anunció que OpenAI había llegado a un acuerdo con el Departamento de Defensa de EE. UU., permitiendo al Pentágono usar los modelos de IA de OpenAI en sus redes clasificadas. La noticia causó un gran revuelo.

Curiosamente, el «punto de referencia» para este contrato fue la empresa rival Anthropic.

Poco antes, Anthropic había rechazado una cooperación similar propuesta por el Pentágono, insistiendo en incluir salvaguardas éticas más estrictas en el contrato. Como resultado, el Secretario de Defensa Pete Hegseth los criticó directamente en X, calificando la acción de Anthropic como una «clase magistral de arrogancia y traición»», y haciendo eco a la orden del gobierno de Trump de cesar la cooperación con Anthropic.

OpenAI luego tomó el negocio.

La reacción de los usuarios fue bastante intensa. El mismo 28 de febrero, las desinstalaciones de ChatGPT aumentaron un 295% respecto al día anterior, el movimiento #QuitGPT se extendió rápidamente por las redes sociales, y los partidarios del boicot digital superaron los 2.5 millones en tres días. Claude aprovechó la oportunidad para superar a ChatGPT y convertirse en la aplicación de descarga diaria número uno en EE. UU., llegando a la cima de la lista de aplicaciones gratuitas en Apple App Store.

Bajo presión, Altman admitió públicamente el 3 de marzo que «no debería haber lanzado este contrato apresuradamente», dijo que «solo pareció oportunista y precipitado», y anunció una revisión de los términos del contrato para aclarar que «los sistemas de IA no deben ser utilizados intencionalmente para la vigilancia doméstica de personal y ciudadanos estadounidenses».

Pero la palabra «intencionalmente» es en sí misma una laguna. Un abogado de la Electronic Frontier Foundation señaló acertadamente que las agencias de inteligencia y aplicación de la ley a menudo dependen de datos «accidentales» o «adquiridos comercialmente» para eludir protecciones de privacidad más fuertes—agregar «intencionalmente» no equivale a una restricción real.

La renuncia de Kalinowski ocurrió en este contexto.

01 Lo que ella vio es más concreto de lo que imaginamos

Mientras la mayoría aún debatía si «OpenAI se está comprometiendo con el gobierno», Kalinowski enfrentaba un problema más concreto y cruel—su equipo estaba construyendo robots.

La ingeniería de hardware y robótica no es un trabajo abstracto de escribir código o ajustar parámetros. Es darle manos, pies y ojos a la IA. Cuando la cooperación de OpenAI con el Departamento de Defensa se extiende del «uso de modelos» a una posible futura «aplicación militar de IA encarnada», la naturaleza del trabajo de Kalinowski cambió.

Los investigadores en el campo de las armas autónomas llevan tiempo advirtiendo sobre la llegada de este día.

La política actual del Departamento de Defensa de EE. UU. no requiere que las armas autónomas pasen por una aprobación humana antes de usar la fuerza. En otras palabras, el contrato que OpenAI firmó, técnicamente no impide que sus modelos se conviertan en parte de un sistema que «permite a GPT decidir matar a alguien».

Esto no es alarmismo. Jessica Tillipman, instructora de derecho de adquisiciones gubernamentales en la Universidad de Georgetown, al analizar el contrato revisado de OpenAI, señaló claramente que los términos del contrato «no le dan a OpenAI una libertad similar a la de Anthropic para prohibir usos gubernamentales legítimos», solo declara que el Pentágono no puede usar la tecnología de OpenAI para violar «leyes y políticas existentes»—pero las leyes existentes tienen grandes vacíos en la regulación de armas autónomas.

Expertos en gobernanza de la Universidad de Oxford tienen un juicio similar, considerando que el acuerdo de OpenAI «es poco probable que compense» los vacíos estructurales dejados a nivel de gobernanza por los sistemas de vigilancia doméstica y armas autónomas impulsados por IA.

La partida de Kalinowski es su respuesta personal a este juicio.

02 Qué está pasando dentro de OpenAI

Kalinowski no es la primera en irse, y probablemente no será la última.

Datos muestran que la tasa de deserción en el equipo de ética y el equipo de seguridad de IA de OpenAI ya alcanza el 37%, y la mayoría citó como razón de su partida «incompatibilidad con los valores de la empresa» o «no poder aceptar el uso militar de la IA». El científico investigador Aidan McLaughlin escribió internamente: «Personalmente, no creo que este trato valga la pena».

Vale la pena señalar el momento de esta ola de renuncias—precisamente en una etapa donde OpenAI está expandiendo rápidamente su presencia comercial. Justo alrededor del escándalo del contrato de defensa, la empresa anunció la expansión de su acuerdo existente de 38 mil millones de dólares con AWS en 100 mil millones, con una duración de ocho años;同时 reajustó sus objetivos de gasto divulgados externamente, proyectando que los ingresos totales superarán los 280 mil millones de dólares para 2030.

Aceleración comercial, salida continua del equipo de seguridad. Esta diferencia de tijera es el eje más importante para entender la situación actual de OpenAI.

Los valores de una empresa finalmente se reflejan en a quién retiene y a quién no. Cuando las personas más preocupadas por «cómo se usará esta tecnología» comienzan a irse, no es difícil inferir hacia qué dirección se deslizará la estructura organizativa restante.

Anthropic eligió otro camino en este juego—rechazar el contrato, soportar la ira del Departamento de Defensa, pero ganarse la confianza de muchos usuarios. Durante ese tiempo, las descargas de Claude aumentaron contra la tendencia, demostrando de alguna manera que «el rechazo por principios» no es necesariamente una estrategia perdedora comercialmente.

Pero Anthropic también pagó un precio—fue expulsada del juego gubernamental, al menos por ahora.

Este es el verdadero dilema: ninguna opción es perfecta.

Rechazar significa posiblemente perder influencia, o incluso ser excluido de la formulación de reglas. Aceptar significa respaldar con tu propia tecnología comportamientos que no puedes controlar completamente.

La respuesta de Kalinowski fue una tercera vía—irse.

Es lo más honesto que pudo hacer.

03 La batalla por el alma de Silicon Valley, recién comienza

Si ampliamos la perspectiva, el significado de esto va mucho más allá de la renuncia de una persona.

La integración de la IA con lo militar es una elección que toda la industria tendrá que enfrentar tarde o temprano. El Pentágono tiene presupuesto, demanda y capacidad de integración tecnológica, no dejará de extender ramas de olivo a las empresas de IA. Y las empresas de IA—ya sea OpenAI persiguiendo la AGI, Anthropic enfatizando la seguridad, u otros actores—tendrán que dar su respuesta ante esta pregunta.

La estrategia de Altman es intentar, al aceptar la realidad comercial, trazar líneas rojas mediante los términos del contrato. Pero como señalaron múltiples expertos legales y de gobernanza, esos términos parecen más una protección a nivel de relaciones públicas que una restricción técnica dura.

Un problema más fundamental es que, cuando los modelos de IA se despliegan en redes clasificadas, cuando comienzan a participar en decisiones militares, el mundo exterior no tiene capacidad para verificar si esas «garantías» se están cumpliendo realmente.

La falta de transparencia es en sí misma el mayor riesgo.

Kalinowski estuvo en OpenAI menos de un año y medio, pero eligió irse en este momento. No emitió una declaración pública extensa, no criticó a nadie nominalmente, solo trazó su límite con acciones.

En cierto sentido, esto es más poder que cualquier artículo de política.

La ingeniería de hardware y robótica de IA era originalmente una de las fronteras más emocionantes de Silicon Valley. Cuando Kalinowski se fue, no solo se llevó un currículum, sino también una pregunta para todos los que aún permanecen en esta industria—

¿Hasta qué punto estás dispuesto a responsabilizarte por lo que construyes?

Preguntas relacionadas

Q¿Quién es Caitlin Kalinowski y por qué renunció a OpenAI?

ACaitlin Kalinowski era la responsable de ingeniería de hardware y robótica en OpenAI. Renunció en marzo de 2026 debido a su desacuerdo con el contrato de OpenAI con el Departamento de Defensa de EE. UU., citando preocupaciones sobre su posible uso en vigilancia doméstica y aplicaciones de armas autónomas.

Q¿Qué contrato firmó OpenAI con el Departamento de Defensa de EE. UU. y cuál fue la reacción pública?

AOpenAI firmó un contrato que permitía al Departamento de Defensa utilizar sus modelos de IA en redes clasificadas. La reacción pública fue extremadamente negativa, con un aumento del 295% en las desinstalaciones de ChatGPT y el movimiento #QuitGPT ganando más de 2.5 millones de partidarios en tres días.

Q¿Cómo se compara la postura de OpenAI con la de Anthropic respecto a la colaboración con el gobierno?

AAnthropic rechazó una propuesta similar del Departamento de Defensa, insistiendo en salvaguardas éticas más estrictas, lo que llevó a una reacción negativa del gobierno. OpenAI, por el contrario, aceptó el contrato, lo que generó críticas y una fuga de talento interno preocupado por la ética.

Q¿Qué riesgos específicos preocupan en la aplicación militar de la IA, según el artículo?

ALos riesgos incluyen el uso de IA en vigilancia doméstica, sistemas de armas autónomas que podrían tomar decisiones letales sin aprobación humana, y lagunas legales que permiten el uso de datos 'accidentales' o 'comprados comercialmente' para eludir protecciones de privacidad.

Q¿Qué impacto tuvo la renuncia de Kalinowski en la percepción de la ética en OpenAI y la industria tecnológica?

ASu renuncia resaltó una división interna en OpenAI, donde equipos de ética y seguridad tienen una alta tasa de deserción (37%). Simboliza un cuestionamiento más amplio en la industria tecnológica sobre hasta qué punto los ingenieros deben responsabilizarse por el uso potencialmente dañino de sus creaciones.

Lecturas Relacionadas

Trading

Spot
Futuros
活动图片