La persona que construye robots para OpenAI ve un futuro aterrador

marsbitPublicado a 2026-03-09Actualizado a 2026-03-09

Resumen

Resumen: En marzo de 2026, Caitlin Kalinowski, responsable de hardware y robótica de OpenAI, renunció tras menos de un año y medio en la empresa. Su dimisión fue una respuesta directa a la controvertida colaboración de OpenAI con el Departamento de Defensa de EE.UU., que permitiría el uso de sus modelos de IA en redes clasificadas del Pentágono. Kalinowski, quien trabajaba en el hardware que daba "cuerpo" a la IA, consideró inaceptable el posible uso de la tecnología en vigilancia doméstica y sistemas de armas autónomas. OpenAI había asumido el contrato después de que Anthropic lo rechazara por razones éticas, lo que generó protestas masivas de usuarios y una oleada de deserciones en los equipos de ética y seguridad de OpenAI (con una tasa del 37%). Aunque Sam Altman intentó suavizar el acuerdo, expertos legales señalaron que las cláusulas seguidas dejaban vacíos peligrosos. La salida de Kalinowski simboliza un conflicto más profundo en Silicon Valley entre el avance comercial de la IA y la responsabilidad ética, planteando la pregunta crucial: ¿hasta dónde están dispuestos los creadores a asumir las consecuencias de su tecnología?

Autor:Geek Lao You

El 7 de marzo de 2026, cuando vi la noticia de la renuncia de Caitlin Kalinowski, mi primera reacción no fue de shock, sino de—«finalmente alguien habla con acciones».

Kalinowski era la responsable de ingeniería de hardware y robótica en OpenAI, se unió recién en noviembre de 2024 y eligió irse en menos de un año y medio.

Su razón fue directa y contundente: no podía aceptar las posibles aplicaciones de vigilancia doméstica y armas autónomas tras la firma del contrato de OpenAI con el Departamento de Defensa de EE. UU.

Esta no es una pérdida de talento común. Es alguien que participó personalmente en construir el cuerpo de la IA, diciéndole al mundo con su renuncia: no está dispuesta a ser responsable de lo que lo que ella creó podría hacer.

Para entender la partida de Kalinowski, debemos retroceder a lo sucedido aproximadamente una semana antes.

El 28 de febrero, Sam Altman anunció que OpenAI había llegado a un acuerdo con el Departamento de Defensa de EE. UU., permitiendo al Pentágono usar los modelos de IA de OpenAI en sus redes clasificadas. La noticia causó un gran revuelo.

Curiosamente, el «punto de referencia» para este contrato fue la empresa rival Anthropic.

Poco antes, Anthropic había rechazado una cooperación similar propuesta por el Pentágono, insistiendo en incluir salvaguardas éticas más estrictas en el contrato. Como resultado, el Secretario de Defensa Pete Hegseth los criticó directamente en X, calificando la acción de Anthropic como una «clase magistral de arrogancia y traición»», y haciendo eco a la orden del gobierno de Trump de cesar la cooperación con Anthropic.

OpenAI luego tomó el negocio.

La reacción de los usuarios fue bastante intensa. El mismo 28 de febrero, las desinstalaciones de ChatGPT aumentaron un 295% respecto al día anterior, el movimiento #QuitGPT se extendió rápidamente por las redes sociales, y los partidarios del boicot digital superaron los 2.5 millones en tres días. Claude aprovechó la oportunidad para superar a ChatGPT y convertirse en la aplicación de descarga diaria número uno en EE. UU., llegando a la cima de la lista de aplicaciones gratuitas en Apple App Store.

Bajo presión, Altman admitió públicamente el 3 de marzo que «no debería haber lanzado este contrato apresuradamente», dijo que «solo pareció oportunista y precipitado», y anunció una revisión de los términos del contrato para aclarar que «los sistemas de IA no deben ser utilizados intencionalmente para la vigilancia doméstica de personal y ciudadanos estadounidenses».

Pero la palabra «intencionalmente» es en sí misma una laguna. Un abogado de la Electronic Frontier Foundation señaló acertadamente que las agencias de inteligencia y aplicación de la ley a menudo dependen de datos «accidentales» o «adquiridos comercialmente» para eludir protecciones de privacidad más fuertes—agregar «intencionalmente» no equivale a una restricción real.

La renuncia de Kalinowski ocurrió en este contexto.

01 Lo que ella vio es más concreto de lo que imaginamos

Mientras la mayoría aún debatía si «OpenAI se está comprometiendo con el gobierno», Kalinowski enfrentaba un problema más concreto y cruel—su equipo estaba construyendo robots.

La ingeniería de hardware y robótica no es un trabajo abstracto de escribir código o ajustar parámetros. Es darle manos, pies y ojos a la IA. Cuando la cooperación de OpenAI con el Departamento de Defensa se extiende del «uso de modelos» a una posible futura «aplicación militar de IA encarnada», la naturaleza del trabajo de Kalinowski cambió.

Los investigadores en el campo de las armas autónomas llevan tiempo advirtiendo sobre la llegada de este día.

La política actual del Departamento de Defensa de EE. UU. no requiere que las armas autónomas pasen por una aprobación humana antes de usar la fuerza. En otras palabras, el contrato que OpenAI firmó, técnicamente no impide que sus modelos se conviertan en parte de un sistema que «permite a GPT decidir matar a alguien».

Esto no es alarmismo. Jessica Tillipman, instructora de derecho de adquisiciones gubernamentales en la Universidad de Georgetown, al analizar el contrato revisado de OpenAI, señaló claramente que los términos del contrato «no le dan a OpenAI una libertad similar a la de Anthropic para prohibir usos gubernamentales legítimos», solo declara que el Pentágono no puede usar la tecnología de OpenAI para violar «leyes y políticas existentes»—pero las leyes existentes tienen grandes vacíos en la regulación de armas autónomas.

Expertos en gobernanza de la Universidad de Oxford tienen un juicio similar, considerando que el acuerdo de OpenAI «es poco probable que compense» los vacíos estructurales dejados a nivel de gobernanza por los sistemas de vigilancia doméstica y armas autónomas impulsados por IA.

La partida de Kalinowski es su respuesta personal a este juicio.

02 Qué está pasando dentro de OpenAI

Kalinowski no es la primera en irse, y probablemente no será la última.

Datos muestran que la tasa de deserción en el equipo de ética y el equipo de seguridad de IA de OpenAI ya alcanza el 37%, y la mayoría citó como razón de su partida «incompatibilidad con los valores de la empresa» o «no poder aceptar el uso militar de la IA». El científico investigador Aidan McLaughlin escribió internamente: «Personalmente, no creo que este trato valga la pena».

Vale la pena señalar el momento de esta ola de renuncias—precisamente en una etapa donde OpenAI está expandiendo rápidamente su presencia comercial. Justo alrededor del escándalo del contrato de defensa, la empresa anunció la expansión de su acuerdo existente de 38 mil millones de dólares con AWS en 100 mil millones, con una duración de ocho años;同时 reajustó sus objetivos de gasto divulgados externamente, proyectando que los ingresos totales superarán los 280 mil millones de dólares para 2030.

Aceleración comercial, salida continua del equipo de seguridad. Esta diferencia de tijera es el eje más importante para entender la situación actual de OpenAI.

Los valores de una empresa finalmente se reflejan en a quién retiene y a quién no. Cuando las personas más preocupadas por «cómo se usará esta tecnología» comienzan a irse, no es difícil inferir hacia qué dirección se deslizará la estructura organizativa restante.

Anthropic eligió otro camino en este juego—rechazar el contrato, soportar la ira del Departamento de Defensa, pero ganarse la confianza de muchos usuarios. Durante ese tiempo, las descargas de Claude aumentaron contra la tendencia, demostrando de alguna manera que «el rechazo por principios» no es necesariamente una estrategia perdedora comercialmente.

Pero Anthropic también pagó un precio—fue expulsada del juego gubernamental, al menos por ahora.

Este es el verdadero dilema: ninguna opción es perfecta.

Rechazar significa posiblemente perder influencia, o incluso ser excluido de la formulación de reglas. Aceptar significa respaldar con tu propia tecnología comportamientos que no puedes controlar completamente.

La respuesta de Kalinowski fue una tercera vía—irse.

Es lo más honesto que pudo hacer.

03 La batalla por el alma de Silicon Valley, recién comienza

Si ampliamos la perspectiva, el significado de esto va mucho más allá de la renuncia de una persona.

La integración de la IA con lo militar es una elección que toda la industria tendrá que enfrentar tarde o temprano. El Pentágono tiene presupuesto, demanda y capacidad de integración tecnológica, no dejará de extender ramas de olivo a las empresas de IA. Y las empresas de IA—ya sea OpenAI persiguiendo la AGI, Anthropic enfatizando la seguridad, u otros actores—tendrán que dar su respuesta ante esta pregunta.

La estrategia de Altman es intentar, al aceptar la realidad comercial, trazar líneas rojas mediante los términos del contrato. Pero como señalaron múltiples expertos legales y de gobernanza, esos términos parecen más una protección a nivel de relaciones públicas que una restricción técnica dura.

Un problema más fundamental es que, cuando los modelos de IA se despliegan en redes clasificadas, cuando comienzan a participar en decisiones militares, el mundo exterior no tiene capacidad para verificar si esas «garantías» se están cumpliendo realmente.

La falta de transparencia es en sí misma el mayor riesgo.

Kalinowski estuvo en OpenAI menos de un año y medio, pero eligió irse en este momento. No emitió una declaración pública extensa, no criticó a nadie nominalmente, solo trazó su límite con acciones.

En cierto sentido, esto es más poder que cualquier artículo de política.

La ingeniería de hardware y robótica de IA era originalmente una de las fronteras más emocionantes de Silicon Valley. Cuando Kalinowski se fue, no solo se llevó un currículum, sino también una pregunta para todos los que aún permanecen en esta industria—

¿Hasta qué punto estás dispuesto a responsabilizarte por lo que construyes?

Preguntas relacionadas

Q¿Quién es Caitlin Kalinowski y por qué renunció a OpenAI?

ACaitlin Kalinowski era la responsable de ingeniería de hardware y robótica en OpenAI. Renunció en marzo de 2026 debido a su desacuerdo con el contrato de OpenAI con el Departamento de Defensa de EE. UU., citando preocupaciones sobre su posible uso en vigilancia doméstica y aplicaciones de armas autónomas.

Q¿Qué contrato firmó OpenAI con el Departamento de Defensa de EE. UU. y cuál fue la reacción pública?

AOpenAI firmó un contrato que permitía al Departamento de Defensa utilizar sus modelos de IA en redes clasificadas. La reacción pública fue extremadamente negativa, con un aumento del 295% en las desinstalaciones de ChatGPT y el movimiento #QuitGPT ganando más de 2.5 millones de partidarios en tres días.

Q¿Cómo se compara la postura de OpenAI con la de Anthropic respecto a la colaboración con el gobierno?

AAnthropic rechazó una propuesta similar del Departamento de Defensa, insistiendo en salvaguardas éticas más estrictas, lo que llevó a una reacción negativa del gobierno. OpenAI, por el contrario, aceptó el contrato, lo que generó críticas y una fuga de talento interno preocupado por la ética.

Q¿Qué riesgos específicos preocupan en la aplicación militar de la IA, según el artículo?

ALos riesgos incluyen el uso de IA en vigilancia doméstica, sistemas de armas autónomas que podrían tomar decisiones letales sin aprobación humana, y lagunas legales que permiten el uso de datos 'accidentales' o 'comprados comercialmente' para eludir protecciones de privacidad.

Q¿Qué impacto tuvo la renuncia de Kalinowski en la percepción de la ética en OpenAI y la industria tecnológica?

ASu renuncia resaltó una división interna en OpenAI, donde equipos de ética y seguridad tienen una alta tasa de deserción (37%). Simboliza un cuestionamiento más amplio en la industria tecnológica sobre hasta qué punto los ingenieros deben responsabilizarse por el uso potencialmente dañino de sus creaciones.

Lecturas Relacionadas

GensynAI : Que la IA no repita los errores de Internet

En los últimos meses, el auge de la IA ha atraído talento del sector cripto. Muchos proyectos exploran cómo la blockchain puede integrarse en la infraestructura de IA, pero pocos logran un modelo de negocio cerrado. Gensyn se distingue al enfocarse en el núcleo más costoso: el entrenamiento de modelos. Su propuesta es organizar recursos de GPU dispersos globalmente en una red abierta para entrenamiento de IA. Los desarrolladores pueden enviar tareas, los nodos aportan capacidad de cálculo, y la red verifica los resultados y distribuye incentivos. Esto aborda un problema crítico: la creciente centralización del poder de cálculo en grandes tecnológicas, donde el acceso a GPUs como la H100 se ha convertido en una barrera clave para la innovación. Gensyn destaca por cuatro razones: 1. Ataca la capa de infraestructura central de la IA (entrenamiento), no solo aplicaciones. 2. Ofrece un modelo de colaboración abierto que puede optimizar costes y eficiencia para equipos más pequeños. 3. Su principal barrera tecnológica y ventaja es la capacidad de verificar resultados y garantizar fiabilidad en un entorno distribuido. 4. Responde a una demanda real y creciente en un mercado ya validado, más allá de la narrativa cripto. En conclusión, la frontera entre cripto e IA se desdibuja. La IA necesita coordinación de recursos e incentivos para la colaboración global, áreas donde la tecnología blockchain puede aportar soluciones. Gensyn representa un paso hacia una infraestructura de IA más abierta y accesible, no solo controlada por unos pocos gigantes.

marsbitHace 8 hora(s)

GensynAI : Que la IA no repita los errores de Internet

marsbitHace 8 hora(s)

¿Por qué el desarrollo de la IA en China es tan rápido? La respuesta está dentro de sus laboratorios

El artículo explora las razones del rápido desarrollo de la IA en China, centrándose en la cultura organizativa de sus laboratorios. A diferencia del ecosistema estadounidense, que prioriza la innovación disruptiva, el capital y las "estrellas" científicas individuales, el enfoque chino se caracteriza por un pragmatismo basado en la ejecución en equipo, la ingeniería eficiente, la rápida iteración y un fuerte deseo de controlar la pila tecnológica clave. Los laboratorios chinos sobresalen como "seguidores rápidos", optimizando direcciones ya establecidas. Una cultura que valora menos el ego individual y más el trabajo en equipo, combinada con una gran afluencia de jóvenes investigadores y estudiantes integrados en proyectos centrales, facilita una adaptación ágil y un enfoque en tareas prácticas de mejora de modelos. Existe un respeto general dentro del ecosistema, que se percibe más como una comunidad que como tribus en competencia. En el ámbito industrial, se observa una mentalidad de "construir, no comprar", con muchas grandes empresas tecnológicas desarrollando sus propios modelos LLM fundamentales para mantener la soberanía tecnológica. El apoyo gubernamental existe pero es descentralizado. La demanda interna de IA está creciendo, potencialmente similar al mercado de la nube, y los desarrolladores muestran una fuerte admiración por herramientas como Claude. Aunque hay una gran necesidad de chips de Nvidia, también se utilizan alternativas locales como Huawei para inferencia. El ecosistema de datos es menos maduro que en Occidente, lo que fomenta soluciones internas. En conclusión, se están formando dos trayectorias distintas: una carrera impulsada por el capital y el prestigio en EE.UU. frente a una competencia industrial impulsada por la capacidad de ejecución, el ecosistema de código abierto y la autonomía tecnológica en China. El autor destaca la calidez y el enfoque pragmático de los investigadores chinos, subrayando que la competencia futura dependerá no solo de los modelos, sino también de las capacidades organizativas y la fuerza del ecosistema.

marsbitHace 9 hora(s)

¿Por qué el desarrollo de la IA en China es tan rápido? La respuesta está dentro de sus laboratorios

marsbitHace 9 hora(s)

3 años, 5 veces: el renacimiento de una fábrica de vidrio centenaria

Según CRU, la demanda de fibra óptica en centros de datos de IA creció un 75,9% anual, ampliando el déficit de oferta del 6% al 15%. Los precios de la fibra se triplicaron en meses. NVIDIA invirtió en Corning, Lumentum y Coherent (total 45 mil millones USD) para asegurar la cadena de suministro óptica. Corning, fundada en 1851, ve su valor subir un 316,81% en el último año, alcanzando 160 mil millones USD. Su crecimiento se debe a dos factores clave: la rigidez de la oferta (el proceso de fabricación de preformas es complejo y lento) y la transición forzada de cobre a fibra en infraestructuras de IA para mayor eficiencia y menor consumo energético. La fibra es crucial para la IA: su uso en bastidores de IA es 5-10 veces mayor que en centros tradicionales. Se espera que la demanda de fibra para IA represente el 35% del mercado total para 2027. Corning lidera en fibra especializada de baja pérdida, alta densidad y resistencia a la curvatura, esencial para transmisiones de 800G a 1,6T. Sus ingresos en comunicación óptica para empresas se duplicaron en dos años, superando los 30 mil millones USD en 2025, respaldados por acuerdos a largo plazo con Meta, NVIDIA y otros grandes clientes. Aunque no es el mayor fabricante global, Corning destaca en I+D (más de 10 mil millones USD anuales) y en su enfoque en el segmento premium de centros de datos de IA. El aumento de precios beneficia a toda la industria, como muestran los resultados de empresas chinas. El despliegue de Óptica de Co-Embalaje (CPO) y la posible adopción de fibra hueca son variables futuras clave. Sin embargo, la rápida apreciación de las acciones de Corning (multiplicando por 3 su relación P/E) ya refleja grandes expectativas, lo que podría aumentar la volatilidad si los pedidos no cumplen con el ritmo esperado.

marsbitHace 10 hora(s)

3 años, 5 veces: el renacimiento de una fábrica de vidrio centenaria

marsbitHace 10 hora(s)

Trading

Spot
Futuros
活动图片