Nota del editor:
Cuando la experiencia personal de vida y muerte se entrelaza con la metáfora del auge y caída de las instituciones nacionales, la narrativa política deja de ser una discusión abstracta sobre sistemas y se convierte en una profunda comprensión emocional. Este artículo utiliza la muerte del padre y el nacimiento de un hijo como punto de partida, extendiendo la comprensión personal de que «la muerte es un proceso» hacia una reflexión sobre el estado actual de la república estadounidense. En la perspectiva del autor, el conflicto actual entre las empresas de inteligencia artificial y el gobierno no es un evento aislado, sino un reflejo del prolongado debilitamiento institucional y del desequilibrio en las estructuras de poder.
El artículo se centra en la controversia entre Anthropic y el sistema de defensa de EE.UU., discutiendo desde los términos contractuales y los límites políticos hasta las amenazas de «riesgo en la cadena de suministro». Lo que se debate ya no es solo una pugna entre empresas y gobierno, sino una cuestión más fundamental: en la era de la inteligencia artificial avanzada, ¿a quién debería pertenecer el control? ¿A las empresas privadas, al poder ejecutivo, o a algún mecanismo público aún inmaduro? Cuando la seguridad nacional se convierte en justificación para la expansión del poder, y cuando los instrumentos políticos dependen cada vez más de arreglos temporales y coercitivos, ¿está disminuyendo la sensación de reglas y previsibilidad del sistema republicano?
El salto tecnológico y el cambio institucional pueden ocurrir simultáneamente, y su intersección a menudo influye en la dirección de una era. El autor cuestiona las acciones del gobierno, pero también mantiene la esperanza en una futura reconstrucción institucional, al mismo tiempo que advierte a los lectores que no equiparen simplemente el «control democrático» con el «control gubernamental». En el contexto del rápido avance de la IA y la continua reconfiguración de los modelos de gobernanza, este debate quizás sea solo el prólogo. Cómo lograr un nuevo equilibrio entre seguridad, eficiencia y libertad será un tema crucial a enfrentar en el futuro.
A continuación, el texto original:
Hace más de diez años, me senté junto a mi padre y lo acompañé en su muerte. Seis meses antes, era una persona llena de energía, más fuerte de lo que soy hoy, pedaleaba más rápido y con más resistencia que la mayoría de los veinteañeros. Luego, un día, se sometió a una cirugía cardíaca y nunca volvió a ser el mismo. Su alma pareció haberse esfumado, la luz en sus ojos desapareció. Ocasionalmente recuperaba algo de su brillo, ese padre familiar parecía regresar brevemente a su cuerpo que envejecía gradualmente, pero esos momentos fueron cada vez más escasos. Su pensamiento se volvió intermitente, su voz más tenue.
Durante esos seis meses, entró y salió del hospital repetidamente. El último día, fue trasladado a cuidados paliativos. Ese día apenas dijo nada. En sus últimas horas, ya casi había abandonado este mundo. Yacía en la cama del hospital, su respiración se ralentizando gradualmente, su voz volviéndose cada vez más débil. Finalmente, casi inaudible, solo quedaba un inquietante «estertor de muerte»: el resultado de un cuerpo que ya no podía tragar. Un cuerpo que no puede tragar, tampoco puede comer ni beber; en cierto sentido, ya ha dejado de luchar.
Mi madre y yo nos miramos, ambos sabíamos la obviedad, pero no dijimos la verdad evidente, ni nos hicimos la pregunta que ambos teníamos en mente. Sabíamos que quedaba poco tiempo. Decir o preguntar algo en ese momento no aportaría información útil; insistir solo aumentaría el dolor.
Más de una vez hablé con él en privado. Le tomé la mano, intentando despedirme. Mi madre regresó a la habitación, los tres nos tomamos de las manos. Finalmente, una máquina emitió un pitido prolongado, anunciando que había cruzado un límite — un límite invisible para quienes estábamos en la habitación. En la tarde del 26 de diciembre de 2014, mi padre falleció.
Días después, once años más tarde, el 30 de diciembre de 2025, nació mi hijo. He visto ocurrir la muerte y he visto el comienzo de la vida. Lo que aprendí es: ninguna de las dos es un evento instantáneo, sino un proceso que se desarrolla. El nacimiento es una serie de despertares, la muerte es una serie de adormecimientos. Mi hijo necesitará años para realmente «nacer», y mi padre tardó seis meses en realmente «irse». Algunas personas incluso tardan décadas en morir lentamente.
En algún momento de mi vida, no puedo precisar cuándo, la república estadounidense que conocíamos comenzó a morir. Como la mayoría de las muertes naturales, sus causas son complejas y entrelazadas. Ningún evento, crisis, ataque, presidente, partido, ley, idea, individuo, empresa, tecnología, error, traición, fracaso, error de cálculo o adversario extranjero «causó solo» el inicio de la muerte, aunque todos jugaron un papel. No sé en qué etapa de este proceso nos encontramos, pero sé que ya estamos en la «habitación de cuidados paliativos». Lo he sabido desde hace tiempo, aunque a veces, como todos los dolientes, me he negado a aceptarlo. Prefiero no hablar mucho de ello, porque hacerlo a menudo solo trae dolor.
Sin embargo, sin reconocer que estamos sentados junto a la cama del enfermo, no podría escribir hoy con el rigor analítico que esperan. Para discutir honestamente el desarrollo de la inteligencia artificial avanzada y el futuro que deberíamos construir, no se puede evitar el hecho de que la república que conocíamos está en sus últimas horas. Solo que aquí no hay una máquina que emita un pitido final por nosotros. Solo podemos mirar en silencio.
En la historia de Estados Unidos, nuestra república ha «muerto» y «renacido» múltiples veces. Estados Unidos ha experimentado más de un «fundación». Quizás estamos en el umbral de otro renacimiento, abriendo un nuevo capítulo en la constante auto-reconfiguración de la nación. Eso espero. Pero también es posible que ya no tengamos suficiente virtud y sabiduría para sustentar una nueva fundación, y una comprensión más realista es que estamos en una transición lenta hacia una era de gobierno estadounidense «posrepublicano». No pretendo saber la respuesta.
Lo que escribiré a continuación es un enfrentamiento entre una empresa de inteligencia artificial y el gobierno de los Estados Unidos. No quiero exagerarlo. El tipo de «muerte» que describo ha estado ocurriendo durante la mayor parte de mi vida. Los eventos que relato ocurrieron la semana pasada, e incluso podrían resolverse en cierta medida en unos días.
No digo que este evento «cause» la muerte de la república, ni que «inicie una nueva era». Si tiene algún significado, es solo hacer que la decadencia en curso sea más evidente para mí personalmente, más difícil de negar. Veo los eventos de la semana pasada como el «estertor de muerte» de la antigua república, el sonido que emite un cuerpo que ya ha dejado de luchar.
Por lo que sé, así fue: durante el gobierno de Biden, la empresa de IA Anthropic llegó a un acuerdo con el Departamento de Defensa (ahora llamado «Departamento de Guerra», en adelante DoW) que permitía el uso de su sistema de IA Claude en entornos clasificados. Este acuerdo fue ampliado en julio de 2025 por el gobierno de Trump (divulgación completa: en ese momento yo trabajaba en el gobierno de Trump, pero no participé en esta transacción). Otros modelos de lenguaje podían usarse en escenarios no clasificados, pero hasta hace poco, el trabajo clasificado, es decir, el que involucra recopilación de inteligencia, operaciones de combate, etc., solo podía realizarse con Claude.
El acuerdo negociado inicialmente por el equipo de Biden con Anthropic, cabe destacar que varios de los diseñadores clave de la política de IA del gobierno de Biden se unieron a Anthropic inmediatamente después de terminar sus mandatos, contenía dos restricciones de uso. Primero, Claude no podía usarse para vigilancia masiva de ciudadanos estadounidenses. Segundo, no podía usarse para controlar armas autónomas letales, es decir, armas capaces de realizar todo el proceso de identificación, seguimiento y eliminación sin participación humana alguna. El gobierno de Trump, al ampliar el acuerdo, tuvo la oportunidad de revisar estos términos y finalmente los aceptó.
Funcionarios de Trump afirmaron que su cambio de opinión no se debió a un deseo apresurado de realizar vigilancia masiva o desplegar armas autónomas letales, sino a su oposición a la idea de que una empresa privada imponga restricciones al uso militar de la tecnología. El cambio de actitud del gobierno lo llevó a emplear medidas políticas destinadas a dañar o incluso destruir Anthropic, una de las empresas de más rápido crecimiento en la historia del capitalismo, considerada también líder actual en el campo global de la IA, mientras el gobierno proclama constantemente que la IA es crucial para el futuro nacional. Pero volveremos a esto más adelante.
El argumento presentado por el gobierno de Trump no carece completamente de razón: suena algo incorrecto que una empresa privada imponga restricciones al uso militar de la tecnología. Sin embargo, la realidad es que miles de empresas privadas lo hacen. Cada transacción tecnológica entre el ejército y una empresa privada existe en forma de contrato (de ahí el término «contratista de defensa»), y los contratos suelen incluir limitaciones operativas (por ejemplo, «el sistema X no puede usarse en el país Y», similar a las cláusulas comunes en Starlink de Musk), limitaciones técnicas (por ejemplo, «un avión de combate certificado solo bajo condiciones específicas») y limitaciones de propiedad intelectual («el contratista posee y puede reutilizar la propiedad intelectual de la tecnología relevante»).
En algunos aspectos, los términos de Anthropic son similares a estas restricciones tradicionales. Por ejemplo, la empresa no se opone a las armas autónomas letales per se, sino que considera que los sistemas de IA avanzada actuales aún no son suficientes para decidir autónomamente sobre la vida y la muerte humana. Esto es bastante similar a las «restricciones de certificación de aviones de combate».
Pero la diferencia clave es que las restricciones impuestas por Anthropic a través del contrato se asemejan más a limitaciones políticas que técnicas. Es la diferencia entre «este avión de combate no está certificado para volar a cierta altitud» y «no debes volar a cierta altitud». Quizás el ejército no debería haber aceptado tales cláusulas, y quizás las empresas privadas no deberían establecerlas. Pero el gobierno de Biden las aceptó, y el gobierno de Trump inicialmente también las aceptó, hasta que se retractó posteriormente.
Esto en sí mismo indica: tales cláusulas no son absurdas ni violatorias. No hay ninguna ley que diga que los contratos solo pueden tener restricciones técnicas y no políticas. El contrato no es ilegal, quizás solo parezca poco sabio en retrospectiva. Incluso si apoyas la postura contra la vigilancia masiva y las armas autónomas letales, podrías pensar que un contrato de defensa no es la mejor herramienta para lograr objetivos políticos. Bajo las reglas convencionales de la república, la forma de lograr nuevas políticas es a través de la legislación.
Sin embargo, «a través de la legislación» se parece cada vez más a una broma en la América contemporánea. Si realmente deseas un resultado, la legislación ya no es el camino prioritario. La gobernanza se vuelve cada vez más informal, ad hoc, el poder ejecutivo se expande, y los instrumentos políticos son cada vez menos adecuados para sus objetivos.
El gobierno de Trump afirmó que su cambio de opinión se debió a dos preocupaciones: primero, que Anthropic podría retirar sus servicios en un momento crucial; segundo, que, como subcontratista, las cláusulas de Anthropic podrían restringir a otros contratistas militares. Sumado a que el gobierno ve a Anthropic como un oponente político (posiblemente con razón), el ejército suddenly se dio cuenta de que dependía de una empresa en la que no confiaba.
La acción racional habría sido cancelar el contrato y explicar públicamente las razones, al mismo tiempo que se establecen cláusulas regulatorias para evitar situaciones similares en el futuro. Pero el Departamento de Guerra insistió en que el contrato debe permitir «todos los usos legales» y amenazó con designar a Anthropic como un «riesgo para la cadena de suministro». Esta designación normalmente se aplica solo a empresas controladas por adversarios extranjeros, como Huawei. El Secretario de Guerra fue más allá, amenazando con prohibir que todos los contratistas militares tuvieran «cualquier relación comercial» con Anthropic.
Esto equivale casi a declarar un «asesinato corporativo» de una empresa. Incluso si la bala no es necesariamente mortal, es suficiente para enviar un mensaje: haz negocios en nuestros términos, o tu negocio termina.
Esto toca un principio central de la república estadounidense: la propiedad privada. Si el ejército le dijera a Google «vende los datos globales de búsqueda personalizada, o serás designado como riesgo», en principio sería lo mismo que la acción actual. La llamada propiedad privada no es más que un recurso que puede ser expropiado en nombre de la seguridad nacional.
Esta medida aumentará el costo de capital de toda la industria de la IA, debilitará la credibilidad internacional de la IA estadounidense e incluso podría dañar las perspectivas de rentabilidad de la propia industria de la IA.
Con cada cambio presidencial, la formulación de políticas en EE.UU. se vuelve más impredecible, brutal y arbitraria. Es difícil juzgar cuándo se evapora exactamente la libertad ordenada.
Incluso si el Secretario de Guerra retira la amenaza, el daño ya está hecho. El gobierno ha dejado claro: si te niegas a someterte, puedes ser considerado un enemigo. Esto erosiona la cultura política estadounidense en un nivel más profundo.
Más importante aún, esta es la primera vez que se debate abiertamente sobre «dónde debería residir el control de la IA avanzada». Nuestras instituciones públicas se muestran desordenadas, malintencionadas y carentes de claridad estratégica. El fracaso de las élites políticas no es novedad, sino un tema que se intensifica desde hace veinte años: «Como en el pasado, pero notablemente peor.»
Quizás la próxima fase de reconstrucción esté estrechamente ligada a la IA avanzada. En la futura construcción institucional, por favor, no equiparen el «control democrático» con el «control gubernamental». La brecha entre ambos nunca ha sido tan evidente como hoy.
Sea cual sea el futuro, debemos asegurarnos de que la vigilancia masiva y las armas autónomas no erosionen la libertad. Aplaudo a los laboratorios de IA por mantener la línea. En las próximas décadas, nuestra libertad podría ser más frágil de lo que imaginamos.
Cada uno debe elegir el futuro por el que está dispuesto a luchar o defender. Al tomar esa decisión, por favor, ignoren el ruido del «estertor de muerte» y mantengan un pensamiento independiente. Están entrando en una nueva era de construcción institucional.
Pero antes de eso, tomen un momento para lamentar la república que una vez fue.







