Note de la rédaction :
Lorsque l'expérience personnelle de la vie et de la mort s'entrelace avec la métaphore du déclin des institutions nationales, le récit politique cesse d'être une discussion abstraite sur les systèmes pour devenir une expérience émotionnelle profonde. Cet article, prenant comme point de départ la mort du père et la naissance de l'enfant de l'auteur, étend la prise de conscience personnelle que « la mort est un processus » à une réflexion sur l'état actuel de la République américaine. Pour l'auteur, le conflit actuel entre les entreprises d'intelligence artificielle et le gouvernement n'est pas un événement isolé, mais le reflet d'un relâchement institutionnel de longue date et d'un déséquilibre structurel du pouvoir.
L'article se concentre sur la controverse entre Anthropic et l'appareil de défense américain. Des clauses contractuelles aux limites politiques en passant par les menaces de « risque pour la chaîne d'approvisionnement », la discussion ne porte plus seulement sur un bras de fer entre une entreprise et le gouvernement, mais sur une question plus fondamentale : à qui devrait appartenir le contrôle à l'ère de l'intelligence artificielle de pointe ? Aux entreprises privées, au pouvoir exécutif, ou à un mécanisme public encore immature ? Lorsque la sécurité nationale devient une justification pour l'expansion du pouvoir, et que les instruments politiques reposent de plus en plus sur des arrangements temporaires et coercitifs, le sens des règles et la prévisibilité de la République s'affaiblissent-ils ?
Les sauts technologiques et les changements institutionnels peuvent survenir simultanément, et leur intersection influence souvent la trajectoire d'une époque. L'auteur remet en question les actions du gouvernement tout en conservant l'espoir d'une reconstruction future des institutions, tout en rappelant aux lecteurs de ne pas assimiler simplement le « contrôle démocratique » au « contrôle gouvernemental ». Dans le contexte de l'évolution rapide de l'IA et de la refonte continue des modèles de gouvernance, ce débat n'est peut-être qu'un prélude. Trouver un nouvel équilibre entre sécurité, efficacité et liberté sera un enjeu crucial pour les années à venir.
Voici l'article original :
Il y a plus de dix ans, j'étais assis aux côtés de mon père alors qu'il mourait. Six mois plus tôt, c'était un homme plein d'énergie, plus robuste que je ne le suis aujourd'hui, plus rapide et plus endurant à vélo que la plupart des jeunes de vingt ans. Puis un jour, il a subi une opération cardiaque et n'a plus jamais été le même. Son âme semblait s'être envolée, la lumière dans ses yeux avait disparu. Parfois, il retrouvait un peu de son éclat, ce père familier revenant brièvement dans son corps vieillissant, mais ces moments se faisaient de plus en plus rares. Sa pensée devenait hachée, sa voix de plus en plus faible.
Pendant ces six mois, il est entré et sorti de l'hôpital à plusieurs reprises. Le dernier jour, il a été transféré en soins palliatifs. Ce jour-là, il a à peine parlé. Dans les dernières heures de sa vie, il avait presque déjà quitté ce monde. Il était allongé sur le lit, sa respiration ralentissait progressivement, sa voix devenait de plus en plus ténue. Finalement, on ne l'entendait presque plus, il ne restait qu'un inquiétant « râle agonique » — le résultat d'un corps incapable d'avaler. Un corps qui ne peut plus avaler ne peut plus manger ni boire, d'une certaine manière, il avait abandonné la lutte.
Ma mère et moi avons échangé un regard, nous savions tous les deux, sans prononcer l'évidence, sans poser les questions que nous avions en tête. Nous savions que le temps était compté. Dire ou demander quoi que ce soit à ce stade n'aurait apporté aucune information utile ; insister n'aurait fait qu'augmenter la souffrance.
Je lui ai parlé en privé à plusieurs reprises. Je tenais sa main, essayant de lui faire mes adieux. Ma mère est revenue dans la chambre, nous nous sommes tenus la main tous les trois. Finalement, une machine a émis un long bip, annonçant qu'il avait franchi une ligne — une ligne invisible pour les personnes présentes dans la pièce. Dans l'après-midi du 26 décembre 2014, mon père est décédé.
Quelques jours plus tard, onze ans après, le 30 décembre 2025, mon fils est né. J'ai vu la mort arriver de mes propres yeux, et j'ai vu la naissance de la vie. Ce que j'ai appris, c'est que ni l'une ni l'autre n'est un événement instantané, mais un processus qui se déroule. La naissance est une série d'éveils, la mort est une série d'endormissements. Mon fils a mis des années à vraiment « naître », et mon père a mis six mois à vraiment « partir ». Certains mettent même des décennies à mourir lentement.
À un moment de ma vie, je ne saurais dire exactement quand, la République américaine que nous connaissions a commencé à mourir. Comme la plupart des morts naturelles, ses causes sont complexes et entrelacées. Aucun événement, crise, attaque, président, parti, loi, idée, individu, entreprise, technologie, erreur, trahison, échec, erreur de jugement ou adversaire étranger n'a « seul » provoqué le début de la mort, bien que tous y aient contribué. Je ne sais pas à quel stade de ce processus nous en sommes, mais je sais que nous sommes déjà dans la « chambre des soins palliatifs ». Je le savais depuis longtemps, mais comme tous ceux qui sont en deuil, je me suis parfois dénié cette réalité. Je n'aime pas en parler, car en parler ne fait souvent qu'augmenter la douleur.
Cependant, sans reconnaître que nous sommes assis au chevet du malade, je ne pourrais pas écrire aujourd'hui avec la rigueur analytique que vous attendez. Pour discuter honnêtement du développement de l'intelligence artificielle de pointe et de l'avenir que nous devrions construire, on ne peut éviter le fait que la République que nous connaissons est en train de s'éteindre. Simplement, il n'y a pas de machine ici pour émettre un long bip final. Nous ne pouvons que regarder en silence.
Dans l'histoire des États-Unis, notre République est « morte » et « renaître » à plusieurs reprises. L'Amérique a connu plus d'une « fondation ». Peut-être sommes-nous à l'aube d'une autre renaissance, ouvrant un nouveau chapitre de la perpétuelle auto-refonte de la nation. Je l'espère. Mais il se peut aussi que nous n'ayons plus assez de vertu et de sagesse pour soutenir une nouvelle fondation, et une compréhension plus réaliste est que nous sommes en transition lente vers une ère de gouvernance américaine « post-républicaine ». Je ne prétends pas connaître la réponse.
Ce que je vais écrire ensuite concerne un affrontement entre une entreprise d'intelligence artificielle et le gouvernement américain. Je ne veux pas exagérer son importance. La « mort » que je décris dure depuis la majeure partie de ma vie. Les événements que je vais décrire se sont produits la semaine dernière, et pourraient même être résolus dans une certaine mesure en quelques jours.
Je ne dis pas que cet événement a « causé » la mort de la République, ni qu'il « a ouvert une nouvelle ère ». S'il a une signification, c'est seulement qu'il a rendu le déclin en cours plus visible pour moi personnellement, plus difficile à nier. Je vois les événements de la semaine dernière comme le « râle agonique » de l'ancienne République, le son émis par un corps qui a abandonné la lutte.
Pour autant que je sache, voici ce qui s'est passé : Sous l'administration Biden, l'entreprise d'IA Anthropic a conclu un accord avec le Département de la Défense (maintenant appelé « Département de la Guerre », ci-après DoW) permettant à son système d'IA Claude d'être utilisé dans des environnements classifiés. Cet accord a été élargi en juillet 2025 par l'administration Trump (divulgation complète : j'étais en poste dans l'administration Trump à l'époque, mais je n'ai pas participé à cette transaction). D'autres modèles de langage pouvaient être utilisés pour des scénarios non classifiés, mais jusqu'à récemment, le travail classifié, impliquant la collecte de renseignements, les opérations de combat, etc., ne pouvait être effectué qu'avec Claude.
L'accord initial négocié par l'équipe de Biden avec Anthropic — il est à noter que plusieurs concepteurs clés de la politique d'IA de l'administration Biden ont rejoint Anthropic immédiatement après leur mandat — contenait deux restrictions d'utilisation. Premièrement, Claude ne devait pas être utilisé pour une surveillance de masse visant des Américains. Deuxièmement, il ne devait pas être utilisé pour contrôler des armes létales autonomes, c'est-à-dire des armes capables de fonctionner dans l'ensemble du processus d'identification, de suivi et de mise à mort sans aucune participation humaine. L'administration Trump, en élargissant l'accord, a eu l'occasion d'examiner ces clauses et les a finalement acceptées.
Les responsables de Trump ont déclaré que leur changement d'avis n'était pas dû à un empressement à mener une surveillance de masse ou à déployer des armes autonomes létales, mais à leur opposition à l'idée même que des entreprises privées imposent des restrictions sur l'utilisation de la technologie militaire. Ce revirement de l'administration l'a poussée à adopter des mesures politiques visant à nuire, voire à détruire Anthropic — l'une des entreprises à la croissance peut-être la plus rapide de l'histoire du capitalisme, considérée comme un leader actuel dans le domaine de l'IA mondiale, alors que le gouvernement affirme que l'IA est cruciale pour l'avenir du pays. Mais nous reviendrons sur ce point plus tard.
Le point de vue avancé par l'administration Trump n'est pas sans raison : il semble effectivement étrange qu'une entreprise privée impose des restrictions sur l'utilisation de la technologie militaire. Pourtant, en réalité, des milliers d'entreprises privées le font. Chaque transaction technologique entre l'armée et une entreprise privée existe sous forme de contrat (d'où le terme « contractant de la défense »), et ces contrats contiennent généralement des restrictions opérationnelles (par exemple, « le système X ne doit pas être utilisé dans le pays Y », similaire aux clauses courantes de Starlink de Musk), des restrictions techniques (par exemple, « tel avion de combat n'est certifié que dans des conditions spécifiques ») et des restrictions de propriété intellectuelle (« l'entrepreneur possède et peut réutiliser la propriété intellectuelle de la technologie concernée »).
À certains égards, les clauses d'Anthropic ressemblent à ces restrictions traditionnelles. Par exemple, l'entreprise n'était pas opposée aux armes autonomes létales en soi, mais estimait que les systèmes d'IA de pointe existants n'étaient pas encore suffisants pour décider de manière autonome de la vie et de la mort humaines. Cela ressemble beaucoup à une « restriction de certification d'avion de combat ».
Mais la différence cruciale est que les restrictions imposées par Anthropic via le contrat ressemblaient plus à des restrictions politiques qu'à des restrictions techniques. La distinction entre « cet avion de combat n'est pas certifié pour voler à telle altitude » et « vous ne devez pas voler à telle altitude ». L'armée n'aurait peut-être pas dû accepter de telles clauses, et les entreprises privées n'auraient peut-être pas dû les fixer. Mais l'administration Biden les a acceptées, et l'administration Trump les a initialement acceptées aussi, avant de se rétracter.
Cela indique en soi que de telles clauses ne sont pas des violations absurdes. Aucune loi ne stipule qu'un contrat ne peut contenir que des restrictions techniques et non politiques. Le contrat n'est pas illégal, il est peut-être simplement, rétrospectivement, pas très judicieux. Même si vous soutenez la position contre la surveillance de masse et les armes autonomes létales, vous pourriez penser que les contrats de défense ne sont pas le meilleur outil pour atteindre des objectifs politiques. Selon les règles conventionnelles de la République, la manière d'établir une nouvelle politique passe par la législation.
Cependant, « par la législation » ressemble de plus en plus à une blague dans l'Amérique contemporaine. Si vous voulez vraiment obtenir un résultat, la législation n'est plus la voie prioritaire. La gouvernance devient de plus en plus informelle, ad hoc, le pouvoir exécutif s'étend, et les outils politiques sont de moins en moins adaptés à leurs objectifs.
L'administration Trump a justifié son revirement par deux inquiétudes : premièrement, qu'Anthropic pourrait retirer son service à un moment crucial ; deuxièmement, qu'en tant que sous-traitant, les clauses d'Anthropic pourraient contraindre d'autres entrepreneurs militaires. Ajouté au fait que le gouvernement considère Anthropic comme un adversaire politique (ils ont probablement raison dans leur jugement), l'armée a soudainement pris conscience qu'elle dépendait d'une entreprise en laquelle elle n'avait pas confiance.
L'approche rationnelle aurait été de résilier le contrat et d'en expliquer publiquement les raisons, tout en évitant de futures situations similaires par des clauses réglementaires. Mais le Département de la Guerre a insisté pour que le contrat permette « toutes les utilisations légales » et a menacé de classer Anthropic comme un « risque pour la chaîne d'approvisionnement ». Cette désignation est généralement réservée aux entreprises contrôlées par des adversaires étrangers, comme Huawei. Le ministre de la Guerre est allé plus loin, menaçant d'empêcher tout entrepreneur militaire d'avoir « toute relation commerciale » avec Anthropic.
Cela équivaut presque à déclarer un « meurtre d'entreprise » contre une société. Même si les balles ne sont pas nécessairement mortelles, elles suffisent à envoyer un message : faites affaire selon nos conditions, ou votre entreprise prend fin.
Cela touche à un principe central de la République américaine : la propriété privée. Si l'armée disait à Google « vendez les données de recherche personnalisées mondiales, sinon vous serez classé comme risque », ce serait en principe la même chose que l'actuel comportement. La propriété privée n'est plus qu'une ressource pouvant être réquisitionnée au nom de la sécurité nationale.
Cette mesure augmentera le coût du capital pour l'ensemble du secteur de l'IA, affaiblira la crédibilité internationale de l'IA américaine et pourrait même nuire aux perspectives de rentabilité du secteur de l'IA lui-même.
Avec chaque alternance présidentielle, l'élaboration des politiques aux États-Unis devient plus imprévisible, plus brutale et plus arbitraire. Il est difficile de dire exactement quand la liberté ordinaire s'évapore.
Même si le ministre de la Guerre retire sa menace, le mal est déjà fait. Le gouvernement a montré : dès que vous refusez de vous soumettre, vous pouvez être considéré comme un ennemi. Cela constitue une érosion plus profonde de la culture politique américaine.
Plus important encore, c'est la première véritable dispute publique autour de la question : « À qui devrait appartenir le contrôle de l'IA de pointe ? » Nos institutions publiques se comportent de manière désordonnée, malveillante et manquent de clarté stratégique. L'échec des élites politiques n'est pas nouveau, c'est un thème qui s'intensifie depuis vingt ans : « Comme avant, mais nettement pire. »
Peut-être que la prochaine phase de reconstruction sera étroitement liée à l'IA avancée. Dans la construction institutionnelle future, ne confondez pas « contrôle démocratique » avec « contrôle gouvernemental ». L'écart entre les deux n'a jamais été aussi évident qu'aujourd'hui.
Quel que soit l'avenir, nous devons nous assurer que la surveillance de masse et les armes autonomes ne puissent pas éroder la liberté. Je salue les laboratoires d'IA qui tiennent bon. Dans les décennies à venir, notre liberté pourrait être plus fragile que nous ne le pensons.
Chacun doit choisir l'avenir pour lequel il est prêt à se battre ou à défendre. En faisant votre choix, ignorez le vacarme de ce « râle agonique » et gardez une pensée indépendante. Vous entrez dans une nouvelle ère de construction institutionnelle.
Mais avant cela, prenez un moment pour pleurer cette République qui fut.







