Ce qui a permis à GPT et Claude de se donner la main, c'est une opposition commune au Pentagone ?

marsbitPublished on 2026-02-28Last updated on 2026-02-28

Abstract

Résumé : Lors d'un sommet en Inde, les PDG d'OpenAI et d'Anthropic, rivaux dans l'IA, refusent de se tenir la main. Pourtant, ils s'unissent brièvement contre le Pentagone lorsque ce dernier exige qu'Anthropic supprime les garde-fois éthiques (pas de surveillance de masse, pas d'armes autonomes) d'un contrat de 200 millions de dollars. Anthropic refuse, est blacklisté comme "risque pour la sécurité" et perd tout accès aux contrats fédéraux. OpenAI, en revanche, signe un accord avec le Pentagone en acceptant des conditions moins strictes, révélant que le conflit était autant idéologique que commercial. La sanction sévère contre Anthropic sert d'avertissement à l'industrie sur le coût de la résistance face aux demandes gouvernementales.

Auteur: Curry, Deep Tide TechFlow

Il y a quelques jours, une photo a fait le buzz sur Internet.

L'Inde a organisé un sommet sur l'IA, le Premier ministre Modi était sur scène, entouré d'une rangée de grands noms de la Silicon Valley. Lors de la séance photo, Modi a pris la main de la personne à côté de lui et l'a levée au-dessus de sa tête, les autres ont suivi en se tenant également la main, créant une scène unie.

Mais, seules deux personnes ne se sont pas tenu la main.

Le PDG d'OpenAI et le PDG d'Anthropic, c'est-à-dire les patrons des deux sociétés derrière ChatGPT et Claude, se tenaient l'un à côté de l'autre, chacun levant un poing.

Pas de main tendue, pas de regard échangé, comme deux ennemis obligés de partager le même bureau par le professeur.

Ces deux entreprises se sont farouchement disputées ces dernières années, Claude a été créé par une équipe partie d'OpenAI, les deux se disputent les utilisateurs, les clients entreprises, le financement, et pendant le Super Bowl cette année, Anthropic a même dépensé de l'argent pour acheter une publicité se moquant de ChatGPT qui allait intégrer de la pub.

Donc, ne pas se tenir la main, c'est normal.

Cependant, aujourd'hui, ils se sont donnés la main. À cause du Pentagone.

Voici ce qui s'est passé.

Anthropic, la société derrière Claude, a signé l'année dernière un contrat pouvant atteindre 200 millions de dollars avec le département de la Défense américain. Claude est le premier modèle d'IA déployé sur les réseaux secrets de l'armée américaine, aidant à traiter l'analyse du renseignement, la planification des missions, etc.

Mais Anthropic a tracé deux lignes rouges dans le contrat :

Claude ne peut pas être utilisé pour une surveillance de masse des citoyens américains, ni pour des armes autonomes sans intervention humaine. (Lecture recommandée : Les soixante-douze heures de crise identitaire d'Anthropic)

Seulement, le Pentagone n'accepte pas.

Leur exigence est en quatre mots : sans restriction. Un outil acheté devrait pouvoir être utilisé librement, quelle est cette entreprise technologique qui ose dire à l'armée américaine ce qu'elle peut ou ne peut pas faire.

Mardi dernier, le secrétaire à la Défense Hegseth a adressé un ultimatum en face au PDG d'Anthropic : répondre avant vendredi 17h01, sinon subir les conséquences.

Anthropic n'a pas accepté.

Leur PDG a publié une déclaration publique, disant en substance : Nous sommes conscients de l'importance de l'IA pour la défense américaine, mais dans certains cas, l'IA peut nuire plutôt que défendre les valeurs démocratiques. Nous ne pouvons en conscience accepter cette exigence.

Le négociateur du Pentagone, le sous-secrétaire à la Défense Emil Michael, l'a ensuite traité de menteur sur les réseaux sociaux, disant qu'il avait un complexe de Dieu et qu'il jouait avec la sécurité nationale.

Une main tendue éphémère

Ensuite, l'inattendu s'est produit.

Des employés d'OpenAI et de Google, plus de 400 au total, ont signé une lettre ouverte collective intitulée "Nous ne serons pas divisés".

La lettre disait que le Pentagone négociait une par une avec les entreprises d'IA, essayant de faire accepter aux autres les conditions qu'Anthropic refusait, utilisant la peur pour diviser chaque entreprise.

Le PDG d'OpenAI a également envoyé une note interne à tous les employés, disant qu'OpenAI avait les mêmes lignes rouges qu'Anthropic :

Pas de surveillance de masse, pas d'armes létales autonomes.

Les deux entreprises qui refusaient de se donner la main il y a quelques jours se sont soudainement retrouvées du même côté à cause du Pentagone.

Mais cette solidarité n'a probablement duré que quelques heures.

Vendredi à 17h01, l'ultimatum du Pentagone a expiré. Anthropic n'a pas signé.

Une entreprise technologique américaine valorisée à 380 milliards de dollars, risquant l'annulation d'un contrat de 200 millions de dollars, a refusé le département de la Défense américain. Autrefois, ce genre de chose se serait au pire soldé par une résiliation de contrat et un changement de fournisseur. Mais cette fois, la réaction de Washington n'avait rien de commercial.

Trump a posté environ une heure plus tard sur Truth Social, qualifiant Anthropic de "fous de gauche", disant qu'ils essayaient de se placer au-dessus de la Constitution et jouaient avec la vie des militaires américains.

Il a demandé à toutes les agences fédérales de cesser immédiatement d'utiliser la technologie d'Anthropic.

Immédiatement après, le secrétaire à la Défense américain Hegseth a annoncé qu'Anthropic était classé "risque pour la sécurité de la chaîne d'approvisionnement". Cette étiquette est habituellement réservée à des entreprises comme Huawei. Le message est clair, tous les entrepreneurs travaillant avec l'armée américaine ne peuvent plus toucher aux produits d'Anthropic.

Anthropic a déclaré qu'elle irait en justice.

Et le même soir, OpenAI, qui maintenait jusqu'alors la même position, a signé un accord avec le Pentagone.

Un problème idéologique

Qu'a obtenu OpenAI ?

La place laissée vacante par l'exclusion de Claude : le fournisseur d'IA pour les réseaux secrets de l'armée américaine. Cependant, OpenAI a posé trois conditions au Pentagone : pas de surveillance de masse, pas d'armes autonomes, toute décision à haut risque doit impliquer un humain.

Le Pentagone a dit : d'accord.

Vous avez bien lu. Les conditions qu'Anthropic n'a pas réussi à faire accepter après des semaines de négociations, une autre entreprise les propose, et c'est réglé en quelques jours ?

Bien sûr, les propositions des deux côtés n'étaient pas exactement les mêmes.

Anthropic demandait une couche supplémentaire : ils estiment que la loi actuelle ne suit pas les capacités de l'IA, par exemple l'IA peut acheter légalement vos données de localisation, historiques de navigation, informations des réseaux sociaux, les agréger légalement, et le résultat final équivaut à une surveillance, mais chaque étape est légale.

Anthropic disait qu'écrire simplement "pas de surveillance" ne suffisait pas, il fallait combler cette faille. OpenAI n'a pas insisté sur ce point, ils ont accepté l'argument du Pentagone selon lequel la loi actuelle est suffisante.

Mais si vous pensez qu'il s'agit juste d'un désaccord sur une clause, vous êtes naïf. Cette négociation dès le départ ne portait pas seulement sur les clauses.

Le tsar de l'IA de la Maison Blanche, David Sacks, avait déjà publiquement critiqué Anthropic pour faire de l'"IA woke" (idéologie d'abord, politiquement correcte) ; de hauts fonctionnaires du Pentagone avaient dit aux médias que le problème de Dario (PDG d'Anthropic) était idéologique, "nous savons à qui nous avons affaire".

Elon Musk de xAI, lui-même concurrent direct d'Anthropic, a attaqué à plusieurs reprises Anthropic cette semaine sur X, disant que cette entreprise "déteste la civilisation occidentale".

Et le PDG d'Anthropic n'est pas allé à la cérémonie d'investiture de Trump l'année dernière. Le PDG d'OpenAI, lui, y est allé.

Faire un exemple

Alors résumons ce qui s'est passé.

Les mêmes principes, les mêmes lignes rouges, Anthropic, parce qu'elle a demandé une garantie supplémentaire, s'est placée du mauvais côté, a adopté la mauvaise posture, a été marquée comme une prétendue menace pour la sécurité nationale américaine au même niveau que Huawei.

OpenAI a demandé moins, a de meilleures relations, a obtenu le contrat. Appelez-vous ça une victoire des principes, ou un prix pour les principes ?

Ce n'est pas la première fois qu'un contrat du Pentagone est boycotté.

En 2018, plus de 4000 employés de Google ont signé une pétition, une douzaine ont démissionné, pour protester contre la participation de l'entreprise à un projet du Pentagone appelé Project Maven. Ce projet utilisait l'IA pour analyser les vidéos filmées par des drones, aidant l'armée à identifier les cibles plus rapidement.

Google a finalement quitté le projet. Il est parti sans renouveler. Les employés ont gagné.

8 ans plus tard, la même controverse revient. Mais cette fois, les règles ont complètement changé. Une entreprise américaine dit que je peux faire affaire avec l'armée, mais il y a deux choses que je ne ferai pas. La réponse du gouvernement américain est de l'exclure de tout le système fédéral.

Et l'étiquette "risque pour la sécurité de la chaîne d'approvisionnement" a une portée bien plus grande que la perte d'un contrat de 200 millions de dollars.

Le revenu d'Anthropic cette année est d'environ 14 milliards de dollars, le contrat de 2 milliards n'est même pas la moitié d'une fraction. Mais cette étiquette signifie que toute entreprise ayant des relations d'affaires avec l'armée américaine ne peut pas utiliser Claude.

Ces entreprises n'ont pas besoin de partager la position du Pentagone, elles doivent juste faire une évaluation des risques : continuer à utiliser Claude, risque de perdre des contrats gouvernementaux ; changer de modèle, aucun problème.

Le choix est facile. C'est le vrai signal de cette affaire.

Peu importe qu'Anthropic tienne le coup ou non, ce qui importe c'est si la prochaine entreprise osera résister. Elle regardera ce résultat, elle regardera le coût de坚持 ses principes, et elle prendra une décision très rationnelle.

En regardant à nouveau cette photo de l'Inde, tout le monde se tenant la main levée au-dessus de la tête, seul eux deux avaient chacun le poing serré.

Peut-être que c'est ça la normalité.

Les principes des entreprises d'IA peuvent être les mêmes, mais les mains ne se tendront pas nécessairement.

Related Questions

QQuel événement a provoqué le rapprochement temporaire entre OpenAI et Anthropic ?

ALe refus d'Anthropic d'accepter les conditions du Pentagone concernant l'utilisation sans restriction de son IA Claude pour la surveillance de masse et les armes autonomes, ce qui a conduit à une solidarité affichée par les employés des deux entreprises.

QQuelles étaient les deux 'lignes rouges' qu'Anthropic a établies dans son contrat avec le Pentagone ?

AAnthropic a stipulé que Claude ne pouvait pas être utilisé pour la surveillance de masse des citoyens américains ni pour des armes autonomes sans intervention humaine.

QQuelle a été la conséquence du refus d'Anthropic de céder aux exigences du Pentagone ?

ALe Pentagone a classé Anthropic comme un 'risque pour la sécurité de la chaîne d'approvisionnement', un label généralement réservé à des entreprises comme Huawei, empêchant ainsi tout contractant travaillant avec l'armée américaine d'utiliser les produits d'Anthropic.

QEn quoi l'accord final entre OpenAI et le Pentagone différait-il de la position d'Anthropic ?

AOpenAI a accepté la position du Pentagone selon laquelle les lois actuelles étaient suffisantes pour régir l'utilisation de l'IA, tandis qu'Anthropic insistait pour obtenir des garanties supplémentaires pour combler les lacunes juridiques potentielles concernant la surveillance de masse.

QQuel est le signal principal envoyé par la réaction du gouvernement américain envers Anthropic selon l'article ?

ALa réaction sévère du gouvernement envers Anthropic envoie un signal dissuasif aux autres entreprises technologiques, leur montrant le coût élevé de défier les exigences du Pentagone et les incitant à faire un 'choix rationnel' pour éviter de subir le même sort.

Related Reads

Hyperliquid défie la faiblesse des altcoins : Qu'est-ce qui alimente la demande de HYPE ?

Sur un marché défavorable aux altcoins, Hyperliquid (HYPE) affiche une résistance remarquable. Alors que l'indice de saison des altcoins stagne à 34/100 et que des actifs majeurs comme Ethereum et Solana enregistrent des baisses prononcées, HYPE se maintient autour de 26,71 $, préservant ses niveaux de support clés. Cette performance s'explique par des fondamentaux solides : le Total Value Locked (TVL) du protocole est passé de près de zéro début 2024 à plus de 6 milliards de dollars fin 2025, et les frais de protocole oscillent régulièrement entre 6 et 12 millions de dollars, témoignant d'une activité soutenue. Le protocole de trading perpétuel décentralisé (DEX) génère un volume réel important, et son listing sur Coinbase a élargi son accès institutionnel. De plus, la stratégie de trésorerie Hyperliquid ($PURR) se distingue en affichant 356 millions de dollars de gains non réalisés, un cas unique dans un contexte où la plupart des stratégies de trésorerie d'actifs numériques subissent des pertes substantielles. L'accumulation institutionnelle se poursuit via des transactions de gré à gré (OTC) importantes. Une baleine a ainsi acheté pour plus de 6 millions de dollars de HYPE via Galaxy Digital, portant son portefeuille à près de 15 millions de dollars. Cette accumulation progressive via des canaux OTC réduit l'offre en circulation et exerce une pression haussière sur la demande, indiquant une conviction institutionnelle forte en amont d'une éventuelle reprise du marché.

ambcrypto55m ago

Hyperliquid défie la faiblesse des altcoins : Qu'est-ce qui alimente la demande de HYPE ?

ambcrypto55m ago

Trading

Spot
Futures
活动图片