Le récit de la sécurité confronté à la pression de la réalité : comment Anthropic sombre dans une crise identitaire ?

比推Publié le 2026-02-27Dernière mise à jour le 2026-02-27

Résumé

Au cours de soixante-douze heures cruciales, Anthropic a été confrontée à une triple crise remettant en cause son identité et ses principes fondateurs. Le Pentagone a exigé sous ultimatum que l'entreprise lève les restrictions d'utilisation militaire de Claude, y compris pour le ciblage d'armes autonomes et la surveillance de masse, sous peine de sanctions sévères. Parallèlement, Anthropic a publié sa troisième politique d'extension responsable (RSP 3.0), supprimant l'engagement clé de suspendre l'entraînement des modèles si la sécurité ne pouvait être garantie. Simultanément, Elon Musk l'a accusée d'avoir volé des données d'entraînement, soulignant l'ironie de ses accusations de "distillation" contre des entreprises chinoises. Ces événements révèlent les contradictions croissantes d'une entreprise tiraillée entre ses valeurs de sécurité affichées, les pressions gouvernementales et la concurrence acharnée dans le secteur de l'IA. Sa narrative de "IA responsable", autrefois son atout maître, devient un handicap dans un paysage politique et économique en mutation. Le dilemme d'Anthropic symbolise l'érosion des idéaux face aux réalités du pouvoir et du profit.

Auteur : Ada, Shenchao TechFlow

Titre original : Les soixante-douze heures de crise identitaire d'Anthropic


24 février, mardi. Washington, Pentagone.

Dario Amodei, PDG d'Anthropic, est assis en face du secrétaire à la Défense Pete Hegseth. Selon des informations de NPR et CNN citant des sources bien informées, l'atmosphère de la réunion était « courtoise », mais le contenu ne l'était pas du tout.

Hegseth lui a donné un ultimatum : avant vendredi 17h01, lever les restrictions sur l'utilisation militaire de Claude, permettant au Pentagone de l'utiliser pour « tous les usages légitimes », y compris le ciblage d'armes autonomes et la surveillance de masse nationale.

Sinon, annuler le contrat de 200 millions de dollars. Activer le Defense Production Act pour une réquisition forcée. Classer Anthropic comme « risque pour la chaîne d'approvisionnement », ce qui équivaut à l'inscrire sur la liste noire des entités hostiles de la Russie et de la Chine.

Le même jour, Anthropic a publié la troisième version de sa « Politique d'expansion responsable » (RSP 3.0), supprimant silencieusement l'engagement le plus fondamental depuis la création : ne pas entraîner de modèles plus puissants si les mesures de sécurité ne peuvent être garanties.

Le même jour, Elon Musk a posté sur X : « Anthropic a massivement volé des données d'entraînement, c'est un fait. » Simultanément, une note communautaire de X a ajouté un rapport qu'Anthropic avait payé 1,5 milliard de dollars pour régler un litige concernant l'utilisation de livres piratés pour entraîner Claude.

En soixante-douze heures, cette entreprise d'IA qui se dit avoir une « âme » a joué trois rôles simultanés : martyr de la sécurité, voleur de propriété intellectuelle, traître au Pentagone.

Lequel est le vrai ?

Peut-être tous.

Le « plie ou casse-toi » du Pentagone

La première couche de l'histoire est simple.

Anthropic est la première entreprise d'IA à obtenir un accès de niveau confidentiel du département de la Défense américain. Le contrat, d'un plafond de 200 millions de dollars, a été obtenu l'été dernier. OpenAI, Google et xAI ont ensuite obtenu des contrats d'une ampleur similaire.

Selon un reportage d'Al Jazeera, Claude a été utilisé lors d'une opération militaire américaine en janvier dernier. Le reportage indique que l'opération impliquait l'enlèvement du président vénézuélien Maduro.

Mais Anthropic a tracé deux lignes rouges : pas de soutien au ciblage d'armes entièrement autonomes, pas de soutien à la surveillance de masse des citoyens américains. Anthropic estime que la fiabilité de l'IA n'est pas suffisante pour manipuler des armes, et qu'aucune loi ou régulation ne régit actuellement l'utilisation de l'IA dans la surveillance de masse.

Le Pentagone n'est pas convaincu.

Le conseiller de la Maison Blanche pour l'IA, David Sacks, a accusé publiquement Anthropic en octobre dernier sur X d'« utiliser la peur comme une arme, pour une capture réglementaire ».

Les concurrents ont plié. OpenAI, Google, xAI ont tous accepté de laisser l'armée utiliser leur IA pour « tous les scénarios légaux ». Le Grok de Musk vient d'être approuvé cette semaine pour entrer dans les systèmes confidentiels.

Anthropic est le dernier debout.

Au moment de la publication, Anthropic a déclaré dans un communiqué récent qu'il n'avait pas l'intention de céder. Mais l'échéance de vendredi 17h01 approche à grands pas.

Un ancien agent de liaison entre le ministère de la Justice et le département de la Défense, anonyme, a exprimé sa perplexité à CNN : « Comment pouvez-vous simultanément déclarer qu'une entreprise est un 'risque pour la chaîne d'approvisionnement' et forcer cette entreprise à travailler pour votre armée ? »

Bonne question, mais cela ne relève pas des préoccupations du Pentagone. Ce qui importe pour eux, c'est que si Anthropic ne cède pas, des mesures coercitives seront prises, ou bien, il deviendra un paria à Washington.

« Attaque par distillation » : une accusation qui se retourne contre son auteur

Le 23 février, Anthropic a publié un billet de blog au ton véhément, accusant trois entreprises chinoises d'IA d'avoir mené une « attaque par distillation de niveau industriel » contre Claude.

Les accusés sont DeepSeek, Moonshot AI et MiniMax.

Anthropic les accuse d'avoir utilisé 24 000 comptes falsifiés pour lancer plus de 16 millions d'interactions avec Claude, extrayant délibérément ses capacités fondamentales en raisonnement d'agent, utilisation d'outils et programmation.

Anthropic qualifie cet incident de menace pour la sécurité nationale, affirmant que les modèles distillés sont « peu susceptibles de conserver les garde-fous de sécurité » et pourraient être utilisés par des gouvernements autoritaires pour des cyberattaques, de la désinformation et de la surveillance de masse.

Le récit est parfait, le timing aussi.

Juste après que l'administration Trump ait assoupli les contrôles à l'exportation de puces vers la Chine, juste au moment où Anthropic avait besoin de munitions pour justifier son positionnement en faveur du contrôle des exportations de puces.

Mais Musk a tiré : « Anthropic a massivement volé des données d'entraînement et a payé des milliards de dollars pour régler cela. C'est un fait. »

Tory Green, cofondateur de l'entreprise d'infrastructure IA IO.Net, a commenté : « Vous entraînez votre modèle avec les données de tout Internet, puis quand d'autres utilisent votre API publique pour apprendre de vous, vous appelez ça une 'attaque par distillation' ? »

Anthropic appelle la distillation une « attaque », mais c'est une pratique courante dans l'industrie de l'IA. OpenAI l'utilise pour compresser GPT-4, Google pour optimiser Gemini, et Anthropic lui-même le fait aussi. La seule différence est que cette fois, c'est lui qui est distillé.

Selon le professeur d'IA Erik Cambria de l'Université technologique de Nanyang à Singapour, s'exprimant auprès de CNBC : « La frontière entre une utilisation légale et une exploitation malveillante est souvent floue. »

Plus ironiquement, Anthropic vient de payer 1,5 milliard de dollars pour régler un litige concernant l'utilisation de livres piratés pour entraîner Claude. Il utilise les données de tout Internet pour entraîner ses modèles, puis accuse les autres d'utiliser son API publique pour apprendre de lui. Ce n'est pas du deux poids deux mesures, c'est du trois poids trois mesures.

Anthropic voulait jouer la victime, mais s'est fait démasquer en tant qu'accusé.

Le démantèlement de l'engagement de sécurité : RSP 3.0

Le même jour que l'affrontement avec le Pentagone et la dispute avec la Silicon Valley, Anthropic a publié la troisième version de sa Politique d'expansion responsable.

Jared Kaplan, scientifique en chef d'Anthropic, a déclaré dans une interview médiatique : « Nous pensons qu'arrêter l'entraînement des modèles d'IA n'aide personne. Dans le contexte du développement rapide de l'IA, faire des engagements unilatéraux... alors que les concurrents avancent à plein régime, cela n'a pas de sens. »

En d'autres termes, les autres ne respectent pas les règles, alors nous non plus.

Le cœur des RSP 1.0 et 2.0 était un engagement ferme : suspendre l'entraînement si les capacités du modèle dépassent la couverture des mesures de sécurité. Cet engagement avait valu à Anthropic une réputation unique dans le cercle de la sécurité IA.

Mais la version 3.0 l'a supprimé.

Il est remplacé par un cadre plus « flexible », séparant les mesures de sécurité qu'Anthropic peut réaliser elle-même des recommandations de sécurité nécessitant une collaboration sectorielle en deux pistes. Publication d'un rapport sur les risques tous les 3-6 mois. Examen par des experts externes.

Cela semble responsable ?

Chris Painter, examinateur indépendant de l'organisation à but non lucratif METR, a déclaré après avoir examiné une version préliminaire de la politique : « Cela indique qu'Anthropic estime devoir entrer en 'mode triage' parce que les méthodes d'évaluation et d'atténuation des risques ne suivent pas le rythme de la croissance des capacités. Cela prouve davantage que la société n'est pas préparée aux risques catastrophiques potentiels de l'IA. »

Selon un reportage de TIME, Anthropic a discuté de cette réécriture en interne pendant près d'un an, le PDG Amodei et le conseil d'administration l'ayant approuvée à l'unanimité. La version officielle est que la politique initiale était conçue pour favoriser un consensus sectoriel, mais le secteur ne l'a tout simplement pas suivi. L'administration Trump a adopté une attitude laxiste envers le développement de l'IA, tentant même d'abroger les régulations des États. Une loi fédérale sur l'IA n'est pas pour demain. Bien qu'un cadre de gouvernance mondiale semblait possible en 2023, trois ans plus tard, cette porte est manifestement fermée.

Un chercheur anonyme suivant depuis longtemps la gouvernance de l'IA a été plus direct : « La RSP est l'actif de marque le plus précieux d'Anthropic. Supprimer l'engagement de suspension de l'entraînement, c'est comme si une entreprise d'alimentation biologique arrachait silencieusement le mot 'biologique' de son emballage, puis vous disait que leurs tests sont maintenant plus transparents. »

La déchirure identitaire sous une valorisation de 3800 milliards

Début février, Anthropic a levé 30 milliards de dollars à une valorisation de 3800 milliards, Amazon étant l'investisseur ancrage. Depuis sa création, elle a réalisé un revenu annualisé de 140 milliards de dollars. Au cours des trois dernières années, ce chiffre a augmenté de plus de 10 fois chaque année.

Simultanément, le Pentagone menace de l'inscrire sur liste noire. Musk accuse publiquement son vol de données. Son engagement de sécurité central est supprimé. Mrinank Sharma, responsable de la sécurité de l'IA chez Anthropic, a démissionné et écrit sur X : « Le monde est en danger. »

Contradiction ?

Peut-être que la contradiction est dans l'ADN d'Anthropic.

Cette entreprise a été fondée par d'anciens cadres d'OpenAI, inquiets qu'OpenAI aille trop vite sur les questions de sécurité. Puis ils ont construit leur propre entreprise, développant des modèles plus puissants à un rythme encore plus rapide, tout en disant au monde à quel point ces modèles sont dangereux.

Le modèle économique peut se résumer en une phrase : nous avons plus peur de l'IA que quiconque, donc vous devriez nous payer pour la construire.

Ce récit a parfaitement fonctionné en 2023-2024. La sécurité de l'IA était un mot à la mode à Washington, Anthropic était le lobbyiste le plus populaire.

En 2026, le vent a tourné.

« Woke AI » est devenu une étiquette d'attaque, les projets de loi étatiques sur la régulation de l'IA ont été bloqués par la Maison Blanche, le SB 53 de Californie soutenu par Anthropic a bien été signé, mais au niveau fédéral, c'est le désert.

L'atout sécurité d'Anthropic glisse d'« avantage différenciateur » à « passif politique ».

Anthropic effectue un numéro d'équilibriste complexe, elle doit être suffisamment « sûre » pour maintenir sa marque, et suffisamment « flexible » pour ne pas être rejetée par le marché et le gouvernement. Le problème est que la marge de tolérance des deux côtés se réduit.

Le récit de la sécurité, combien ça vaut encore ?

En superposant les trois événements, l'image devient claire.

Accuser les entreprises chinoises de distiller Claude, c'est pour renforcer le récit de lobbying sur le contrôle des exportations de puces. Supprimer l'engagement de pause sécurité, c'est pour ne pas prendre de retard dans la course aux armements. Refuser l'exigence du Pentagone sur les armes autonomes, c'est pour préserver la dernière couche d'habit moral.

Chaque étape a sa logique, mais elles se contredisent mutuellement.

Vous ne pouvez pas dire que la « distillation » de votre modèle par des entreprises chinoises menace la sécurité nationale, tout en supprimant l'engagement qui empêche votre propre modèle de devenir incontrôlable. Si le modèle est vraiment si dangereux, vous devriez être plus prudent, pas plus agressif.

Sauf si vous êtes Anthropic.

Dans l'industrie de l'IA, l'identité n'est pas définie par vos déclarations, mais par votre bilan. Le récit de « sécurité » d'Anthropic est essentiellement une prime de marque.

Au début de la course aux armements de l'IA, cette prime valait de l'argent. Les investisseurs acceptaient de payer une valorisation plus élevée pour une « IA responsable », le gouvernement accordait son feu vert à une « IA digne de confiance », les clients acceptaient de payer pour une « IA plus sûre ».

Mais en 2026, cette prime s'évapore.

Anthropic n'affronte pas un choix du type « faut-il céder ou non », mais un classement du type « à qui céder en premier ». Céder au Pentagone, la marque est endommagée. Céder aux concurrents, les engagements de sécurité sont annulés. Céder aux investisseurs, il faut concéder sur les deux fronts.

Vendredi à 17h01, Anthropic donnera sa réponse.

Mais quelle que soit la réponse, une chose est certaine : cet Anthropic qui s'est fait une place en disant « nous sommes différents d'OpenAI » devient comme tout le monde.

La fin d'une crise identitaire, c'est souvent la disparition de l'identité.


Twitter : https://twitter.com/BitpushNewsCN

Groupe Telegram BiTui : https://t.me/BitPushCommunity

Abonnement Telegram BiTui : https://t.me/bitpush

Lien original : https://www.bitpush.news/articles/7615114

Lectures associées

Qui prend les décisions pour l'IA trace un seuil de 40 000 milliards de dollars

Le véritable enjeu de l'IA ne réside pas dans sa capacité technique, mais dans la conception des responsabilités. L’article distingue deux avenirs possibles : un où l’IA amplifie les humains, et un autre où elle les remplace. La différence fondamentale réside dans l’attribution des conséquences. Pour que l’IA soit un outil d’augmentation, chaque action à impact doit être traçable vers une personne identifiable qui a consciemment approuvé ou refusé la décision. Sans cette boucle de responsabilité humaine, les systèmes glissent naturellement vers le remplacement, poussés par la « fatigue des permissions » qui incite les utilisateurs à automatiser les validations. La valeur des agents IA ne réside donc pas dans l’exécution de tâches, mais dans leur capacité à compresser la complexité en décisions signables. Les gagnants de demain seront ceux qui saurant produire des résumés fidèles et actionnables pour les humains. Enfin, l’article souligne que les constructeurs d’IA devraient assumer la responsabilité des actions de leurs systèmes, comme dans tout autre secteur. Cette accountability inverserait la logique économique : au lieu de viser le remplacement des emplois, le marché se concentrerait sur l’amplification des capacités humaines, visant un potentiel de 40 000 milliards de dollars de revenus du travail qualifié plutôt que les budgets logiciels.

marsbitIl y a 53 mins

Qui prend les décisions pour l'IA trace un seuil de 40 000 milliards de dollars

marsbitIl y a 53 mins

Trading

Spot
Futures

Articles tendance

Comment acheter ADA

Bienvenue sur HTX.com ! Nous vous permettons d'acheter Cardano (ADA) de manière simple et pratique. Suivez notre guide étape par étape pour commencer votre parcours crypto.Étape 1 : Création de votre compte HTXUtilisez votre adresse e-mail ou votre numéro de téléphone pour ouvrir un compte sur HTX gratuitement. L'inscription se fait en toute simplicité et débloque toutes les fonctionnalités.Créer mon compteÉtape 2 : Choix du mode de paiement (rubrique Acheter des cryptosCarte de crédit/débit : utilisez votre carte Visa ou Mastercard pour acheter instantanément Cardano (ADA).Solde :utilisez les fonds du solde de votre compte HTX pour trader en toute simplicité.Prestataire tiers :pour accroître la commodité d'utilisation, nous avons ajouté des modes de paiement populaires tels que Google Pay et Apple Pay.P2P :tradez directement avec d'autres utilisateurs sur HTX.OTC (de gré à gré) : nous offrons des services personnalisés et des taux de change compétitifs aux traders.Étape 3 : stockage de vos Cardano (ADA)Après avoir acheté vos Cardano (ADA), stockez-les sur votre compte HTX. Vous pouvez également les envoyer ailleurs via un transfert sur la blockchain ou les utiliser pour trader d'autres cryptos.Étape 4 : tradez des Cardano (ADA)Tradez facilement Cardano (ADA) sur le marché Spot de HTX. Il vous suffit d'accéder à votre compte, de sélectionner la paire de trading, d'exécuter vos trades et de les suivre en temps réel. Nous offrons une expérience conviviale aux débutants comme aux traders chevronnés.

854 vues totalesPublié le 2024.12.10Mis à jour le 2025.03.21

Comment acheter ADA

Discussions

Bienvenue dans la Communauté HTX. Ici, vous pouvez vous tenir informé(e) des derniers développements de la plateforme et accéder à des analyses de marché professionnelles. Les opinions des utilisateurs sur le prix de ADA (ADA) sont présentées ci-dessous.

活动图片