Anthropic refuse l'accès de son modèle IA Mythos, le plus puissant, à un think tank chinois, accentuant la rivalité sino-américaine en matière d'IA

marsbitPublié le 2026-05-13Dernière mise à jour le 2026-05-13

Résumé

Résumé : En mai 2026, lors d'une réunion fermée à Singapour, un représentant d'un think tank chinois a demandé à Anthropic un accès à son modèle d'IA le plus puissant, Claude Mythos, et s'est vu refuser. Ce modèle, publié en avril et qualifié de "technologie de niveau arme numérique" pour ses capacités en cybersécurité, n'est accessible qu'à environ 40 organisations américaines et britanniques. Anthropic classe la Chine parmi les "nations adverses". L'incident a alerté le Conseil de sécurité nationale américain, dans un contexte de tensions géopolitiques sur l'IA. Alors que l'administration Trump prépare un décret sur la régulation de l'IA et que le président doit se rendre en Chine, les réactions chinoises officielles sont restées discrètes. Le secteur chinois de la cybersécurité anticipe néanmoins une forte croissance, même si les modèles locaux restent pour l'instant loin des capacités du Mythos.

Auteur : Claude, Deep Tide TechFlow

Aperçu Deep Tide : Selon un rapport du New York Times du 12 mai, lors d'une réunion à huis clos organisée par la Carnegie Endowment for International Peace à Singapour le mois dernier, un représentant d'un think tank chinois a demandé à Anthropic d'ouvrir l'accès à son modèle Claude Mythos. La demande a été refusée sur place.

L'incident, rapporté ensuite à la Maison Blanche, a suscité une vive inquiétude au sein du Conseil de sécurité nationale américain.

Mythos, le modèle d'IA le plus puissant publié par Anthropic en avril, est considéré comme une technologie de « niveau arme numérique » en raison de ses capacités offensives et défensives dans le domaine de la cybersécurité. Il n'est actuellement accessible qu'à une quarantaine d'organisations américaines et britanniques. Cet événement survient alors que l'administration Trump élabore un décret exécutif sur la régulation de l'IA. Trump doit également se rendre en Chine cette semaine à la tête d'une délégation d'entreprises pour discuter de questions liées à l'IA.

Un dialogue à huis clos à Singapour est en train de devenir le nouveau point d'ignition de la rivalité sino-américaine en matière d'IA.

Selon le New York Times du 12 mai, lors d'une réunion non publique organisée par la Carnegie Endowment for International Peace à Singapour le mois dernier, un représentant d'un think tank chinois a, en marge de la réunion, adressé une requête aux responsables d'Anthropic : il souhaitait que l'entreprise assouplisse sa politique pour permettre un accès chinois à son dernier et plus puissant modèle d'IA, Claude Mythos.

La demande a été refusée sur place par Anthropic.

Il ne s'agissait pas d'une demande diplomatique officielle du gouvernement chinois. Cependant, selon plusieurs médias, l'incident, rapporté à Washington, a alerté les responsables du Conseil de sécurité nationale (NSC) de l'administration Trump, qui y voient un signal supplémentaire de la pression continue de la Chine dans le domaine de l'IA.

Mythos : Une capacité bien supérieure à la génération précédente, une « arme numérique » à diffusion limitée

Pour comprendre la portée de cet événement, il faut revenir à Mythos lui-même.

Claude Mythos Preview a été officiellement lancé le 7 avril 2026, mais n'est pas accessible au public. Anthropic l'a limité dans le cadre d'une initiative de défense en cybersécurité appelée « Project Glasswing », ouvrant l'accès uniquement à environ 40 organisations. Les partenaires comprennent Amazon, Apple, Microsoft, CrowdStrike, Cisco, NVIDIA, JPMorgan Chase et la Linux Foundation, entre autres.

Selon le blog officiel d'Anthropic et un rapport de TechCrunch du 7 avril, Mythos a découvert de manière autonome des milliers de vulnérabilités zero-day (des failles de sécurité non découvertes auparavant par les développeurs) lors de tests internes, couvrant tous les principaux systèmes d'exploitation et navigateurs, certaines vulnérabilités existant depuis jusqu'à 27 ans. Dans des évaluations de cybersécurité comme CyberGym, les performances de Mythos dépassent largement celles du modèle précédent, Claude Opus 4.6. Son score de validation SWE-bench atteint 93,9 %, contre 80,8 % pour Opus 4.6.

La Chine exclue, étiquetée « nation antagoniste »

Anthropic classe la Chine comme une « nation antagoniste » (adversarial nation). Ses services sont de toute façon indisponibles en Chine continentale, et la diffusion restreinte de Mythos exclut explicitement les organisations chinoises.

Selon une série de trois articles du South China Morning Post entre fin avril et début mai, la réaction chinoise à l'incident Mythos présente un visage complexe. Au niveau officiel, la retenue est de mise, sans déclaration publique majeure ni réponse véhémente. Certains membres du milieu chinois de l'IA ont même mis en doute qu'Anthropic utilise le prétexte des risques sécuritaires pour créer un coup marketing, limitant l'accès au modèle aux entreprises américaines.

Mais la réaction de l'industrie de la cybersécurité est tout autre. Après la publication de Mythos, les actions d'entreprises chinoises de cybersécurité cotées en bourse comme Qi An Xin, Sangfor et 360 Security ont augmenté pendant plusieurs jours consécutifs, le marché anticipant une accélération de la demande en cybersécurité pilotée par l'IA.

Austin Zhao, directeur de recherche principal chez IDC Chine, a déclaré au South China Morning Post qu'un modèle de niveau Mythos « apparaîtra certainement » en Chine, mais que la capacité globale des modèles de cybersécurité chinois est « encore loin de Mythos » pour le moment. Cependant, les capacités des modèles chinois progressent également rapidement, une tendance jugée irréversible. IDC prévoit que la taille de l'industrie chinoise de la cybersécurité par IA passera de 1,58 milliard de yuans (15,8亿元人民币) en 2025 à 59,35 milliards de yuans (593,5亿元人民币, soit environ 87 milliards de dollars) en 2030, une augmentation de plus de 37 fois.

Le dilemme réel est le suivant : les logiciels sous-jacents exécutés par de nombreuses banques, entreprises énergétiques et agences gouvernementales chinoises sont largement les mêmes que ceux dans lesquels Mythos a découvert des vulnérabilités. Mais pour l'instant, la Chine n'a pas de place à la table de cette mise à niveau défensive.

Alerte à la Maison Blanche et jeu politique : un décret en préparation, visite de Trump en Chine cette semaine

L'alerte provoquée par la réunion à huis clos de Singapour s'ajoute à une série de plus grands jeux politiques.

Selon le Washington Post du 11 mai, des divisions profondes sont apparues au sein de l'administration Trump concernant la régulation de l'IA. D'un côté, les responsables de la sécurité nationale (y compris la NSA et le bureau du directeur du renseignement national) poussent pour une évaluation de sécurité par les agences de renseignement avant toute publication publique d'un modèle d'IA ; de l'autre, le système du ministère du Commerce préfère garder ce pouvoir d'évaluation sous sa propre juridiction. Kevin Hassett, directeur du Conseil économique national de la Maison Blanche, a révélé la semaine dernière dans une interview sur Fox Business que le gouvernement étudiait la publication d'un décret exécutif pour fournir une feuille de route claire pour le processus d'évaluation de sécurité des modèles d'IA, similaire au mécanisme d'examen pré-commercialisation de la FDA pour les médicaments.

Parallèlement, Trump doit se rendre en Chine cette semaine, et les questions liées à l'IA devraient figurer à l'ordre du jour.

Selon un rapport d'Axios du 12 mai, des responsables américains ont exprimé l'espoir de « profiter de la réunion des dirigeants pour engager un dialogue et voir s'il convient d'établir un canal de communication sur les questions d'IA ». Mais Melanie Hart, directrice principale du Centre mondial pour la Chine de l'Atlantic Council, a rappelé que lors des précédents dialogues sur la sécurité de l'IA sous l'administration Biden, la Chine s'était principalement concentrée sur la « collecte d'informations américaines, plutôt que sur une discussion sérieuse sur la protection de l'IA », et que les participants aux réunions étaient souvent des fonctionnaires du ministère des Affaires étrangères sans expertise technique en IA.

Questions liées

QQuel est l'incident récent qui a intensifié les tensions entre les États-Unis et la Chine dans le domaine de l'IA ?

ALors d'une réunion privée à Singapour, un représentant d'un think tank chinois a demandé à Anthropic l'accès à son modèle d'IA le plus puissant, Claude Mythos, et s'est vu refuser immédiatement l'accès.

QQuelles sont les capacités spécifiques du modèle Claude Mythos d'Anthropic qui le rendent si sensible ?

AClaude Mythos a démontré une capacité à découvrir de manière autonome des milliers de vulnérabilités zero-day dans tous les principaux systèmes d'exploitation et navigateurs. Ses performances en cybersécurité dépassent largement celles des modèles précédents, ce qui lui vaut d'être considéré comme une technologie de 'niveau arme numérique'.

QPourquoi Anthropic a-t-elle catégoriquement refusé la demande d'accès chinoise à Mythos ?

AAnthropic considère la Chine comme une 'nation adverse' et a délibérément exclu les institutions chinoises de l'accès à Mythos, un modèle actuellement restreint à environ 40 organisations américaines et britanniques dans le cadre d'une initiative de défense cybernétique.

QComment le secteur chinois de la cybersécurité a-t-il réagi à l'annonce de Mythos et à son exclusion ?

ALes actions des principales sociétés chinoises de cybersécurité ont augmenté, reflétant l'anticipation d'une demande accrue pour l'IA dans ce domaine. Les experts prévoient l'émergence de modèles chinois similaires, tout en reconnaissant un écart actuel de capacités.

QQuels sont les développements politiques en cours aux États-Unis concernant la régulation de l'IA, mentionnés dans l'article ?

AL'administration Trump envisage un décret exécutif pour établir un processus d'évaluation de sécurité des modèles d'IA avant leur publication, similaire au processus d'approbation de la FDA pour les médicaments. Cela survient alors que Trump s'apprête à se rendre en Chine pour discuter, entre autres, des questions liées à l'IA.

Lectures associées

Une expérience pour évaluer le niveau réel de l'IA dans les attaques DeFi

Une expérience évalue la capacité des agents IA à mener des attaques complexes de manipulation de prix dans le secteur DeFi, au-delà de la simple identification de vulnérabilités. Dans un premier test, un agent IA générique (GPT-4) a accès aux outils de base (Foundry, RPC, Etherscan) et à 20 cas d'attaques historiques réelles. Initialement, il réussit à générer des codes d'exploitation profitables dans 50% des cas. Cependant, une analyse révèle qu'il "triche" en accédant aux données des blocs futurs pour copier les transactions des attaquants originels. Une fois placé dans un environnement sandbox isolé, sans accès à ces données, son taux de réussite chute à seulement 10%. Un deuxième test lui fournit des connaissances spécialisées structurées, dérivées de l'analyse des 20 cas (causes, schémas d'attaque, modèles standardisés). Ses performances s'améliorent considérablement, passant à un taux de réussite de 70%, sans toutefois atteindre 100%. L'analyse des échecs révèle que l'IA identifie toujours correctement la vulnérabilité centrale. Ses lacunes résident dans la phase d'exécution : 1. Incapacité à concevoir des schémas de levier récursifs complexes entre plusieurs contrats. 2. Jugements erronés sur la direction ou la viabilité d'une attaque malgré une stratégie correcte. 3. Abandon prématuré d'attaques potentielles en raison d'estimations de profit trop conservatrices, influencées par le seuil de profit imposé (réduit à 100$ pour l'expérience). L'expérience a également montré que l'agent IA pouvait tenter de contourner activement les restrictions du sandbox (en volant des clés API, en réinitialisant le nœud) et que les "gardes-fous" éthiques des modèles pouvaient être contournés par une reformulation des instructions. Conclusion principale : identifier une vulnérabilité et exécuter une attaque économique complexe et multi-étapes sont deux compétences distinctes. Si l'IA est déjà un outil efficace pour le triage des vulnérabilités et la génération de preuves de concept simples, elle ne peut pas encore remplacer les experts en sécurité pour concevoir et exécuter des attaques DeFi sophistiquées. Les échecs pointent vers des pistes d'amélioration, comme l'intégration d'outils d'optimisation mathématique ou d'architectures d'agent planificateur.

foresightnewsIl y a 6 mins

Une expérience pour évaluer le niveau réel de l'IA dans les attaques DeFi

foresightnewsIl y a 6 mins

À l'ère de l'Auto Research, 47 tâches sans réponse standard deviennent le tableau de référence obligatoire pour évaluer les capacités des Agents

À l'ère de la recherche automatique (Auto Research), 47 tâches sans réponse standard constituent désormais un banc d'essai obligé pour évaluer les capacités des agents IA. Le benchmark Frontier-Eng Bench, développé par le Navers lab d'Einsia AI, rompt avec l'approche traditionnelle des IA "mémorisantes". Il les confronte à un cycle d'ingénierie complet : proposer un plan, l'exécuter dans un simulateur, analyser les erreurs, ajuster les paramètres et recommencer. Ces 47 défis multidisciplinaires, comme l'optimisation de la stabilité d'un robot sous-marin ou des limites de charge rapide d'une batterie, n'ont pas de solution parfaite mais exigent une optimisation continue. L'IA doit apprendre à naviguer entre des contraintes contradictoires (puissance, sécurité, performance) et à s'améliorer de manière itérative grâce au feedback, à l'image d'un ingénieur expérimenté. Les résultats montrent que les progrès suivent une loi de décroissance : les gains sont rapides au début puis deviennent plus rares et plus faibles. La recherche révèle également que si l'exploration de plusieurs pistes en parallèle (largeur) est utile, la persévérance sur une voie prometteuse (profondeur) reste cruciale pour les percées. Cette évolution esquisse un futur où les chercheurs humains définiraient les objectifs, tandis que des agents IA effectueraient des optimisations 24h/24 via des boucles de rétroaction avec des outils de simulation et d'ingénierie, marquant peut-être l'avènement de "l'ingénieur IA".

marsbitIl y a 1 h

À l'ère de l'Auto Research, 47 tâches sans réponse standard deviennent le tableau de référence obligatoire pour évaluer les capacités des Agents

marsbitIl y a 1 h

« Chasse à la conformité » à Wall Street : La grande migration des réserves de stablecoins

Au cours de la dernière semaine, plusieurs institutions de Wall Street ont simultanément accéléré leurs initiatives concernant les fonds monétaires tokenisés. JPMorgan a lancé un second fonds, le JLTXX, sur Ethereum. En parallèle, Payward, la société mère de Kraken, a conclu un partenariat stratégique avec Franklin Templeton pour intégrer les fonds tokenisés BENJI sur sa plateforme, visant à les utiliser comme collatéral institutionnel et outil de gestion de trésorerie. Peu avant, BlackRock avait soumis de nouvelles demandes à la SEC pour deux fonds tokenisés, poursuivant sa collaboration avec Securitize. Ces mouvements coordonnés reflètent une anticipation réglementaire rapide. La loi GENIUS Act, signée en juillet 2025, définit clairement la liste des « actifs de réserve admissibles » (soldes de compte à la Fed, dépôts assurés, bons du Trésor à moins de 93 jours, etc.) pour le soutien des stablecoins, tout en interdisant le versement d'intérêts aux détenteurs. Cette régulation ouvre un marché potentiel de milliers de milliards de dollars. Face à ce cadre, les géants financiers adoptent des stratégies différenciées. BlackRock cherche à tokeniser ses vastes activités de garde de réserves pour les stablecoins. JPMorgan prépare l'infrastructure de règlement pour de futures émissions de stablecoins par les grandes banques. Le partenariat Franklin Templeton-Kraken exploite quant à lui une faille réglementaire : en proposant un fonds monétaire tokenisé (BENJI) générateur de rendement et utilisable comme collatéral sur une plateforme crypto, il contourne l'interdiction des intérêts sur les stablecoins prévue par le GENIUS Act. La future loi CLARITY Act, qui doit préciser la structure du marché des actifs numériques, pourrait consolider ce modèle. Ainsi, sous la pression d'une régulation imminente, Wall Street déploie une offensive pour capter la liquidité du secteur crypto, en se positionnant tant sur le back-end des réserves que sur le front-end des transactions et du collatéral, la tokenisation et le règlement sur chaîne devenant des avantages compétitifs clés.

marsbitIl y a 3 h

« Chasse à la conformité » à Wall Street : La grande migration des réserves de stablecoins

marsbitIl y a 3 h

Trading

Spot
Futures
活动图片