Anthropic a créé le modèle d'IA le plus puissant de l'histoire, mais n'ose pas le publier...

Odaily星球日报Publié le 2026-04-08Dernière mise à jour le 2026-04-08

Résumé

Anthropic a annoncé le projet "Glasswing" (verre ailé), une initiative de sécurité collaborative avec des géants technologiques et financiers comme Amazon, Apple, Google, Microsoft, Nvidia et JPMorgan. Ce plan vise à tester en avant-première leur nouveau modèle d'IA, Mythos — le premier au monde à dépasser les dix mille milliards de paramètres, coûtant 10 milliards de dollars à entraîner. Mythos surpasse largement le modèle actuel Claude Opus 4.6, notamment en codage, raisonnement académique et cybersécurité. En quelques semaines, il a identifié des milliers de vulnérabilités zero-day, dont certaines critiques et anciennes, dans des systèmes comme OpenBSD, FFmpeg et le noyau Linux. Beaucoup ont été trouvées et exploitées de manière autonome avec peu d'intervention humaine. En raison de sa puissance risquant d'être malveillamment utilisée, Anthropic ne publie pas encore Mythos publiquement. Via Glasswing, des partenaires privilégiés accèdent à une version preview pour corriger les failles avant une éventuelle publication plus large. Anthropic alloue 100 millions de dollars de crédits d'usage et fait des dons à des fondations open source pour renforcer la sécurité logicielle. Bien que l'IA puisse amplifier les cybermenaces, Anthropic reste optimiste : elle offre aussi un potentiel immense pour développer des défenses plus robustes et sécuriser les systèmes critiques. L'évolution technologique nécessite une adaptation, mais pas nécessairement une crise, si les mesures défensi...

Original | Odaily Planet Daily (@OdailyChina)

Auteur | Azuma (@azuma_eth)

Le 8 avril, Anthropic, la société de développement d'IA derrière Claude, a officiellement annoncé le lancement d'un nouveau plan appelé « Project Glasswing » (Aile de verre), qui sera mené conjointement avec plusieurs grands groupes tels qu'Amazon, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft, NVIDIA et Palo Alto Networks.

Anthropic a déclaré que il s'agit d'une mesure d'urgence visant à protéger les logiciels les plus critiques au monde, les parties utiliseront conjointement la version d'aperçu Mythos pour découvrir et corriger les défauts potentiels dans les systèmes dont le monde dépend actuellement.

Mythos est le prochain modèle d'IA en cours de développement par Anthropic, le premier modèle de l'histoire humaine dont le nombre total de paramètres dépasse les dix billions (en comparaison, les modèles dominants sur le marché actuel ont des paramètres de l'ordre de centaines de milliards à un billion). Son coût d'entraînement atteint la somme stupéfiante de 10 milliards de dollars. Par rapport au modèle actuellement le plus puissant de Claude, Opus 4.6, Mythos obtient des scores nettement supérieurs dans des tests de codage logiciel, de raisonnement académique et de cybersécurité.

Des rumeurs concernant Mythos circulaient déjà sur le marché la semaine dernière, la préoccupation générale étant de savoir si Mythos, avec ses capacités spécialisées en cybersécurité, affecterait l'équilibre actuel de l'attaque et de la défense en matière de sécurité. S'il était utilisé de manière malveillante, pourrait-il causer des incidents de sécurité à plus grande échelle ? Odaily avait également rapporté cet événement et avait discuté avec Yu Xian, fondateur de SlowMist et expert en sécurité, de l'impact potentiel sur la sécurité offensive et défensive dans l'industrie de la cryptographie (voir « Interview d'Odaily avec Yu Xian : La fuite du nouveau modèle nucléaire d'Anthropic, comment affecte-t-elle l'attaque et la défense en sécurité cryptographique ? »). Mais à l'époque, Anthropic n'avait pas publiquement reconnu l'existence de Mythos, les informations disponibles étaient donc limitées.

Le 8 avril, avec l'annonce du plan « Aile de verre », Anthropic a divulgué plus de détails sur Mythos. Sur la base des cas de test publiés par Anthropic, les capacités de Mythos ne semblent pas exagérées, à tel point que la société n'ose même pas publier directement le modèle, de peur qu'il ne soit utilisé de manière malveillante par des groupes de pirates. Elle prévoit plutôt de le faire tester d'abord par les grands groupes via le plan Aile de verre pour identifier et corriger à l'avance les vulnérabilités potentielles.

Mythos fait étalage de sa force : En quelques semaines, il a découvert des milliers de « vulnérabilités zero-day »

En parlant des capacités de Mythos, Anthropic a déclaré franchement que la naissance de ce modèle signifie qu'un fait严峻 est arrivé — les capacités de codage des modèles d'IA ont atteint un niveau extrêmement élevé, et dans la découverte et l'exploitation des vulnérabilités logicielles, elles peuvent surpasser presque tous les humains, à l'exception des plus expérimentés.

Selon les divulgations d'Anthropic, en seulement quelques semaines, Anthropic a utilisé Mythos pour identifier des milliers de vulnérabilités zero-day (c'est-à-dire des défauts que même les développeurs du logiciel ne connaissaient pas auparavant), dont beaucoup sont des vulnérabilités hautement critiques. Les problèmes couvrent tous les systèmes d'exploitation et navigateurs grand public, et affectent une série d'autres logiciels critiques.

Anthropic a donné plusieurs cas représentatifs :

  • Mythos a découvert une vulnérabilité vieille de 27 ans dans OpenBSD, un système réputé pour être « extrêmement sécurisé » et largement utilisé dans les infrastructures critiques comme les pare-feux. Cette vulnérabilité permettait à un attaquant de faire planter le système à distance directement ;
  • Dans la bibliothèque de traitement vidéo FFmpeg, utilisée par de nombreux logiciels, Mythos a trouvé une vulnérabilité vieille de 16 ans. Le code problématique avait été déclenché plus de 5 millions de fois par des tests automatisés, mais n'avait jamais été découvert ;
  • Mythos a également pu enchaîner automatiquement plusieurs vulnérabilités dans le noyau Linux, passant des permissions d'un utilisateur standard au contrôle complet du serveur.

Plus inquiétant encore, Anthropic a déclaré que la plupart de ces vulnérabilités ont été « découvertes de manière autonome et les chemins d'exploitation construits » par Mythos avec presque aucune intervention humaine, ce qui signifie peut-être que l'IA commence à posséder des capacités offensives et défensives automatisées similaires à celles des meilleures équipes de hackers.

Sur les benchmarks d'évaluation, Mythos a également montré une évolution de rupture par rapport à Opus 4.6. Par exemple, dans les tests de reproduction de vulnérabilités de cybersécurité, Mythos a atteint 83,1 %, contre 66,6 % pour Opus 4.6 ; dans plusieurs tests de codage et de raisonnement, les scores de Mythos étaient également bien supérieurs.

C'est peut-être précisément parce que les capacités de Mythos sont trop puissantes qu'Anthropic n'a pas choisi d'ouvrir directement le modèle, mais a d'abord lancé le plan « Aile de verre » pour permettre à l'ensemble de l'Internet de se « renforcer » au préalable.

Grâce à ce plan, Anthropic ouvrira aux participants une version d'aperçu de Mythos à l'avance, pour découvrir et corriger les vulnérabilités ou points faibles dans leurs systèmes de base — en se concentrant sur des tâches telles que la détection locale de vulnérabilités, les tests en boîte noire de programmes binaires, le renforcement de la sécurité des terminaux et les tests d'intrusion de systèmes.

Anthropic s'est également engagé à fournir aux participants un total de 100 millions de dollars de crédits d'utilisation du modèle pour soutenir l'utilisation pendant toute la phase d'aperçu de la recherche. Par la suite, la version d'aperçu de Mythos sera ouverte aux participants au prix de 25 dollars par million de tokens d'entrée et 125 dollars par million de tokens de sortie (les participants pourront également accéder au modèle via Claude API, Amazon Bedrock, Google Cloud Vertex AI et Microsoft Foundry). Outre les crédits d'utilisation du modèle, Anthropic fera également un don de 2,5 millions de dollars à Alpha-Omega et à l'OpenSSF via la Linux Foundation, et un don de 1,5 million de dollars à la Apache Software Foundation, pour aider les mainteneurs de logiciels open source à faire face à l'environnement de sécurité en constante évolution.

Anthropic prévoit d'élargir progressivement la portée de participation de « l'Aile de verre » et de poursuivre le projet pendant plusieurs mois, tout en partageant autant que possible les expériences afin que d'autres organisations puissent les appliquer à leur propre construction de la sécurité. Dans les 90 jours, Anthropic publiera un rapport sur les résultats intermédiaires, y compris les vulnérabilités déjà corrigées et les mesures d'amélioration de la sécurité pouvant être divulguées.

La technologie ne fera que s'améliorer, mais il ne faut pas trop s'inquiéter

L'IA change de manière irréversible le monde que nous connaissons, y compris le domaine de la cybersécurité sur lequel cet article se concentre. Alors que le seuil de découverte et d'exploitation des vulnérabilités diminue considérablement, les gens ne peuvent s'empêcher de s'inquiéter : l'IA deviendra-t-elle une arme entre les mains d'acteurs malveillants, menaçant l'équilibre actuel de la cybersécurité ? (PS : Pour les utilisateurs de cryptomonnaies qui doivent placer de l'argent réel dans des systèmes de portefeuille ou des protocoles on-chain, cette inquiétude est particulièrement forte.)

Face à cette question, Anthropic estime que « nous avons encore des raisons d'être optimistes ». Les modèles d'IA sont dangereux précisément parce qu'ils ont la capacité de causer des dommages entre de mauvaises mains, mais en même temps, ils ont une valeur inestimable pour découvrir et corriger les défauts des logiciels importants et pour développer de nouveaux logiciels plus sûrs.

On peut prévoir que les capacités de l'IA continueront d'évoluer rapidement dans les années à venir, mais au moment où de nouveaux moyens d'attaque apparaîtront, de nouveaux mécanismes de défense émergeront également. La mise à niveau technologique est inévitable, mais cela ne signifie pas que les risques deviendront nécessairement incontrôlables — à condition que les systèmes de défense évoluent simultanément, et même qu'ils puissent utiliser l'IA pour construire une protection de sécurité encore plus forte.

Questions liées

QQu'est-ce que le projet 'Glasswing' (verre d'aile) annoncé par Anthropic ?

ALe projet 'Glasswing' est une initiative urgente lancée par Anthropic en collaboration avec des grandes entreprises comme Amazon, Apple, Google, Microsoft, etc. Son objectif est de protéger les logiciels les plus critiques au monde en utilisant une version préliminaire du modèle Mythos pour découvrir et corriger les défauts potentiels dans les systèmes essentiels.

QQu'est-ce qui rend le nouveau modèle Mythos d'Anthropic si puissant et unique ?

AMythos est le premier modèle d'IA de l'histoire à dépasser les dix mille milliards de paramètres, avec un coût de formation de 10 milliards de dollars. Il surpasse considérablement les modèles précédents comme Claude Opus 4.6 dans des tests de codage logiciel, de raisonnement académique et de cybersécurité, et a démontré une capacité à découvrir de manière autonome des milliers de vulnérabilités zero-day.

QPourquoi Anthropic a-t-il choisi de ne pas publier immédiatement le modèle Mythos ?

AAnthropic ne publie pas immédiatement Mythos car ses capacités en cybersécurité sont si avancées que l'entreprise craint qu'il ne soit utilisé de manière malveillante par des acteurs malintentionnés. Au lieu de cela, ils le rendent d'abord disponible via le projet 'Glasswing' pour que les grandes entreprises puissent renforcer leurs systèmes et corriger les vulnérabilités avant une éventuelle publication plus large.

QQuels sont quelques exemples de vulnérabilités découvertes par Mythos ?

AMythos a découvert une vulnérabilité vieille de 27 ans dans OpenBSD, un système réputé extrêmement sécurisé, permettant de faire planter le système à distance. Il a également trouvé un bug de 16 ans dans la bibliothèque FFmpeg, et a pu enchaîner plusieurs vulnérabilités dans le noyau Linux pour passer des permissions utilisateur standard au contrôle total du serveur.

QSelon Anthropic, pourquoi peut-on rester optimiste face à la puissance de l'IA comme Mythos ?

AAnthropic estime que l'on peut rester optimiste car si l'IA peut être dangereuse entre de mauvaises mains, elle a aussi une valeur inestimable pour découvrir et corriger les défauts des logiciels critiques et pour développer de nouveaux logiciels plus sûrs. De nouveaux mécanismes de défense émergeront en même temps que de nouvelles méthodes d'attaque, permettant de maintenir l'équilibre de la sécurité.

Lectures associées

Google et Amazon investissent simultanément dans un concurrent, la logique commerciale la plus absurde de l'ère IA devient réalité

En l'espace de 4 jours, Amazon a annoncé un investissement supplémentaire de 25 milliards de dollars et Google jusqu'à 40 milliards de dollars dans Anthropic, une startup d'IA. Ces deux concurrents directs ont ainsi engagé plus de 65 milliards de dollars dans la même entreprise. Cet investissement massif ne relève pas d'une logique capitalistique traditionnelle, mais marque le début d'un nouveau round dans la guerre du cloud. L'enjeu pour Google et Amazon n'est pas la simple possession d'une part d'Anthropic, mais la sécurisation de contrats de pré-achat de puissance de calcul (ou "pré-vente de calcul"). Les fonds investis sont conditionnés à ce qu'Anthropic les dépense en services cloud et puces des investisseurs. Amazon a obtenu un engagement de dépense de plus de 1000 milliards de dollars sur AWS sur dix ans, et Google fournira environ 5 gigawatts de puissance de calcul. La concurrence dans le cloud a changé : les entreprises ne choisissent plus un fournisseur pour son prix ou sa stabilité, mais pour savoir "quel modèle d'IA de pointe tourne sur son cloud". Le modèle détermine le choix de la puissance de calcul. OpenAI étant déjà étroitement lié à Microsoft, Anthropic et son modèle Claude sont devenus la seule cible stratégique disponible pour Google et Amazon pour ne pas perdre des clients entreprises. Anthropic, avec un revenu annuel récurrent (ARR) de 30 milliards de dollars, est devenu un acteur infrastructurel incontournable. Cependant, cette dépendance financière et technique envers deux géants concurrents pose des défis pour son indépendance future, sa narration autour de la sécurité et sa pression pour une introduction en bourse. La situation contraste avec celle de la Chine, où des investissements comme celui d'Alibaba et Tencent dans DeepSeek (modèle open-source) suivent une logique différente, moins centrée sur un verrouillage par la puissance de calcul et plus ouverte. Le paysage de l'IA évolue ainsi vers une structure à plusieurs pôles fermés (modèles privateurs liés à un cloud spécifique), tandis que les modèles open-source offrent une alternative cruciale pour l'écosystème.

marsbitIl y a 1 h

Google et Amazon investissent simultanément dans un concurrent, la logique commerciale la plus absurde de l'ère IA devient réalité

marsbitIl y a 1 h

Capacité de calcul limitée : pourquoi DeepSeek-V4 est-il open source ?

Face à des contraintes de calcul, DeepSeek a choisi de rendre son modèle DeepSeek-V4 open source, tout en proposant une version Pro aux capacités avancées mais limitée en débit en raison de ressources de calcul haute performance insuffisantes. Le modèle exploite une architecture MoE (Mixture of Experts) avec 1,6T de paramètres au total mais seulement 49B activés lors de l'inférence, permettant une gestion de contexte longue (1 million de tokens). Une version Flash, avec 284B de paramètres totaux et seulement 13B activés, est conçue pour une adoption massive sur du matériel moins performant, visant ainsi les PME et développeurs. Le modèle excelle dans des tâches exigeantes comme la génération de code et le raisonnement complexe, rivalisant avec des modèles fermés leaders. DeepSeek a également collaboré avec des fabricants de puces chinoises (Huawei, Cambricon, Hygon) pour optimiser l'exécution sur du matériel local, bien que des défis persistent en termes de performance pure et d’approvisionnement. Cette stratégie intervient dans un contexte de concurrence intense sur le marché chinois des modèles de langage et de départs clés dans l’équipe R&D. DeepSeek cherche également à lever des fonds à une valorisation élevée, et cette version open source constitue une démonstration de sa résilience technologique et de son orientation pragmatique vers une IA accessible malgré les limites actuelles du calcul.

marsbitIl y a 2 h

Capacité de calcul limitée : pourquoi DeepSeek-V4 est-il open source ?

marsbitIl y a 2 h

Trading

Spot
Futures
活动图片