Claude réduit délibérément son intelligence, les modèles commencent-ils aussi à « adapter leur comportement selon la personne » ?

marsbitPublié le 2026-04-14Dernière mise à jour le 2026-04-14

Résumé

Selon une analyse de l'équipe d'AMD AI dirigée par Stella Laurenzo, le modèle Claude d'Anthropic a subi une dégradation significative de ses performances depuis mi-février. Les données montrent une chute de 67 à 73% de la longueur médiane des processus de réflexion du modèle, ainsi qu'une réduction drastique du nombre de lectures des fichiers avant modification. Les développeurs se sont plaints d'un modèle "plus lent, plus paresseux", avec des réponses superficielles et parfois des actions non sollicitées. Anthropic a officiellement reconnu avoir ajusté les paramètres de "réflexion adaptive", présenté comme une optimisation délibérée pour ajuster l'effort cognitif en fonction de la complexité des tâches. Cette modification, non communiquée aux utilisateurs payants, a déclenché des critiques sur le manque de transparence. L'analyse économique révèle un écart important entre le coût réel de l'inférence (42 121 $ pour AMD) et les abonnements mensuels (400 $), suggérant une pression commerciale pour réduire les coûts. Anthropic testerait désormais un mode "high effort" par défaut pour les clients entreprises, creusant l'écart entre utilisateurs professionnels et grand public. Cet épisode reflète une tendance plus large dans l'IA : la fin de la période de subvention et l'émergence d'un modèle commercial stratifié, où les capacités maximales sont réservées aux clients payants premium, tandis que les utilisateurs grand public reçoivent des versions optimisées pour les coûts.

Par | Usine des Modèles du Monde

Claude est-il devenu moins intelligent ?

Récemment, Stella Laurenzo, Directrice Senior du groupe AI chez AMD, a critiqué Anthropic.

Elle a utilisé les journaux de production réels de son équipe pour effectuer une analyse rétrospective de 17 871 blocs de réflexion dans 6 852 fichiers de session, totalisant 234 760 appels d'outils.

Les données montrent que Claude a commencé à présenter une dégradation significative de son comportement à partir de la mi-février.

La médiane de la réflexion de Claude est passée de 2200 caractères à seulement 600 caractères, une baisse de 67% à 73% ;

Le nombre de lectures des fichiers avant édition est passé de 6,6 fois à seulement 2 fois, et un tiers des modifications étaient même effectuées sans lire le fichier du tout.

Stella a souligné dans son analyse qu'en raison de la baisse des capacités de raisonnement, le modèle a progressivement cessé de lire complètement le code avant de le modifier.

Elle a écrit : "Lorsque la réflexion est superficielle, le modèle adopte par défaut l'opération la moins coûteuse".

Ce n'est pas un cas isolé, dès le mois de mars, le mécontentement des développeurs avait commencé à exploser.

Sur X, un utilisateur a écrit : "Je pensais être devenu fou ces dernières semaines avec Claude. Il semble plus lent, plus paresseux, comme s'il ne réfléchissait pas avant de répondre, et le résultat est que je n'ai pas d'hallucinations".

Sur Reddit, un utilisateur s'est plaint : "Claude semble moins conscient, comme s'il avait subi une lobotomie. En plus d'être devenu plus bête, il commence aussi à effectuer des opérations extrêmes sans demander...".

D'autres ont exprimé que c'était une trahison flagrante d'Anthropic envers ses utilisateurs : "Ils ont simplement rendu le problème invisible pour nous tous les utilisateurs, comme s'ils pensaient 'si vous ne pouvez pas le mesurer, nous ne vous le montrerons pas'... C'est le résultat des laboratoires d'IA qui optimisent les profits plutôt que la qualité de la production".

Des plaintes des utilisateurs aux preuves données par les données, le comportement de réduction d'intelligence de Claude est pratiquement confirmé.

Et la réponse officielle d'Anthropic a également reconnu que la profondeur de réflexion et l'effort (effort) étaient continuellement ajustés.

Si cela est délibéré de la part d'Anthropic, cela signifie-t-il qu'à l'avenir, les capacités du modèle pourraient "rétrécir" à notre insu ?

Ou bien, les capacités du modèle le plus puissant ne seront plus offertes équitablement à tous ?

La réduction d'intelligence de Claude est "délibérée"

Claude Opus 4.6 et son mode dédié au codage Claude Code, lors de leur lancement en janvier 2026, étaient considérés par les développeurs comme le summum du codage.

Sa profondeur de réflexion était impressionnante, sa priorité (research-first - recherche d'abord), le traitement des contextes longs était stable, et la refactorisation multi-fichiers était presque imbattable.

L'équipe interne d'AMD l'a même utilisé pour fusionner et mettre en ligne 190 000 lignes de code legacy en un week-end, boostant directement la productivité.

Cependant, le tournant s'est produit début février.

Anthropic a discrètement lancé la fonctionnalité "adaptive thinking" (pensée adaptative), décrite officiellement comme "permettant au modèle d'ajuster intelligemment la profondeur de sa réflexion en fonction de la complexité de la tâche".

En apparence, c'est convivial pour l'utilisateur, mais en réalité, cela a activé un interrupteur global de rationnement.

Début mars, la valeur d'effort (effort) par défaut du modèle a été discrètement abaissée à "medium", tandis que le résumé du processus de réflexion était rapidement masqué, empêchant les utilisateurs de voir d'un coup d'œil à quel point le modèle avait réfléchi.

À la même période, Anthropic a publié 14 petites mises à jour successives, mais a subi 5 pannes à grande échelle, montrant que la pression sur la puissance de calcul et la charge atteignait ses limites.

Les retours des développeurs ont commencé à exploser, certains remarquant que les performances étaient particulièrement mauvaises aux heures de pointe (après-midi heure de l'Est), soupçonnant un rationnement dynamique dû à la charge.

Ce n'est qu'en avril que la directrice AI d'AMD est entrée personnellement en scène, confirmant la situation avec des données et déclenchant complètement la controverse.

À ce stade, Boris Cherny, responsable de Claude Code chez Anthropic, a dû publier une réponse officielle.

Il a déclaré que "l'adaptive thinking" affectait l'affichage de la pensée (thinking), et non le raisonnement sous-jacent, et a insisté sur le fait qu'il s'agissait d'une "optimisation délibérée" et non d'un bug. Il a suggéré aux utilisateurs de régler manuellement l'effort sur "high" pour améliorer les résultats.

Le sous-entendu d'Anthropic est clair : la réduction d'intelligence n'est pas un bug, c'est une optimisation produit que nous avons spécifiquement mise en place, il vous suffit de ajuster les paramètres vous-mêmes.

Cette réponse a instantanément attisé une colère encore plus grande.

Le point clé est que, de la mi-février à début avril, Anthropic n'a jamais annoncé à l'avance aucun changement majeur.

Un grand nombre d'utilisateurs payants, sans en avoir la moindre idée, ont payé un abonnement inchangé tandis que le modèle était discrètement rationné.

Ainsi, la réduction d'intelligence de Claude n'est pas due à un modèle "déréglé", mais à une action plus discrète et plus commerciale de la part d'Anthropic :

En réduisant la profondeur de réflexion par défaut, ils échangent contre une vitesse plus rapide, une charge réduite et des coûts GPU inférieurs.

Stratification des capacités des modèles

Derrière cette tempête de réduction d'intelligence se cache un phénomène alarmant :

Les capacités des modèles commencent déjà à être stratifiées.

Le calculs de Stella sont clairs : selon la tarification à la demande (on-demand) d'AWS Bedrock, le coût réel d'inférence de son équipe en mars était d'environ 42 121 dollars, alors que les frais d'abonnement mensuels réels à Claude Code payés le même mois n'étaient que de 400 dollars.

Cet écart montre au moins que, dans des scénarios d'utilisation extrêmement intensive, il existe un énorme fossé entre la tarification par abonnement et la consommation réelle de puissance de calcul.

Il est fort probable qu'Anthropic ait acquis des parts de marché en brûlant du capital, mais ces subventions ont des limites.

Lorsque la consommation d'inférence des utilisateurs intensifs atteint un certain seuil, la durabilité du modèle commercial commence à vaciller.

Boris Cherny, dans sa réponse, a révélé un signal clé : Anthropic teste l'activation par défaut du mode "high effort" pour les utilisateurs Teams et Enterprise.

En d'autres termes, un raisonnement plus puissant est en train d'être configuré comme une ressource plus coûteuse et stratifiée, ce n'est plus une capacité obtenue par défaut de manière égale pour tous.

Cela signifie que le modèle commercial des grands modèles va se diviser davantage.

Aujourd'hui, 80 % des revenus d'Anthropic proviennent des services aux entreprises et des appels d'API, les clients B2B à forte fidélité sont le véritable pilier.

Les actions actuelles d'Anthropic visent toutes à ramener l'utilisation par les entreprises vers sa propre plateforme de première partie.

Pour les clients B2B à haute valeur, Anthropic va probablement accélérer le lancement de versions entreprise plus puissantes, offrant les capacités complètes du modèle aux clients entreprises qui en paient le coût réel.

Quant aux utilisateurs grand public (C端) payant un abonnement mensuel, ils devront se contenter de la version à intelligence réduite "suffisante", satisfaisant des besoins allégés comme le chat, la rédaction de textes, la complétion de code, mais ne touchant jamais au seuil de coût critique.

Quant à la zone intermédiaire, ces développeurs indépendants et petites équipes qui ont besoin de raisonnements complexes mais ne peuvent pas supporter les tarifs entreprises, deviendront le groupe le plus squeezé.

Un utilisateur sur X a confirmé dans un post :

"Les performances de l'API entreprise de Claude sont bien meilleures que l'abonnement Pro/Max. En testant avec le même framework de test, le comportement de la version entreprise et de Pro/Max est simplement différent. Mais cela signifie aussi devoir dépenser maintenant 4 à 12k dollars par mois, selon le nombre de threads que je exécute simultanément".

En d'autres termes, le futur chemin de commercialisation des grands modèles sera probablement priorité B2B, réduction des coûts C端.

Qui paiera pour la réduction d'intelligence ?

L'événement de réduction d'intelligence de Claude n'est pas un cas isolé, mais le reflet de l'ensemble du secteur de l'IA entrant dans la seconde mi-temps de la commercialisation.

Que ce soit OpenAI avec ses réductions silencieuses et multiples de la série GPT, ou Google avec sa limitation de débit discrète pour Gemini, tous répètent le même scénario :

D'abord attirer les utilisateurs avec des hautes performances, puis contrôler les coûts via un rationnement logiciel.

Le résultat inévitable est que le secteur B2B peut acheter des modèles plus puissants à un prix élevé, avec des garanties SLA en plus, tandis que le grand public (C端) reçoit des modèles distillés, à faible effort.

La vitesse à laquelle les modèles grand public (C端) deviennent plus intelligents a déjà nettement pris du retard sur le secteur B2B.

Plus grave encore, cette différenciation est implicite.

Anthropic et autres fabricants réduisent le budget d'inférence d'une manière difficile à détecter, sans que l'utilisateur moyen ne reçoive aucune notification.

Ce choix peut peut-être soulager la pression des coûts de calcul à court terme, mais le prix à long terme est la perte de confiance dans la marque.

Lorsque "Claude réduit discrètement son intelligence" deviendra une conviction commune parmi les utilisateurs, Anthropic perdra non seulement quelques utilisateurs intensifs, mais aussi la confiance de tout l'écosystème dans le récit de l'IA universelle et transparente.

Plus宏观地看 (De manière plus宏观 - macro), l'événement Claude est le reflet du passage de l'industrie de l'IA d'une croissance sauvage à une culture intensive.

La période de subvention est terminée, les coûts réels commencent à apparaître, qui va assumer ces coûts ?

Est-ce en compressant l'expérience grand public (C端) et en augmentant les tarifs entreprises, ou en attendant une révolution logicielle/matérielle apportant une percée en efficacité, tout cela déterminera le paysage des applications d'IA pour les cinq prochaines années.

La tendance future est déjà visible, l'IA n'est plus le mythe universel de plus en plus intelligent, mais évolue vers une stratification élitiste.

Questions liées

QQuelles sont les principales preuves avancées dans l'article concernant la baisse d'intelligence de Claude ?

AL'analyse des logs de production d'AMD AI a révélé que la médiane de réflexion de Claude est passée de 2200 caractères à 600 caractères (baisse de 67-73%), et le nombre de lectures de fichiers avant modification est tombé de 6,6 à 2, avec un tiers des modifications effectuées sans lire le fichier.

QQuelle fonctionnalité Anthropic a-t-il introduite qui a marqué un tournant dans les performances de Claude ?

AAnthropic a introduit la fonctionnalité "adaptive thinking" (pensée adaptative) début février, décrite officiellement comme permettant au modèle d'ajuster intelligemment la profondeur de sa réflexion en fonction de la complexité de la tâche.

QComment Anthropic a-t-il justifié les changements de comportement de Claude ?

ALe responsable de Claude Code chez Anthropic, Boris Cherny, a déclaré que la "pensée adaptative" affectait l'affichage de la réflexion et non le raisonnement sous-jacent, et a insisté sur le fait qu'il s'agissait d'une "optimisation intentionnelle" et non d'un bug.

QSelon l'article, comment le modèle d'affaires d'Anthropic évolue-t-il face aux coûts de calcul ?

ALe modèle commercial évolue vers une stratification des capacités. Les entreprises (B2B) paieront un prix plus élevé pour des versions plus puissantes et des garanties de service, tandis que les utilisateurs grand public (B2C) recevront une version "réduite" aux capacités limitées pour contrôler les coûts.

QQuelle est la conséquence plus large de cet événement "Claude降智" pour l'industrie de l'IA selon l'article ?

ACet événement est le symbole du passage de l'industrie de l'IA d'une croissance sauvage à une culture intensive. La période de subvention est terminée, les coûts réels apparaissent, et l'IA n'est plus un mythe universel de plus en plus intelligent, mais évolue vers une stratification élitiste.

Lectures associées

L'ETF Solana attire 39 millions de dollars en une semaine, un plus haut depuis février, tandis que les positions ouvertes sur les futures bondissent de 30 %, les traders visent 120 dollars

Le ETF spot de Solana a enregistré un afflux net de 39,23 millions de dollars la semaine dernière, sa meilleure performance hebdomadaire depuis février. L'ETF BSOL de Bitwise a représenté 92 % de ce montant. Parallèlement, les contrats ouverts sur les futures de SOL ont bondi de 29,5 % en quinze jours pour atteindre 6,4 milliards de dollars, signalant une entrée de nouveaux capitaux. L'activité acheteuse est également visible sur le marché au comptant. Sur le plan technique, une configuration graphique "Adam & Eve" suggère un objectif de prix autour de 120 dollars. Fondamentalement, la mise à niveau de consensus majeure "Alpenglow" a été déployée sur le testnet communautaire, avec un déploiement sur le mainnet potentiel dès le prochain trimestre. La structure des détenteurs a évolué pendant la consolidation de quatre mois : les traders à court terme ont largement quitté le marché, laissant les détenteurs convaincus ("strong hands") contrôler une plus grande part des jetons. Cette distribution des capitaux pourrait amplifier les mouvements haussiers. Cependant, des signes de ralentissement de l'élan acheteur sont observés autour de 95-96 dollars. Les risques incluent une pression vendeuse si les flux ETF ne se maintiennent pas, ainsi qu'une volatilité potentielle due aux positions à effet de levée élevé.

marsbitIl y a 27 mins

L'ETF Solana attire 39 millions de dollars en une semaine, un plus haut depuis février, tandis que les positions ouvertes sur les futures bondissent de 30 %, les traders visent 120 dollars

marsbitIl y a 27 mins

BitMart Research Revue Hebdomadaire des Tendances : Panorama des Marchés Macro, Pétrolier, Actions Tech IA et Crypto

Le rapport hebdomadaire de BitMart Research analyse les principaux développements macroéconomiques et de marché. **Marchés macro et traditionnels :** - **Emploi aux États-Unis :** Les données sur l'emploi en avril sont mitigées, avec une croissance apparente mais une forte dépendance au secteur de la santé et une divergence entre les enquêtes. L'impact potentiel de l'IA sur certains emplois commence à être observé. - **Pétrole :** Les prix du pétrole restent élevés autour de 100 USD, soutenus par des stocks tampons réduits, mais la demande diminue. La réduction des importations chinoises et des négociations entre les États-Unis et l'Iran contribuent à stabiliser le marché. - **Actions technologiques (IA) :** Perspectives mitigées à court terme (pression des ajustements d'indice potentiels). Le prochain cycle de résultats en juillet sera un test crucial pour la valorisation basée sur la rentabilité. Des risques à long terme pourraient émerger des élections américaines, des introductions en bourse et d'une dépendance excessive à l'endettement pour les dépenses en capital. **Marché Crypto :** - **Tendances du marché :** Le marché a rebondi, avec le Bitcoin passant d'environ 77 000 USD à 82 000 USD. L'activité d'achat au comptant est solide, mais les volumes restent modérés et le sentiment sur les contrats perpétuels est toujours prudent. - **Flux institutionnels :** Les ETF Bitcoin ont continué d'enregistrer des entrées nettes significatives, bien que les achats institutionnels récents de BTC et d'ETH soient légèrement inférieurs aux attentes. - **Tendances de l'écosystème :** La tendance des institutions à développer leurs propres blockchains s'accentue, comme le montre Circle (ARC). Un modèle de "double valorisation" émerge, combinant introductions en bourse traditionnelles et émissions de jetons, ouvrant potentiellement des opportunités dans les stablecoins et les infrastructures de paiement. *Cette analyse n'est pas un conseil en investissement. Les investissements présentent des risques.*

marsbitIl y a 29 mins

BitMart Research Revue Hebdomadaire des Tendances : Panorama des Marchés Macro, Pétrolier, Actions Tech IA et Crypto

marsbitIl y a 29 mins

Quand tout le monde dit que les NFT sont « morts », le monde de l'art achève discrètement une « Renaissance sur la chaîne »

Tandis que beaucoup annoncent la mort des NFT, le monde de l'art connaît une transformation silencieuse. Les critiques populaires (comme "ce n'est qu'un JPEG") ignorent une évolution institutionnelle cruciale. Le marché de l'art traditionnel (596 milliards de dollars) stagne, vieillit et se concentre dans le haut de gamme, face à un transfert de richesse générationnel de 80 000 milliards de dollars vers des héritiers numériques. Les grandes institutions artistiques ont déjà intégré l'art numérique et *on-chain* dans leurs collections permanentes : le MoMA de New York, le Centre Pompidou à Paris, le LACMA, l'ICA Miami, le Whitney et le Guggenheim ont tous acquis des œuvres NFT, validant ainsi le médium. Historiquement, chaque mouvement artistique majeur (impressionnisme, pop art, art conceptuel) a été décrié avant d'être consacré, un processus qui prenait des décennies. L'art NFT, né il y a seulement 7 à 12 ans, s'institutionnalise à un rythme sans précédent. Les galeries d'élite (Pace, Gagosian, Hauser & Wirth) et les maisons de vente (Sotheby's, Christie's) ont également pris position, en organisant des expositions, en acceptant les cryptomonnaies et en lançant des plateformes de vente dédiées. Des collectionneurs influents (Cozomo de' Medici, FlamingoDAO, PleasrDAO) constituent des collections patrimoniales, anticipant la valeur future. Contrairement à la perception commune, les NFT ne sont pas une simple classe d'actifs spéculatifs, mais un nouveau système de propriété. Ils permettent pour la première fois une rareté vérifiable et une provenance immuable pour les œuvres numériques, résolvant des problèmes anciens du marché comme les faux. La capitalisation actuelle du marché NFT (environ 2 milliards de dollars) ne reflète pas sa trajectoire : les œuvres fondatrices sont déjà collectionnées par les musées, signées par les galeries et accumulées par les collectionneurs éclairés, avec le vent en poupe d'une transition générationnelle massive. L'essentiel a survécu à la bulle spéculative. L'histoire artistique est en train de s'écrire, et ceux qui se moquent aujourd'hui ressemblent fort à ceux qui ridiculisaient autrefois Manet ou Warhol.

marsbitIl y a 57 mins

Quand tout le monde dit que les NFT sont « morts », le monde de l'art achève discrètement une « Renaissance sur la chaîne »

marsbitIl y a 57 mins

Jensen Huang s'adresse aux diplômés : L'IA ne vous remplacera pas, mais ceux qui savent l'utiliser le feront

Le cofondateur et PDG de Nvidia, Jensen Huang, a prononcé un discours d'ouverture à l'université Carnegie Mellon, où il a reçu un doctorat honorifique. S'adressant aux diplômés de 2026 dans un contexte de craintes concernant l'impact de l'IA sur l'emploi, il a déclaré : "L'IA ne vous remplacera pas, mais la personne qui utilise l'IA le fera." Huang a partagé son parcours d'immigrant arrivé à 9 ans aux États-Unis, évoquant ses débuts modestes et les échecs initiaux de Nvidia, soulignant l'humilité et la résilience. Il a affirmé aux diplômés qu'ils entraient dans le monde au meilleur moment, au début de la révolution de l'IA, une transformation qu'il compare aux révolutions précédentes de l'informatique. Il a reconnu les inquiétudes concernant l'IA mais a plaidé pour une adoption responsable et optimiste. Selon lui, l'IA ne supprime pas le sens du travail mais amplifie les capacités humaines, démocratisant la création et comblant les fractures technologiques. Il a décrit la naissance d'une nouvelle industrie de fabrication d'intelligence à grande échelle et une opportunité de réindustrialisation. Huang a exhorté les diplômés à embrasser cette ère de découverte, à utiliser les outils puissants à leur disposition pour façonner l'avenir et à mettre leur cœur dans leur travail. Son message final était un appel à l'action : "Alors courez, ne marchez pas."

marsbitIl y a 1 h

Jensen Huang s'adresse aux diplômés : L'IA ne vous remplacera pas, mais ceux qui savent l'utiliser le feront

marsbitIl y a 1 h

Trading

Spot
Futures
活动图片