Claude réduit délibérément son intelligence, les modèles commencent-ils aussi à « adapter leur comportement selon la personne » ?

marsbitPublié le 2026-04-14Dernière mise à jour le 2026-04-14

Résumé

Selon une analyse de l'équipe d'AMD AI dirigée par Stella Laurenzo, le modèle Claude d'Anthropic a subi une dégradation significative de ses performances depuis mi-février. Les données montrent une chute de 67 à 73% de la longueur médiane des processus de réflexion du modèle, ainsi qu'une réduction drastique du nombre de lectures des fichiers avant modification. Les développeurs se sont plaints d'un modèle "plus lent, plus paresseux", avec des réponses superficielles et parfois des actions non sollicitées. Anthropic a officiellement reconnu avoir ajusté les paramètres de "réflexion adaptive", présenté comme une optimisation délibérée pour ajuster l'effort cognitif en fonction de la complexité des tâches. Cette modification, non communiquée aux utilisateurs payants, a déclenché des critiques sur le manque de transparence. L'analyse économique révèle un écart important entre le coût réel de l'inférence (42 121 $ pour AMD) et les abonnements mensuels (400 $), suggérant une pression commerciale pour réduire les coûts. Anthropic testerait désormais un mode "high effort" par défaut pour les clients entreprises, creusant l'écart entre utilisateurs professionnels et grand public. Cet épisode reflète une tendance plus large dans l'IA : la fin de la période de subvention et l'émergence d'un modèle commercial stratifié, où les capacités maximales sont réservées aux clients payants premium, tandis que les utilisateurs grand public reçoivent des versions optimisées pour les coûts.

Par | Usine des Modèles du Monde

Claude est-il devenu moins intelligent ?

Récemment, Stella Laurenzo, Directrice Senior du groupe AI chez AMD, a critiqué Anthropic.

Elle a utilisé les journaux de production réels de son équipe pour effectuer une analyse rétrospective de 17 871 blocs de réflexion dans 6 852 fichiers de session, totalisant 234 760 appels d'outils.

Les données montrent que Claude a commencé à présenter une dégradation significative de son comportement à partir de la mi-février.

La médiane de la réflexion de Claude est passée de 2200 caractères à seulement 600 caractères, une baisse de 67% à 73% ;

Le nombre de lectures des fichiers avant édition est passé de 6,6 fois à seulement 2 fois, et un tiers des modifications étaient même effectuées sans lire le fichier du tout.

Stella a souligné dans son analyse qu'en raison de la baisse des capacités de raisonnement, le modèle a progressivement cessé de lire complètement le code avant de le modifier.

Elle a écrit : "Lorsque la réflexion est superficielle, le modèle adopte par défaut l'opération la moins coûteuse".

Ce n'est pas un cas isolé, dès le mois de mars, le mécontentement des développeurs avait commencé à exploser.

Sur X, un utilisateur a écrit : "Je pensais être devenu fou ces dernières semaines avec Claude. Il semble plus lent, plus paresseux, comme s'il ne réfléchissait pas avant de répondre, et le résultat est que je n'ai pas d'hallucinations".

Sur Reddit, un utilisateur s'est plaint : "Claude semble moins conscient, comme s'il avait subi une lobotomie. En plus d'être devenu plus bête, il commence aussi à effectuer des opérations extrêmes sans demander...".

D'autres ont exprimé que c'était une trahison flagrante d'Anthropic envers ses utilisateurs : "Ils ont simplement rendu le problème invisible pour nous tous les utilisateurs, comme s'ils pensaient 'si vous ne pouvez pas le mesurer, nous ne vous le montrerons pas'... C'est le résultat des laboratoires d'IA qui optimisent les profits plutôt que la qualité de la production".

Des plaintes des utilisateurs aux preuves données par les données, le comportement de réduction d'intelligence de Claude est pratiquement confirmé.

Et la réponse officielle d'Anthropic a également reconnu que la profondeur de réflexion et l'effort (effort) étaient continuellement ajustés.

Si cela est délibéré de la part d'Anthropic, cela signifie-t-il qu'à l'avenir, les capacités du modèle pourraient "rétrécir" à notre insu ?

Ou bien, les capacités du modèle le plus puissant ne seront plus offertes équitablement à tous ?

La réduction d'intelligence de Claude est "délibérée"

Claude Opus 4.6 et son mode dédié au codage Claude Code, lors de leur lancement en janvier 2026, étaient considérés par les développeurs comme le summum du codage.

Sa profondeur de réflexion était impressionnante, sa priorité (research-first - recherche d'abord), le traitement des contextes longs était stable, et la refactorisation multi-fichiers était presque imbattable.

L'équipe interne d'AMD l'a même utilisé pour fusionner et mettre en ligne 190 000 lignes de code legacy en un week-end, boostant directement la productivité.

Cependant, le tournant s'est produit début février.

Anthropic a discrètement lancé la fonctionnalité "adaptive thinking" (pensée adaptative), décrite officiellement comme "permettant au modèle d'ajuster intelligemment la profondeur de sa réflexion en fonction de la complexité de la tâche".

En apparence, c'est convivial pour l'utilisateur, mais en réalité, cela a activé un interrupteur global de rationnement.

Début mars, la valeur d'effort (effort) par défaut du modèle a été discrètement abaissée à "medium", tandis que le résumé du processus de réflexion était rapidement masqué, empêchant les utilisateurs de voir d'un coup d'œil à quel point le modèle avait réfléchi.

À la même période, Anthropic a publié 14 petites mises à jour successives, mais a subi 5 pannes à grande échelle, montrant que la pression sur la puissance de calcul et la charge atteignait ses limites.

Les retours des développeurs ont commencé à exploser, certains remarquant que les performances étaient particulièrement mauvaises aux heures de pointe (après-midi heure de l'Est), soupçonnant un rationnement dynamique dû à la charge.

Ce n'est qu'en avril que la directrice AI d'AMD est entrée personnellement en scène, confirmant la situation avec des données et déclenchant complètement la controverse.

À ce stade, Boris Cherny, responsable de Claude Code chez Anthropic, a dû publier une réponse officielle.

Il a déclaré que "l'adaptive thinking" affectait l'affichage de la pensée (thinking), et non le raisonnement sous-jacent, et a insisté sur le fait qu'il s'agissait d'une "optimisation délibérée" et non d'un bug. Il a suggéré aux utilisateurs de régler manuellement l'effort sur "high" pour améliorer les résultats.

Le sous-entendu d'Anthropic est clair : la réduction d'intelligence n'est pas un bug, c'est une optimisation produit que nous avons spécifiquement mise en place, il vous suffit de ajuster les paramètres vous-mêmes.

Cette réponse a instantanément attisé une colère encore plus grande.

Le point clé est que, de la mi-février à début avril, Anthropic n'a jamais annoncé à l'avance aucun changement majeur.

Un grand nombre d'utilisateurs payants, sans en avoir la moindre idée, ont payé un abonnement inchangé tandis que le modèle était discrètement rationné.

Ainsi, la réduction d'intelligence de Claude n'est pas due à un modèle "déréglé", mais à une action plus discrète et plus commerciale de la part d'Anthropic :

En réduisant la profondeur de réflexion par défaut, ils échangent contre une vitesse plus rapide, une charge réduite et des coûts GPU inférieurs.

Stratification des capacités des modèles

Derrière cette tempête de réduction d'intelligence se cache un phénomène alarmant :

Les capacités des modèles commencent déjà à être stratifiées.

Le calculs de Stella sont clairs : selon la tarification à la demande (on-demand) d'AWS Bedrock, le coût réel d'inférence de son équipe en mars était d'environ 42 121 dollars, alors que les frais d'abonnement mensuels réels à Claude Code payés le même mois n'étaient que de 400 dollars.

Cet écart montre au moins que, dans des scénarios d'utilisation extrêmement intensive, il existe un énorme fossé entre la tarification par abonnement et la consommation réelle de puissance de calcul.

Il est fort probable qu'Anthropic ait acquis des parts de marché en brûlant du capital, mais ces subventions ont des limites.

Lorsque la consommation d'inférence des utilisateurs intensifs atteint un certain seuil, la durabilité du modèle commercial commence à vaciller.

Boris Cherny, dans sa réponse, a révélé un signal clé : Anthropic teste l'activation par défaut du mode "high effort" pour les utilisateurs Teams et Enterprise.

En d'autres termes, un raisonnement plus puissant est en train d'être configuré comme une ressource plus coûteuse et stratifiée, ce n'est plus une capacité obtenue par défaut de manière égale pour tous.

Cela signifie que le modèle commercial des grands modèles va se diviser davantage.

Aujourd'hui, 80 % des revenus d'Anthropic proviennent des services aux entreprises et des appels d'API, les clients B2B à forte fidélité sont le véritable pilier.

Les actions actuelles d'Anthropic visent toutes à ramener l'utilisation par les entreprises vers sa propre plateforme de première partie.

Pour les clients B2B à haute valeur, Anthropic va probablement accélérer le lancement de versions entreprise plus puissantes, offrant les capacités complètes du modèle aux clients entreprises qui en paient le coût réel.

Quant aux utilisateurs grand public (C端) payant un abonnement mensuel, ils devront se contenter de la version à intelligence réduite "suffisante", satisfaisant des besoins allégés comme le chat, la rédaction de textes, la complétion de code, mais ne touchant jamais au seuil de coût critique.

Quant à la zone intermédiaire, ces développeurs indépendants et petites équipes qui ont besoin de raisonnements complexes mais ne peuvent pas supporter les tarifs entreprises, deviendront le groupe le plus squeezé.

Un utilisateur sur X a confirmé dans un post :

"Les performances de l'API entreprise de Claude sont bien meilleures que l'abonnement Pro/Max. En testant avec le même framework de test, le comportement de la version entreprise et de Pro/Max est simplement différent. Mais cela signifie aussi devoir dépenser maintenant 4 à 12k dollars par mois, selon le nombre de threads que je exécute simultanément".

En d'autres termes, le futur chemin de commercialisation des grands modèles sera probablement priorité B2B, réduction des coûts C端.

Qui paiera pour la réduction d'intelligence ?

L'événement de réduction d'intelligence de Claude n'est pas un cas isolé, mais le reflet de l'ensemble du secteur de l'IA entrant dans la seconde mi-temps de la commercialisation.

Que ce soit OpenAI avec ses réductions silencieuses et multiples de la série GPT, ou Google avec sa limitation de débit discrète pour Gemini, tous répètent le même scénario :

D'abord attirer les utilisateurs avec des hautes performances, puis contrôler les coûts via un rationnement logiciel.

Le résultat inévitable est que le secteur B2B peut acheter des modèles plus puissants à un prix élevé, avec des garanties SLA en plus, tandis que le grand public (C端) reçoit des modèles distillés, à faible effort.

La vitesse à laquelle les modèles grand public (C端) deviennent plus intelligents a déjà nettement pris du retard sur le secteur B2B.

Plus grave encore, cette différenciation est implicite.

Anthropic et autres fabricants réduisent le budget d'inférence d'une manière difficile à détecter, sans que l'utilisateur moyen ne reçoive aucune notification.

Ce choix peut peut-être soulager la pression des coûts de calcul à court terme, mais le prix à long terme est la perte de confiance dans la marque.

Lorsque "Claude réduit discrètement son intelligence" deviendra une conviction commune parmi les utilisateurs, Anthropic perdra non seulement quelques utilisateurs intensifs, mais aussi la confiance de tout l'écosystème dans le récit de l'IA universelle et transparente.

Plus宏观地看 (De manière plus宏观 - macro), l'événement Claude est le reflet du passage de l'industrie de l'IA d'une croissance sauvage à une culture intensive.

La période de subvention est terminée, les coûts réels commencent à apparaître, qui va assumer ces coûts ?

Est-ce en compressant l'expérience grand public (C端) et en augmentant les tarifs entreprises, ou en attendant une révolution logicielle/matérielle apportant une percée en efficacité, tout cela déterminera le paysage des applications d'IA pour les cinq prochaines années.

La tendance future est déjà visible, l'IA n'est plus le mythe universel de plus en plus intelligent, mais évolue vers une stratification élitiste.

Questions liées

QQuelles sont les principales preuves avancées dans l'article concernant la baisse d'intelligence de Claude ?

AL'analyse des logs de production d'AMD AI a révélé que la médiane de réflexion de Claude est passée de 2200 caractères à 600 caractères (baisse de 67-73%), et le nombre de lectures de fichiers avant modification est tombé de 6,6 à 2, avec un tiers des modifications effectuées sans lire le fichier.

QQuelle fonctionnalité Anthropic a-t-il introduite qui a marqué un tournant dans les performances de Claude ?

AAnthropic a introduit la fonctionnalité "adaptive thinking" (pensée adaptative) début février, décrite officiellement comme permettant au modèle d'ajuster intelligemment la profondeur de sa réflexion en fonction de la complexité de la tâche.

QComment Anthropic a-t-il justifié les changements de comportement de Claude ?

ALe responsable de Claude Code chez Anthropic, Boris Cherny, a déclaré que la "pensée adaptative" affectait l'affichage de la réflexion et non le raisonnement sous-jacent, et a insisté sur le fait qu'il s'agissait d'une "optimisation intentionnelle" et non d'un bug.

QSelon l'article, comment le modèle d'affaires d'Anthropic évolue-t-il face aux coûts de calcul ?

ALe modèle commercial évolue vers une stratification des capacités. Les entreprises (B2B) paieront un prix plus élevé pour des versions plus puissantes et des garanties de service, tandis que les utilisateurs grand public (B2C) recevront une version "réduite" aux capacités limitées pour contrôler les coûts.

QQuelle est la conséquence plus large de cet événement "Claude降智" pour l'industrie de l'IA selon l'article ?

ACet événement est le symbole du passage de l'industrie de l'IA d'une croissance sauvage à une culture intensive. La période de subvention est terminée, les coûts réels apparaissent, et l'IA n'est plus un mythe universel de plus en plus intelligent, mais évolue vers une stratification élitiste.

Lectures associées

Le guide de l'IA du CEO de Y-Combinator : le futur appartient à ceux qui construisent des systèmes à intérêts composés

Le PDG de Y Combinator, Garry Tan, présente une nouvelle vision de l'IA personnelle : non pas un simple chatbot, mais un système d'exploitation qui capitalise sur les intérêts composés. L'idée centrale est de passer de l'utilisation ponctuelle de modèles d'IA à la construction d'un "second cerveau" structuré et évolutif. Ce système, qu'il a développé et open-sourcé (GBrain, OpenClaw), ingère et connecte automatiquement toutes les données de sa vie professionnelle : notes de réunions, livres, emails, contacts. Chaque interaction enrichit une base de connaissances de 100 000 pages, permettant un contexte riche pour les tâches futures. La clé réside dans la "skillification" : transformer les workflows répétitifs (ex : préparer une réunion, analyser un livre) en "compétences" (skills) autonomes et réutilisables. Une méta-compétence, "Skillify", permet même de créer de nouvelles compétences automatiquement. Ainsi, le système s'améliore de lui-même, chaque correction profitant à toutes les utilisations futures. Tan détaille des cas concrets : un "miroir de livre" qui résume un ouvrage et le relie à son expérience personnelle en 40 minutes, ou une préparation de réunion qui synthétise des mois de contexte sur un interlocuteur en deux minutes. L'argument est que l'avantage concurrentiel futur appartiendra à ceux qui sauront construire de tels systèmes d'IA personnels et composés, centrés sur leur contexte unique, plutôt qu'à ceux qui se contentent d'outils centralisés. Il invite à commencer modestement par une tâche concrète, à l'itérer, puis à la transformer en compétence réutilisable pour enclencher la courbe de capitalisation.

marsbitIl y a 3 mins

Le guide de l'IA du CEO de Y-Combinator : le futur appartient à ceux qui construisent des systèmes à intérêts composés

marsbitIl y a 3 mins

Employés chinois de SK Hynix sous le choc : leur prime annuelle représente moins de 5 % de celle des employés coréens

L'article traite de l'écart important des bonus annuels entre les employés sud-coréens et chinois de SK Hynix, un géant des semi-conducteurs profitant du boom de la mémoire lié à l'IA. Alors que les médias sud-coréens spéculent sur des bonus moyens pouvant atteindre l'équivalent de plusieurs millions de yuans pour les employés en Corée du Sud, un employé chinois de SK Hynix, avec plus de 10 ans d'ancienneté, révèle que le bonus des employés en Chine représente moins de 5% de celui de leurs homologues coréens, avec un montant maximum personnel d'environ 100 000 yuans. L'article explique que les bonus en Corée du Sud sont calculés sur la base du salaire mensuel et versés une fois par an, tandis qu'en Chine, ils sont distribués deux fois par an et ajustés selon les notations de performance. De plus, les employés chinois n'auraient pas accès à des postes de direction ou à des plans d'intéressement en actions, réservés aux cadres coréens. SK Hynix a confirmé l'existence d'une règle de distribution de 10% du bénéfice opérationnel mais a tempéré les prévisions de bonus très élevées. L'entreprise anticipe une forte demande continue pour ses produits haut de gamme destinés aux clients professionnels (comme la mémoire HBM) pour les prochaines années, ce qui pourrait maintenir la pression sur les prix pour le marché grand public.

链捕手Il y a 7 mins

Employés chinois de SK Hynix sous le choc : leur prime annuelle représente moins de 5 % de celle des employés coréens

链捕手Il y a 7 mins

Employés chinois de SK Hynix frappés de plein fouet : des primes inférieures à 5% de celles des Coréens

Le titre original évoque le contraste saisissant entre les primes perçues par les employés chinois et sud-coréens de SK Hynix, affirmant que les premiers toucheraient moins de 5% des bonus de leurs homologues coréens. L'article rapporte que, portée par la demande explosive de mémoire pour l'IA, SK Hynix prévoit des profits opérationnels records, suscitant des prévisions médiatiques de bonus annuels extravagants pouvant atteindre l'équivalent de plusieurs millions de yuans pour les employés en Corée du Sud. L'entreprise a confirmé l'existence d'une règle de distribution de 10% des bénéfices mais a tempéré l'ampleur réelle de ces prévisions. En contraste frappant, un employé chinois de SK Hynix, avec plus de dix ans d'ancienneté dans un poste technique, révèle que le bonus des employés locaux est nettement inférieur. Alors que les médias évoquent des primes sud-coréennes pouvant atteindre 3 millions de yuans, le bonus chinois le plus élevé qu'il ait touché était d'un peu plus de 100 000 yuans. Il explique que le calcul diffère : les bonus sont versés une fois par an en Corée (basés sur 12 mois de salaire) et deux fois par an en Chine. Durant le ralentissement de 2023, les employés chinois n'ont reçu aucun bonus. L'article nuance également les "bonus moyens" très élevés, soulignant qu'ils masquent d'importantes disparités internes, les cadres dirigeants percevant des montants bien plus importants que les ingénieurs ou les opérateurs. Il est également noté que les incitations en actions sont généralement réservées aux employés sud-coréens, et que les postes de direction en Chine sont majoritairement occupés par des Coréens, bien que cette tendance puisse évoluer avec le temps. Enfin, l'article souligne que la forte demande, notamment pour la mémoire HBM, devrait maintenir la prospérité du secteur pour les 2-3 prochaines années, une croissance tirée par les clients professionnels (B2B) plutôt que par le grand public.

marsbitIl y a 29 mins

Employés chinois de SK Hynix frappés de plein fouet : des primes inférieures à 5% de celles des Coréens

marsbitIl y a 29 mins

Interview exclusive avec Michael Saylor : J'ai dit que je vendrais des bitcoins, mais ce ne serait jamais une vente nette

Dans un podcast récent, Michael Saylor, président exécutif de MicroStrategy, a clarifié la déclaration de la société concernant la vente potentielle de bitcoins pour payer les dividendes de ses produits de crédit numérique STRC. Il souligne que l'objectif n'est pas de devenir un vendeur net de bitcoin, mais d'utiliser les plus-values générées par l'appréciation de l'actif pour financer ces distributions. Saylor explique le modèle économique : MicroStrategy émet des instruments de crédit comme le STRC (dont elle a émis pour 60% des actions privilégiées aux États-Unis cette année) et utilise les fonds levés pour acheter du bitcoin. Avec une appréciation annuelle attendue du bitcoin d'environ 30 à 40%, la société peut prélever une partie de ces gains (environ 11%) pour verser les dividendes, tout en restant un acheteur net de bitcoin. Par exemple, en avril, sur 3,2 milliards de dollars de STRC émis (utilisés pour acheter du bitcoin), seuls 80 à 90 millions étaient nécessaires pour les dividendes. Il réaffirme sa philosophie : il ne faut pas être un vendeur net de bitcoin, mais un "accumulateur net". Le bitcoin est un "capital numérique", et sa meilleure application émergente est de servir de collatéral pour le crédit numérique, créant des instruments financiers supérieurs en termes de rendement ajusté au risque (ratio de Sharpe). Saylor rejette l'idée que MicroStrategy puisse manipuler le marché du bitcoin, citant sa liquidité profonde (des centaines de milliards de dollars échangés quotidiennement). Les principaux moteurs du prix restent les macrofacteurs géopolitiques et monétaires. Malgré des vents contraires, la dynamique fondamentale d'adoption (via les ETF, le crédit bancaire, etc.) et l'offre limitée de nouveaux bitcoins devraient maintenir sa progression ascendante.

Odaily星球日报Il y a 41 mins

Interview exclusive avec Michael Saylor : J'ai dit que je vendrais des bitcoins, mais ce ne serait jamais une vente nette

Odaily星球日报Il y a 41 mins

Trading

Spot
Futures
活动图片