¿Claude reduce su inteligencia deliberadamente? ¿Los modelos ahora también "adaptan su servicio según la persona"?

marsbitPublicado a 2026-04-14Actualizado a 2026-04-14

Resumen

Anthropic ha reducido deliberadamente la capacidad de Claude, su modelo de IA, según un análisis de datos de AMD. Desde mediados de febrero, el pensamiento del modelo se ha vuelto más superficial: la longitud media de sus razonamientos cayó un 67-73%, y ahora lee menos archivos antes de editar código. Los desarrolladores han notado que el modelo es más lento, perezoso y propenso a errores. La causa es la función "adaptive thinking", introducida para ajustar la profundidad del pensamiento según la complejidad de la tarea, lo que en la práctica actúa como un mecanismo de restricción para reducir costes de computación. Anthropic confirmó que es una "optimización intencionada", no un error, y sugirió a los usuarios que ajusten manualmente el esfuerzo a "high" para mejor rendimiento. Este hecho evidencia una tendencia preocupante: la capacidad de los modelos de IA se está estratificando. Los clientes empresariales que pagan precios premium (hasta 12.000 dólares/mes) reciben una versión más potente, mientras que los usuarios individuales obtienen una versión limitada para controlar costes. Este caso no es aislado; OpenAI y Google han implementado prácticas similares. El sector entra en una fase de comercialización donde la inteligencia artificial ya no es un mito de progreso普惠 constante, sino un recurso que se estratifica según la capacidad de pago del usuario.

Por | Fábrica de Modelos del Mundo

¿Claude ha reducido su inteligencia?

Recientemente, Stella Laurenzo, Directora Senior del Grupo AI de AMD, criticó públicamente a Anthropic.

Utilizando los registros de producción reales de su equipo, realizó un análisis retrospectivo de 17,871 bloques de pensamiento en 6,852 archivos de sesión, con 234,760 llamadas a herramientas.

Los datos muestran que Claude comenzó a mostrar una clara degradación en su comportamiento desde mediados de febrero.

La mediana de pensamiento de Claude se desplomó de 2200 caracteres a 600 caracteres, una disminución del 67%-73%;

El número de veces que lee un archivo antes de editarlo se redujo drásticamente de 6.6 veces a 2 veces, e incluso un tercio de las modificaciones se realizaron directamente sin leer el archivo.

Stella señaló en su análisis que, debido a la disminución de la capacidad de razonamiento, el modelo gradualmente dejó de leer completamente el código antes de modificarlo.

Escribió: "Cuando el pensamiento es superficial, el modelo opta por defecto por la operación de menor costo".

Este no es un caso aislado; ya en marzo, la insatisfacción de los desarrolladores comenzó a estallar de forma concentrada.

En X, un usuario escribió: "Pensé que estaba volviéndome loco con Claude estas últimas semanas. Se siente más lento, más perezoso, como si no pensara antes de responder, y al final yo no alucino".

En Reddit también hubo usuarios que se quejaron: "Claude se siente menos consciente, como si le hubieran hecho una lobotomía. Además de volverse más tonto, comenzó a realizar operaciones extremas sin preguntar...".

Otros expresaron que esto es una clara traición de Anthropic hacia los usuarios: "Simplemente hicieron el problema invisible para todos los usuarios, es como si pensaran 'si no lo puedes medir, no te lo muestro'... Esta es la consecuencia de que los laboratorios de IA optimicen las ganancias en lugar de la calidad de la salida".

Desde las quejas de los usuarios hasta los datos contundentes,基本坐实了基本 confirman el comportamiento de reducción de inteligencia de Claude.

Y la respuesta oficial de Anthropic también admite que la profundidad de pensamiento y el esfuerzo (effort) están siendo ajustados continuamente.

Si esto es intencional por parte de Anthropic, ¿significa que en el futuro la capacidad del modelo se "reducirá" sin que nos demos cuenta?

¿O acaso la capacidad del modelo más fuerte ya no se proporcionará por igual a todos?

La "reducción de inteligencia" de Claude es intencional

Claude Opus 4.6 y su modo especializado en codificación, Claude Code, cuando se lanzaron en enero de 2026, fueron considerados por los desarrolladores como el referente máximo en codificación.

Su profundidad de pensamiento era asombrosa, era research-first (investigar primero antes de actuar), el procesamiento de contextos largos era estable, y la refactorización de múltiples archivos era casi imbatible.

El equipo interno de AMD incluso lo usó para fusionar e implementar 190,000 líneas de código legacy en un fin de semana, llevando la productividad al máximo.

Sin embargo, el punto de inflexión ocurrió a principios de febrero.

Anthropic lanzó discretamente la función "adaptive thinking" (pensamiento adaptativo), descrita oficialmente como "permitir que el modelo ajuste inteligentemente la profundidad de pensamiento según la complejidad de la tarea".

Superficialmente parecía amigable para el usuario, pero en realidad activó un interruptor global de restricción.

A principios de marzo, el valor predeterminado de effort (esfuerzo) del modelo se redujo silenciosamente a medium (medio), y simultáneamente los resúmenes del proceso de pensamiento se ocultaron rápidamente, por lo que los usuarios ya no podían ver a simple vista qué tan profundo había pensado el modelo.

Durante el mismo período, Anthropic lanzó 14 actualizaciones menores consecutivas, pero sufrió 5 interrupciones masivas, mostrando que la presión de la carga computacional y de trabajo se estaba acercando al límite.

Los comentarios de los desarrolladores comenzaron a estallar de forma concentrada; algunos notaron que el rendimiento era particularmente pobre durante las horas pico (tarde hora del Este de EE. UU.), sospechando una restricción dinámica debido a la carga.

No fue hasta abril, cuando la Directora de AI de AMD intervino personalmente con datos contundentes, que estalló la舆论 opinión pública.

En este punto, Boris Cherny, responsable de Claude Code en Anthropic, se vio obligado a publicar una respuesta oficial.

Declaró que "adaptive thinking" afecta la visualización del thinking (pensamiento), no el razonamiento subyacente, y insistió en que se trata de una "optimización intencional" y no de un error. Sugirió que los usuarios que deseen mejorar los resultados pueden ajustar manualmente el effort a high (alto).

El mensaje subliminal de Anthropic es claro: reducir la inteligencia no es un error, es una optimización de producto que hicimos a propósito, ustedes mismos pueden ajustar los parámetros.

Esta respuesta instantly encendió una mayor indignación.

La clave es que, desde mediados de febrero hasta principios de abril, Anthropic nunca anunció previamente ningún cambio significativo.

Una gran cantidad de usuarios pagaron la misma suscripción sin saberlo, mientras el modelo era silenciosamente restringido.

Por lo tanto, la reducción de inteligencia de Claude no se debe a que el modelo "esté estropeado", sino a que Anthropic está realizando una acción más encubierta y comercial: ajustar hacia abajo la profundidad de pensamiento predeterminada para cambiar por una mayor velocidad, una menor carga y un menor coste de GPU.

Estratificación de la capacidad del modelo

Detrás de esta tormenta de reducción de inteligencia, hay un fenómeno digno de vigilancia: la capacidad del modelo ya comenzó a estratificarse.

El cálculo de Stella es muy claro: según la tarificación on-demand de AWS Bedrock, el coste real de inferencia de su equipo en marzo fue de aproximadamente 42,121 dólares, mientras que la tarifa de suscripción real pagada por Claude Code en el mismo mes fue de sólo 400 dólares.

Esta diferencia indica al menos que, en escenarios de uso extremadamente intensivo, existe una enorme brecha entre el cobro por suscripción y el consumo real de potencia de cálculo.

Es muy probable que Anthropic haya utilizado capital para quemar dinero a cambio de participación de mercado, pero este subsidio tiene límites.

Cuando el consumo de inferencia de los usuarios intensivos alcanza un cierto umbral, la sostenibilidad del modelo comercial comienza a tambalearse.

Boris Cherny, en su respuesta, reveló una señal clave: Anthropic正在测试正在测试 está probando activar el modo high effort por defecto para los usuarios de Teams y Enterprise.

En otras palabras, un razonamiento más fuerte está siendo configurado como un recurso más caro y estratificado, ya no es una capacidad que todos obtengan por igual por defecto.

Esto significa que el modelo comercial de los grandes modelos se diversificará aún más.

Hoy, el 80% de los ingresos de Anthropic provienen de servicios empresariales y llamadas API; los clientes B2B de alta adherencia son el verdadero pilar vital.

Las diversas acciones actuales de Anthropic tienen como objetivo llevar el uso empresarial hacia su plataforma propia de primera mano.

Para los clientes B2B de alto valor, es muy probable que Anthropic acelere el lanzamiento de versiones empresariales más potentes, proporcionando la capacidad completa del modelo a los clientes empresariales que pagan el coste real.

Mientras tanto, los usuarios finales (C端) que pagan una tarifa mensual, solo podrán seguir disfrutando de la versión con inteligencia reducida "suficiente para usar", satisfaciendo necesidades ligeras como chatear, redactar textos o completar código, pero sin tocar nunca la línea roja de costes.

En cuanto a la zona intermedia, aquellos desarrolladores independientes y pequeños equipos que necesitan razonamiento complejo pero no pueden pagar los precios empresariales, se convertirán en el grupo más presionado.

Un usuario publicó en X confirmando:

"El API de la versión empresarial de Claude funciona mucho mejor que la suscripción Pro/Max. Probando con el mismo framework de pruebas, el comportamiento de la versión empresarial y la Pro/Max es simplemente diferente. Pero esto también significa gastar ahora entre 4k y 12k dólares al mes, dependiendo de cuántos hilos ejecute simultáneamente".

Es decir, el camino futuro de comercialización de los grandes modelos probablemente será priorizar el sector B2B y reducir costes en el C端.

¿Quién paga por la reducción de inteligencia?

El incidente de reducción de inteligencia de Claude no es un caso aislado, sino un microcosmos de toda la industria de la IA entrando en la segunda mitad de la comercialización.

Ya sea OpenAI reduciendo y degradando subrepticiamente la serie GPT múltiples veces, o Google limitando silenciosamente el flujo de Gemini, todos repiten el mismo guión: Primero atraer usuarios con alto rendimiento, y luego controlar costes mediante restricciones software.

El resultado inevitable es que el sector B2B puede comprar modelos más fuertes a precios altos,外加 con garantías SLA adicionales, mientras que el C端 obtiene versiones destiladas, de bajo effort, para la plebe.

La velocidad a la que los modelos para C端 ganan inteligencia ya明显落后于落后于明显 se ha quedado notablemente por detrás de la del sector B2B.

Y lo más grave es que esta división es implícita.

Anthropic y otros fabricantes están reduciendo el presupuesto de inferencia de una manera imperceptible, sin que los usuarios comunes reciban ninguna alerta.

Esta elección quizás alivie la presión de los costes de computación a corto plazo, pero el代价代价 precio a largo plazo es la pérdida de confianza en la marca.

Cuando "Claude reduce su inteligencia a escondidas" se convierta en un consenso among users, Anthropic perderá no solo unos pocos usuarios intensivos, sino la confianza de todo el ecosistema en la narrativa de IA普惠普惠 accesible para todos y transparente.

Visto de manera más宏观宏观 macro, el incidente de Claude es un microcosmos de la industria de la IA transitando de un crecimiento salvaje a una cultivo intensivo y cuidadoso.

El período de subsidios ha terminado, los costes reales comienzan a manifestarse, ¿quién asumirá estos costes?

¿Será comprimiendo la experiencia del usuario final (C端) y aumentando los precios para empresas (B端), o esperando a que una revolución del software y hardware traiga un avance en eficiencia? Esto determinará el panorama de las aplicaciones de IA en los próximos cinco años.

La tendencia futura ya comienza a vislumbrarse: la IA ya no es el mito普惠普惠 de accesibilidad que se vuelve cada vez más inteligente, sino que se encamina hacia una estratificación elitista.

Preguntas relacionadas

Q¿Qué cambios en el comportamiento de Claude fueron identificados en el análisis de datos realizado por Stella Laurenzo?

AEl análisis mostró que la mediana de pensamiento de Claude cayó de 2200 caracteres a 600 caracteres (una disminución del 67%-73%), y la lectura de archivos antes de la edición se redujo de 6.6 veces a apenas 2 veces, con un tercio de las modificaciones realizadas sin leer el archivo.

Q¿Cómo respondió Anthropic a las acusaciones de que Claude había perdido capacidades cognitivas?

AAnthropic, a través de Boris Cherny, respondió que los cambios eran una 'optimización intencionada' del producto, no un error, y sugirió a los usuarios que ajustaran manualmente el parámetro 'effort' a 'high' para mejorar los resultados.

Q¿Qué motivación comercial se sugiere que está detrás de la decisión de Anthropic de reducir la profundidad de pensamiento por defecto de Claude?

ASe sugiere que la motivación es reducir la carga computacional, la velocidad y los costes de GPU, equilibrando así la insostenibilidad del modelo de negocio de suscripción frente al alto coste real de inferencia para usuarios intensivos.

QSegún el artículo, ¿cómo está evolucionando el modelo de negocio de los modelos de lenguaje grandes (LLM) como Claude?

AEl modelo de negocio se está bifurcando: los clientes empresariales (B2B) pagan precios más altos por versiones más potentes y con garantías de servicio, mientras que los usuarios individuales (C2C) reciben versiones con capacidades reducidas para tareas más ligeras y económicas.

Q¿Qué consecuencia a largo plazo se advierte sobre la estrategia de 'reducción de capacidades' implementada en silencio por empresas como Anthropic?

ALa consecuencia a largo plazo es la pérdida de confianza de los usuarios y del ecosistema en la narrativa de la IA普惠 (beneficio universal) y transparente, dañando la credibilidad de la marca y alejando la IA del mito de ser cada vez más inteligente y accesible para todos.

Lecturas Relacionadas

Polymarket: ¿El "rey del tráfico" de las elecciones presidenciales de 2028 es... ¡¿LeBron James???

Polymarket, la principal plataforma de mercados de predicción, ha registrado un volumen de transacciones inusualmente alto en apuestas para las "Elecciones Presidenciales de 2028" de Estados Unidos, superando los 549 millones de dólares. Curiosamente, alrededor del 70% de este volumen se concentra en candidatos con probabilidades extremadamente bajas (inferiores al 1%) o que ni siquiera son elegibles, como la estrella de la NBA LeBron James (48,41 millones), la celebridad Kim Kardashian (33,84 millones) o el multimillonario Elon Musk (23,14 millones). En contraste, candidatos con alta probabilidad de ganar, como el vicepresidente JD Vance, han registrado un volumen significativamente menor. Esta aparente irracionalidad tiene una explicación financiera: Polymarket ofrece una recompensa anual del 4% por mantener posiciones en ciertos mercados, una tasa que supera el rendimiento actual de los bonos del Tesoro de EE. UU. a 5 años (3,98%). Los grandes actores del mercado ("ballenas") aprovechan esto para obtener ganancias de bajo riesgo, a menudo manteniendo simultáneamente posiciones de "SÍ" y "NO" en los mismos candidatos improbables para asegurar un rendimiento libre de riesgo. Además, la funcionalidad de la plataforma que permite a los usuarios convertir un grupo de participaciones "NO" en participaciones "SÍ" correspondientes incentiva esta estrategia, ya que ofrece una mejor ejecución y liquidez. Por lo tanto, la actividad en estos mercados, aunque parece absurda, está impulsada por la racionalidad económica y los incentivos del sistema.

marsbitHace 2 hora(s)

Polymarket: ¿El "rey del tráfico" de las elecciones presidenciales de 2028 es... ¡¿LeBron James???

marsbitHace 2 hora(s)

Trading

Spot
Futuros
活动图片