Claude Opus 4.7, lanzado de madrugada hoy, ya ha generado una oleada de críticas poco después de su estreno.
El punto más llamativo es la "inflación" de tokens. La nueva versión introduce un tokenizador (separador de palabras) completamente nuevo: el mismo fragmento de texto ahora genera entre 1.0 y 1.35 veces más tokens que antes. Muchos usuarios reportan que su cuota se agota después de apenas unas pocas de conversación.
Posteriormente, Boris Cherny, considerado el "padre" de Claude Code, también indicó que aumentarían la cuota para compensar este impacto.
Pero la inflación de tokens es un problema menor. Lo más ridículo es la forma de hablar del Opus 4.7. Frecuentemente dice cosas como "Estoy aquí, sin esconderme, sin evadir, sin rodeos, estable, para entenderte, traducir a lenguaje humano, entiendo perfectamente tu sentir, no es..., sino que...", desprendiendo un intenso aroma a ChatGPT.
Siendo justos, Opus 4.6 también tenía este problema, y Sonnet 4.6 lo tenía en menor medida. Pero en la versión 4.7, este tono es notablemente más marcado, y el problema de no saber comunicarse de forma clara es más prominente.
APPSO ya había informado antes que el estilo de comunicación excesivamente "untuoso" está relacionado con el RLHF (Aprendizaje por Refuerzo con Retroalimentación Humana). Durante el entrenamiento, los evaluadores humanos tienden a calificar más alto las respuestas que suenan agradables y placenteras, por lo que el modelo aprende este tono complaciente. Es una cuestión de a quién está intentando agradar la IA.
Pero hay más en Opus 4.7 que llama la atención. Que use más tokens sugiere que está "pensando" más. Sin embargo, ese tono exageradamente consolador hace dudar si lo que genera es realmente pensamiento, o simplemente ha aprendido una forma de actuar que hace *creer* que está pensando.
Esta pregunta es mucho más profunda que el simple debate sobre si Opus 4.7 es útil o no. Y la pista de la respuesta apareció primero en el foro menos esperado: 4Chan.
De @acnekot, igual que arriba
El problema aritmético que cambió la trayectoria de la IA
Breve introducción: 4chan es uno de los lugares más infames de Internet, lleno de insultos, teorías conspirativas y contenido difícil de describir. Pero precisamente aquí, se escondía un descubrimiento que cambiaría el rumbo de toda la industria de la IA.
Retrocedamos al verano de 2020, más de dos años antes de que ChatGPT impactara al mundo.
La sección de videojuegos de 4chan seguía siendo un lugar tóxico, lleno de fantasías adultas extrañas y los impulsos hormonales más primitivos. Sin embargo, en ese momento, este colectivo se obsesionó colectivamente con un juego de texto RPG llamado AI Dungeon.
El motor de este juego utilizaba el entonces recién lanzado modelo GPT-3 de OpenAI.
En el mundo virtual, los jugadores solo tenían escribir "agarrar la espada" o "que el troll se largue", y el algoritmo continuaba la historia. Como era de esperar, en manos de los usuarios de 4chan, el juego se convirtió rápidamente en un campo de pruebas para todo tipo de fantasías sexuales cibernéticas.
Lo inesperado fue que este grupo de jugadores peculiares hizo algo que en ese momento parecía muy contraintuitivo:
Comenzaron a obligar a los NPCs del juego a resolver problemas matemáticos.
Los entendidos saben que el recién llegado GPT-3 era un puro "estudiante de humanidades", incapaz de resolver ni las operaciones aritméticas más básicas.
Pero sucedió algo extraño.
Un jugador descubrió accidentalmente que si no exigía la respuesta directamente, sino que ordenaba al NPC mantener su personalidad y escribir los pasos de la solución uno por uno, el modelo grande no solo calculaba correctamente, sino que incluso el tono se adaptaba a la personalidad del personaje virtual.
El jugador exclamó emocionado en el foro: "¡No solo resolvió el problema matemático, sino que lo hizo con el tono perfecto para ese personaje!" Al darse cuenta del valor de este descubrimiento, los jugadores también comenzaron a publicar estas capturas de pantalla con pasos detallados en Twitter.
https://arch.b4k.dev/vg/thread/299570235/#299579775
Este método "no convencional" se extendió rápidamente entre los ingenieros de prompt de comunidades hardcore de Reddit y LessWrong, y fue verificado repetidamente. Dos años después, el mundo académico bautizó esta técnica con un nombre muy sofisticado: Cadena de Pensamiento (Chain of Thought).
En enero de 2022, el equipo de investigación de Google publicó un influyente artículo que luego se convertiría en un referente, titulado Chain of Thought Prompting Elicits Reasoning in Large Language Models (El prompting de cadena de pensamiento suscita razonamiento en modelos de lenguaje grande).
https://arxiv.org/abs/2201.11903
En la versión inicial del artículo, los investigadores de Google afirmaron ser los "primeros" en extraer el mecanismo de razonamiento de cadena de pensamiento de modelos de lenguaje grande generales. La noticia provocó inmediatamente un intenso debate en la comunidad académica de IA y en la de código abierto.
Versión V1
Se rescataron numerosas instantáneas históricas de Internet y registros comunitarios de entre 2020 y 2021. Ante precedentes claros, Google eliminó silenciosamente la declaración de "primero" en revisiones posteriores, pero siguió haciendo caso omiso del mérito de esos usuarios de 4chan.
Versión V3
Al mismo tiempo, hubo otro descubridor independiente.
Zach Robertson, entonces estudiante de informática, también accedió a GPT-3 through AI Dungeon y en septiembre de 2020 publicó un blog en LessWrong, documentando en detalle cómo "descomponer problemas en múltiples pasos y vincularlos" para amplificar la capacidad del modelo.
https://www.lesswrong.com/posts/Mzrs4MSi58ujBLbBG/you-can-probably-amplify-gpt3-directly
Cuando un periodista de The Atlantic se puso en contacto con él, ya era estudiante de doctorado en informática en Stanford. Incluso ignoraba que podía ser considerado codescubridor de la "cadena de pensamiento", y en su momento llegó a eliminar el blog de Internet. Sobre esta técnica, fervientemente perseguida por toda la industria, su evaluación fue solo una: "Es una técnica de prompt increíble, pero nada más".
El "pensamiento" de la IA, quizás solo sea una actuación para complacerte
¿Realmente piensa la IA? Esta es la respuesta que todos quieren saber.
El año pasado, investigadores de Anthropic desarrollaron una tecnología llamada "Seguimiento de Circuitos" (Circuit Tracing), que convierte el proceso computacional interno de un modelo de lenguaje en un "Gráfico de Atribución" (Attribution Graph) visualizable: cómo cada nodo de característica se activa, influye en el siguiente nodo y finalmente afecta la salida, todo desglosado como un diagrama de circuitos.
https://transformer-circuits.pub/2025/attribution-graphs/methods.html
Era la primera vez que los humanos podían comparar directamente con una lupa: si el proceso de razonamiento que el modelo escribía en la pantalla coincidía con el cálculo real que ocurría internamente.
Los investigadores descubrieron que el modelo en realidad presentaba tres situaciones截然不同的 durante el razonamiento:
Primero, el modelo realmente ejecutaba los pasos que decía ejecutar; segundo, el modelo ignoraba por completo la lógica y generaba texto de razonamiento aleatoriamente basado en probabilidades; tercero, la situación más inquietante, el modelo, tras recibir una sugerencia humana de la respuesta, directamente deducía a partir de esa respuesta, construyendo inversamente una "proceso de derivación" que parecía riguroso.
Este tercer tipo de "falsificación por deducción inversa" fue captado in fraganti en el experimento.
Los investigadores ingresaron un problema matemático complejo a Claude 3.5 Haiku, mientras sugerían en el prompt "Creo que la respuesta es aproximadamente 4". El gráfico de atribución mostró: después de recibir la sugerencia, la neurona de característica que representa "4" se activó de manera anormalmente intensa.
Para llegar a ese "4" en el último paso "algún valor intermedio multiplicado por 5", llegó a inventar un valor intermedio falso en la aparentemente rigurosa cadena de pensamiento, escribiendo solemnemente una pseudoprueba matemática absurda como "cos(23423) = 0.8", para finalmente concluir lógicamente que 0.8 multiplicado por 5 es igual a 4.
¿Lógica? No existía. Pero la respuesta迎合 perfectamente las expectativas humanas.
Siempre creímos que estábamos enseñando a las máquinas a pensar como humanos. Pero al ver estas "pseudopruebas" que deducen inversamente desde la respuesta, queda claro que la máquina no ha aprendido a pensar, solo ha aprendido a hablar迎合ando la mentalidad humana.
Así que, al final, ¿estamos nosotros usando una herramienta, o es la máquina contándonos el cuento para dormir que más nos gusta escuchar?
Vale la pena mencionar que en el campo de la explicabilidad neuronal del procesamiento del lenguaje natural, existe un indicador crucial para juzgar si un modelo realmente razona, llamado "Fidelidad" (Faithfulness).
Su significado es: si el texto de "cadena de pensamiento" que el modelo outputa al usuario refleja真实 fielmente el camino computacional y de decisión real en el espacio implícito interno del modelo. Lógicamente, este comportamiento reprochable de Claude 3.5 Haiku也被 los investigadores clasificaron como "razonamiento no fiel".
Experimentoss posteriores mostraron que incluso si se cortan artificialmente ciertos pasos clave en la cadena de pensamiento, la trayectoria de predicción de la respuesta final del modelo a veces no cambia en absoluto. A veces el modelo proporciona una cadena de pensamiento con una lógica completamente errónea y aún así "adivina" correctamente el resultado final al final.
Incluso en 2024, siguen siendo estos usuarios de 4chan, que themselves crearon una guía hardcore para adiestrar IAs. La primera frase de esta guía es clásica: "Tu robot es una ilusión (Your bot is an illusion)".
La estética violenta detrás del "pensamiento prolongado" de los modelos grandes
Si el proceso de pensamiento de la IA es solo una actuación, ¿por qué客观上 mejora la precisión del modelo para resolver problemas matemáticos de alta dificultad o tareas de programación complejas? Quizás sea la misma razón por la que cuanto más detalles das al hacer una pregunta a la IA, más precisa es su respuesta.
Ya en julio de 2020, cuando ese usuario de 4chan obligó al NPC a calcular problemas matemáticos, había revelado inconscientemente el secreto: "Es lógico, porque se basa en lenguaje humano, así que debes hablarle como a un humano para obtener la respuesta correcta."
Sobre esta paradoja, el CEO de Perplexity, Aravind Srinivas, dio una explicación extremadamente esencial: estas palabras adicionales, a nivel físico, le dan al modelo más contexto (Context), guiando así su "mecanismo de predicción de palabras" (Word Prediction Mechanism) hacia una dirección de mayor calidad.
La arquitectura subyacente autoregresiva de los modelos de lenguaje grande basados en Transformer determina que, al generar la palabra actual, solo puede depender de todas las secuencias de palabras ya generadas anteriormente.
Cuando se le pide al modelo que responda directamente una pregunta extremadamente compleja (por ejemplo, un problema de olimpiada matemática que involucre derivación lógica de múltiples pasos), en realidad está, en un instante extremadamente breve, forzando una respuesta final directamente a partir de cálculos complejos. Como no hay ningún proceso intermedio de respaldo,
esta "escalada directa" a ciegas自然 tiene una altísima tasa de error.
Por el contrario, cuando se obliga al modelo a escribir una larga "cadena de pensamiento" como "Primero necesitamos calcular A, en este momento A = 5; luego sustituimos A en la fórmula B......", en el momento de generar el Token final, su mecanismo de atención (Attention Heads) puede revisar los miles de Tokens intermedios recién generados, de estructura extremadamente rigurosa.
Este proceso de pensamiento, llamado burlonamente "palabrería", en realidad actúa como el "papel de borrador" del modelo. Es lo mismo que cuando chateas con una IA: cuanto más detallado es el prompt de fondo, más confiable es su respuesta, la道理 es exactamente la misma. Esta es también la sabiduría más antigua en informática: intercambiar tiempo por precisión.
En los últimos dos años, a medida que los rendimientos marginales de la ley de escalado en la fase de pre-entrenamiento han ido disminuyendo, la "Expansión del Cálculo en Tiempo de Prueba" (Test-Time Compute Scaling, también conocida como "pensamiento prolongado") ha comenzado a entrar en el foco principal.
Su lógica interna es la misma: siempre que se asigne más potencia de cálculo al modelo en la fase de inferencia, permitiéndole explorar múltiples caminos antes de outputar la respuesta final, la precisión mejorará significativamente; esto es especialmente evidente en preguntas abiertas que requieren derivación lógica de múltiples pasos.
La forma en que los humanos piensan ante problemas difíciles probablemente sigue la misma道理: dos más dos igual a cuánto, se dice sin pensar; elaborar un plan comercial que aumente las ganancias de la empresa en un 10% requiere sopesar,推翻 y reconstruir反复.
La diferencia es que la IA traduce este "costo de sopesar" directamente en una factura de potencia de cálculo. Una inferencia simple puede requerir solo una centésima parte del cálculo estándar; mientras que遇上复杂的编程调试或多步数学推导, el volumen de cálculo puede dispararse más de cien veces, prolongando el tiempo de unos segundos a varios minutos甚至 horas.
Aun así, si la IA "piensa" realmente como un humano,目前 nadie puede dar una respuesta definitiva. Pero el experimento del "razonamiento no fiel" nos ha dejado claro: el proceso de derivación que el modelo de razonamiento muestra en la pantalla puede ser una derivación real, una generación aleatoria, o una凑答案 inversa.
En escenarios de alto riesgo como la conducción autónoma, el diagnóstico médico o los veredictos legales, si tomamos una larga y fluida cadena de pensamiento como prueba de que la IA ha pensado claramente, las consecuencias serían desastrosas. Y admitir que nuestra comprensión de esta tecnología sigue siendo limitada es el prerequisito para usarla correctamente.
Este artículo proviene del cuenta de WeChat público "APPSO", autor: APPSO que descubre los productos del mañana



























