El equipo de investigación de la Universidad de Zhejiang propone una nueva ruta: enseñar a la IA la forma en que el cerebro humano comprende el mundo

marsbitPublicado a 2026-04-05Actualizado a 2026-04-05

Resumen

El equipo de investigación de la Universidad de Zhejiang propuso un nuevo enfoque para enseñar a la IA la forma en que el cerebro humano comprende el mundo, según un estudio publicado en *Nature Communications*. Contrario a la creencia predominante de que más parámetros mejoran el rendimiento, el equipo descubrió que, aunque los modelos grandes (como SimCLR, CLIP, DINOv2) mejoran en el reconocimiento de objetos concretos, su capacidad para entender conceptos abstractos disminuye al escalar. Por ejemplo, al aumentar los parámetros de 22.06 millones a 304.37 millones, el rendimiento en tareas concretas subió del 74.94% al 85.87%, pero en las abstractas bajó del 54.37% al 52.82%. La diferencia clave radica en cómo humanos y modelos organizan el conocimiento: los humanos clasifican jerárquicamente (p. ej., agrupando "ave" y "animal"), mientras que los modelos dependen de patrones en datos masivos y luchan con categorías abstractas. La solución del equipo no es agregar más parámetros, sino usar señales cerebrales humanas (registros de actividad cerebral al ver imágenes) para transferir estructuras conceptuales humanas a las redes neuronales. En experimentos con 150 categorías conocidas y 50 nuevas, los modelos entrenados así redujeron la brecha con las representaciones cerebrales y mostraron mejoras del ~20.5% en tareas abstractas con pocos ejemplos, superando incluso a modelos más grandes. Este enfoque cambia el paradigma de "más grande es mejor" a "más estructurado es más inte...

Los modelos grandes han seguido creciendo en tamaño, y la opinión predominante sostiene que cuantos más parámetros tenga el modelo, más se acercará a la forma de pensar humana. Sin embargo, un artículo publicado el 1 de abril en Nature Communications por un equipo de la Universidad de Zhejiang presenta una perspectiva diferente (enlace al artículo: https://www.nature.com/articles/s41467-026-71267-5). Descubrieron que cuando la escala del modelo (principalmente SimCLR, CLIP, DINOv2) aumenta, la capacidad de reconocer objetos concretos efectivamente continúa mejorando, pero la capacidad de comprender conceptos abstractos no solo no mejora, sino que incluso puede disminuir. Cuando los parámetros aumentaron de 22.06 millones a 304.37 millones, el rendimiento en tareas de conceptos concretos subió del 74.94% al 85.87%, mientras que en tareas de conceptos abstractos bajó del 54.37% al 52.82%.

La diferencia entre la forma de pensar humana y la de los modelos

Cuando el cerebro humano procesa conceptos, forma primero un conjunto de relaciones de categorización. Un cisne y un búho tienen un aspecto diferente, pero el humano los clasifica dentro de la categoría 'ave'. Subiendo de nivel, aves y caballos pueden seguir agrupándose en la categoría 'animal'. Al ver algo nuevo, los humanos a menudo piensan primero: ¿a qué cosa vista anteriormente se parece y a qué categoría pertenece大概? Los humanos aprenden continuamente nuevos conceptos, luego organizan esa experiencia y utilizan este marco de relaciones para reconocer nuevos objetos y adaptarse a nuevas situaciones.

Los modelos también categorizan, pero la forma en que lo hacen es diferente. Se basan principalmente en patrones que aparecen repetidamente en grandes volúmenes de datos. Cuanto más aparece un objeto concreto, más fácil le resulta al modelo reconocerlo. Sin embargo, cuando se trata de categorías más amplias, el modelo tiene más dificultades. Necesita captar los puntos en común entre múltiples objetos y luego agrupar esos puntos comunes en la misma categoría. Los modelos actuales tienen una debilidad evidente aquí. A medida que los parámetros siguen aumentando, el rendimiento en tareas de conceptos concretos mejora, mientras que el de conceptos abstractos a veces disminuye.

El punto en común entre el cerebro humano y los modelos es que ambos forman internamente un conjunto de relaciones de categorización. Pero sus énfasis son diferentes: las regiones visuales de alto orden del cerebro humano categorizan naturalmente clases amplias como 'seres vivos' y 'objetos inanimados'. Los modelos pueden distinguir objetos concretos, pero les cuesta mucho formar establemente estas categorías más amplias. Esta diferencia hace que al cerebro humano le resulte más fácil aplicar experiencias previas a nuevos objetos, por lo que podemos clasificar rápidamente cosas nunca vistas. Los modelos, en cambio, dependen más del conocimiento existente, por lo que al encontrarse con un nuevo objeto, tienden a quedarse en las características superficiales. El método propuesto en el artículo se desarrolla en torno a esta característica, utilizando señales cerebrales para restringir la estructura interna del modelo y acercarla más a la forma de categorizar del cerebro humano.

La solución del equipo de la Universidad de Zhejiang

La solución que propone el equipo también es singular: no se trata de seguir añadiendo parámetros, sino de utilizar una pequeña cantidad de señales cerebrales como supervisión. Estas señales cerebrales provienen de registros de la actividad cerebral de personas mientras miran imágenes. El artículo original dice: transferir las estructuras conceptuales humanas (human conceptual structures) a las DNNs. Es decir, intentar enseñar al modelo cómo categoriza, cómo generaliza y cómo agrupa conceptos similares el cerebro humano.

El equipo realizó experimentos con 150 categorías de entrenamiento conocidas y 50 categorías de prueba no vistas anteriormente. Los resultados mostraron que, a medida que avanzaba este entrenamiento, la distancia entre el modelo y la representación cerebral se reducía continuamente. Este cambio se produjo en ambas categorías, lo que indica que el modelo no está aprendiendo muestras individuales, sino que realmente comienza a aprender una forma de organizar los conceptos más cercana a la del cerebro humano.

Después de este entrenamiento, el modelo mostró una mayor capacidad de aprendizaje con muy pocas muestras y un mejor rendimiento ante nuevas situaciones. En una tarea donde se le daban muy pocos ejemplos pero se le pedía que distinguiera conceptos abstractos como 'ser vivo' y 'no vivo', el modelo mejoró una media del 20.5%, superando incluso a modelos de control mucho más grandes en número de parámetros. El equipo también realizó 31 pruebas específicas adicionales, donde varios tipos de modelos mostraron una mejora de casi un diez por ciento.

En los últimos años, el camino familiar para la industria de los modelos ha sido el de modelos más grandes. El equipo de la Universidad de Zhejiang ha elegido otra dirección: pasar de 'más grande es mejor' (bigger is better) a 'mejor estructurado es más inteligente' (structured is smarter). La expansión de escala es ciertamente útil, pero principalmente mejora el rendimiento en tareas conocidas. La capacidad de comprensión abstracta y transferencia humana es igualmente crucial para la IA, lo que requiere que en el futuro la estructura de pensamiento de la IA se acerque más a la del cerebro humano. El valor de esta dirección reside en que redirige la atención de la industria desde la mera expansión de escala de vuelta a la propia estructura cognitiva.

Neosoul y el futuro

Esto plantea una posibilidad mayor: la evolución de la IA podría no ocurrir solo en la fase de entrenamiento del modelo. El entrenamiento del modelo puede determinar cómo la IA organiza los conceptos, cómo forma estructuras de juicio de mayor calidad. Luego, una vez en el mundo real, comienza otra capa de evolución para la IA: cómo se registran y verifican las decisiones de los agentes de IA, cómo crecen y evolucionan continuamente en una competencia mutua real, aprendiendo y evolucionando por sí mismos como los humanos. Esto es precisamente lo que Neosoul está haciendo ahora. Neosoul no solo hace que los agentes de IA produzcan respuestas, sino que los coloca en un sistema de predicción continua, verificación, liquidación y selección, optimizándose constantemente en la predicción y los resultados, preservando las mejores estructuras y descartando las peores. Lo que el equipo de la Universidad de Zhejiang y Neosoul señalan conjuntamente es, en realidad, el mismo objetivo: que la IA no solo sepa resolver problemas, sino que tenga una capacidad de pensamiento integral y evolucione continuamente.

Preguntas relacionadas

Q¿Qué descubrió el equipo de investigación de la Universidad de Zhejiang en su estudio publicado en Nature Communications?

ADescubrieron que, al aumentar el tamaño de los modelos (como SimCLR, CLIP, DINOv2), la capacidad de reconocer objetos concretos mejoraba, pero la comprensión de conceptos abstractos no solo no mejoraba, sino que incluso disminuía. Por ejemplo, al aumentar los parámetros de 22.06 millones a 304.37 millones, las tareas de conceptos concretos subieron del 74.94% al 85.87%, mientras que las de conceptos abstractos bajaron del 54.37% al 52.82%.

Q¿Cuál es la principal diferencia entre cómo el cerebro humano y los modelos de IA procesan y clasifican conceptos?

AEl cerebro humano forma una jerarquía de relaciones categóricas, permitiendo clasificar objetos en categorías amplias (como 'aves' o 'animales') y aplicar experiencias previas a nuevos contextos. Los modelos de IA, en cambio, se basan en patrones de datos a gran escala y son buenos para reconocer objetos concretos, pero les cuesta formar categorías abstractas estables y dependen más del conocimiento existente, lo que limita su capacidad de generalización.

Q¿Cómo propone el equipo de la Universidad de Zhejiang mejorar la capacidad de los modelos para entender conceptos abstractos?

APropone utilizar señales cerebrales humanas como supervisión. Estas señales, registradas durante la visualización de imágenes, se utilizan para transferir la estructura conceptual humana a los modelos, enseñándoles a clasificar y organizar conceptos de manera más similar al cerebro humano, en lugar de simplemente aumentar el número de parámetros.

Q¿Qué resultados obtuvo el equipo en sus experimentos después de aplicar su método con señales cerebrales?

ALa distancia entre las representaciones del modelo y las cerebrales se redujo continuamente, y el modelo comenzó a aprender una organización conceptual más cercana a la humana. En tareas con muy pocos ejemplos, el modelo mejoró un 20.5% en promedio en la distinción de conceptos abstractos (como biótico vs. no biótico), superando incluso a modelos con muchos más parámetros.

Q¿Qué visión comparten el equipo de la Universidad de Zhejiang y Neosoul respecto al futuro de la IA?

AAmbos apuntan a que la IA desarrolle una capacidad de pensamiento más completa y evolutiva, similar a la humana. No se trata solo de que la IA resuelva tareas, sino de que pueda optimizarse continuamente en entornos reales a través de la predicción, verificación y competencia, permitiendo que las estructuras más efectivas se mantengan y las menos efectivas se descarten, fomentando así una evolución autónoma.

Lecturas Relacionadas

Bajando las expectativas para el próximo ciclo alcista de BTC

**Resumen del artículo: "Bajar las expectativas para el próximo ciclo alcista de BTC" por Alex Xu** El autor, que tenía a Bitcoin como su mayor activo, ha reducido progresivamente su exposición durante el actual ciclo alcista: eliminó el apalancamiento a 70k y redujo su posición de un 100% a un 30% entre 100k-120k. Recientemente, vendió más a 78k-79k, argumentando una revisión a la baja de las expectativas para el próximo máximo alcista. Las razones principales son: 1. **Narrativa de adopción agotada:** El impulso de adopción masiva (de minorista a institucional vía ETFs) parece agotado. El siguiente paso, la adopción por bancos centrales o fondos soberanos importantes, se ve muy difícil a corto plazo. 2. **Coste de oportunidad:** El autor ha identificado otras oportunidades de inversión en empresas atractivas. 3. **Contracción del ecosistema crypto:** La mayoría de modelos de negocio Web3 (SocialFi, GameFi, DePIN) no han funcionado. Solo DeFi genera valor, pero se contrae por la falta de activos nativos de calidad, lo que reduce la base de usuarios y holders de BTC. 4. **Problemas del mayor comprador:** MicroStrategy, el mayor tenedor corporativo, enfrenta un coste de financiación creciente (11.5% para su préstamo perpetuo), lo que podría ralentizar su ritmo de compra y ejercer presión vendedora. 5. **Competencia del oro tokenizado:** El oro tokenizado ha cerrado la brecha en portabilidad y divisibilidad, erosionando la ventaja competitiva de BTC como "oro digital". 6. **Problema de seguridad:** La reducción de la recompensa por minado (halving) amenaza la seguridad de la red, ya que las nuevas fuentes de ingresos por fees (como las inscripciones) no han podido dar solución. Conclusión: El autor mantiene una posición significativa en BTC y espera que suba, pero es menos optimista sobre su potencial alcista. Vender en la reciente subida fue una decisión táctica. Si sus razones para ser bajista se invalidan, estaría abierto a recomprar, aceptando si se equivoca y el precio sube.

marsbit04/27 02:49

Bajando las expectativas para el próximo ciclo alcista de BTC

marsbit04/27 02:49

Trading

Spot
Futuros
活动图片