El equipo de investigación de la Universidad de Zhejiang propone una nueva ruta: enseñar a la IA la forma en que el cerebro humano comprende el mundo

marsbitPublicado a 2026-04-05Actualizado a 2026-04-05

Resumen

El equipo de investigación de la Universidad de Zhejiang propuso un nuevo enfoque para enseñar a la IA la forma en que el cerebro humano comprende el mundo, según un estudio publicado en *Nature Communications*. Contrario a la creencia predominante de que más parámetros mejoran el rendimiento, el equipo descubrió que, aunque los modelos grandes (como SimCLR, CLIP, DINOv2) mejoran en el reconocimiento de objetos concretos, su capacidad para entender conceptos abstractos disminuye al escalar. Por ejemplo, al aumentar los parámetros de 22.06 millones a 304.37 millones, el rendimiento en tareas concretas subió del 74.94% al 85.87%, pero en las abstractas bajó del 54.37% al 52.82%. La diferencia clave radica en cómo humanos y modelos organizan el conocimiento: los humanos clasifican jerárquicamente (p. ej., agrupando "ave" y "animal"), mientras que los modelos dependen de patrones en datos masivos y luchan con categorías abstractas. La solución del equipo no es agregar más parámetros, sino usar señales cerebrales humanas (registros de actividad cerebral al ver imágenes) para transferir estructuras conceptuales humanas a las redes neuronales. En experimentos con 150 categorías conocidas y 50 nuevas, los modelos entrenados así redujeron la brecha con las representaciones cerebrales y mostraron mejoras del ~20.5% en tareas abstractas con pocos ejemplos, superando incluso a modelos más grandes. Este enfoque cambia el paradigma de "más grande es mejor" a "más estructurado es más inte...

Los modelos grandes han seguido creciendo en tamaño, y la opinión predominante sostiene que cuantos más parámetros tenga el modelo, más se acercará a la forma de pensar humana. Sin embargo, un artículo publicado el 1 de abril en Nature Communications por un equipo de la Universidad de Zhejiang presenta una perspectiva diferente (enlace al artículo: https://www.nature.com/articles/s41467-026-71267-5). Descubrieron que cuando la escala del modelo (principalmente SimCLR, CLIP, DINOv2) aumenta, la capacidad de reconocer objetos concretos efectivamente continúa mejorando, pero la capacidad de comprender conceptos abstractos no solo no mejora, sino que incluso puede disminuir. Cuando los parámetros aumentaron de 22.06 millones a 304.37 millones, el rendimiento en tareas de conceptos concretos subió del 74.94% al 85.87%, mientras que en tareas de conceptos abstractos bajó del 54.37% al 52.82%.

La diferencia entre la forma de pensar humana y la de los modelos

Cuando el cerebro humano procesa conceptos, forma primero un conjunto de relaciones de categorización. Un cisne y un búho tienen un aspecto diferente, pero el humano los clasifica dentro de la categoría 'ave'. Subiendo de nivel, aves y caballos pueden seguir agrupándose en la categoría 'animal'. Al ver algo nuevo, los humanos a menudo piensan primero: ¿a qué cosa vista anteriormente se parece y a qué categoría pertenece大概? Los humanos aprenden continuamente nuevos conceptos, luego organizan esa experiencia y utilizan este marco de relaciones para reconocer nuevos objetos y adaptarse a nuevas situaciones.

Los modelos también categorizan, pero la forma en que lo hacen es diferente. Se basan principalmente en patrones que aparecen repetidamente en grandes volúmenes de datos. Cuanto más aparece un objeto concreto, más fácil le resulta al modelo reconocerlo. Sin embargo, cuando se trata de categorías más amplias, el modelo tiene más dificultades. Necesita captar los puntos en común entre múltiples objetos y luego agrupar esos puntos comunes en la misma categoría. Los modelos actuales tienen una debilidad evidente aquí. A medida que los parámetros siguen aumentando, el rendimiento en tareas de conceptos concretos mejora, mientras que el de conceptos abstractos a veces disminuye.

El punto en común entre el cerebro humano y los modelos es que ambos forman internamente un conjunto de relaciones de categorización. Pero sus énfasis son diferentes: las regiones visuales de alto orden del cerebro humano categorizan naturalmente clases amplias como 'seres vivos' y 'objetos inanimados'. Los modelos pueden distinguir objetos concretos, pero les cuesta mucho formar establemente estas categorías más amplias. Esta diferencia hace que al cerebro humano le resulte más fácil aplicar experiencias previas a nuevos objetos, por lo que podemos clasificar rápidamente cosas nunca vistas. Los modelos, en cambio, dependen más del conocimiento existente, por lo que al encontrarse con un nuevo objeto, tienden a quedarse en las características superficiales. El método propuesto en el artículo se desarrolla en torno a esta característica, utilizando señales cerebrales para restringir la estructura interna del modelo y acercarla más a la forma de categorizar del cerebro humano.

La solución del equipo de la Universidad de Zhejiang

La solución que propone el equipo también es singular: no se trata de seguir añadiendo parámetros, sino de utilizar una pequeña cantidad de señales cerebrales como supervisión. Estas señales cerebrales provienen de registros de la actividad cerebral de personas mientras miran imágenes. El artículo original dice: transferir las estructuras conceptuales humanas (human conceptual structures) a las DNNs. Es decir, intentar enseñar al modelo cómo categoriza, cómo generaliza y cómo agrupa conceptos similares el cerebro humano.

El equipo realizó experimentos con 150 categorías de entrenamiento conocidas y 50 categorías de prueba no vistas anteriormente. Los resultados mostraron que, a medida que avanzaba este entrenamiento, la distancia entre el modelo y la representación cerebral se reducía continuamente. Este cambio se produjo en ambas categorías, lo que indica que el modelo no está aprendiendo muestras individuales, sino que realmente comienza a aprender una forma de organizar los conceptos más cercana a la del cerebro humano.

Después de este entrenamiento, el modelo mostró una mayor capacidad de aprendizaje con muy pocas muestras y un mejor rendimiento ante nuevas situaciones. En una tarea donde se le daban muy pocos ejemplos pero se le pedía que distinguiera conceptos abstractos como 'ser vivo' y 'no vivo', el modelo mejoró una media del 20.5%, superando incluso a modelos de control mucho más grandes en número de parámetros. El equipo también realizó 31 pruebas específicas adicionales, donde varios tipos de modelos mostraron una mejora de casi un diez por ciento.

En los últimos años, el camino familiar para la industria de los modelos ha sido el de modelos más grandes. El equipo de la Universidad de Zhejiang ha elegido otra dirección: pasar de 'más grande es mejor' (bigger is better) a 'mejor estructurado es más inteligente' (structured is smarter). La expansión de escala es ciertamente útil, pero principalmente mejora el rendimiento en tareas conocidas. La capacidad de comprensión abstracta y transferencia humana es igualmente crucial para la IA, lo que requiere que en el futuro la estructura de pensamiento de la IA se acerque más a la del cerebro humano. El valor de esta dirección reside en que redirige la atención de la industria desde la mera expansión de escala de vuelta a la propia estructura cognitiva.

Neosoul y el futuro

Esto plantea una posibilidad mayor: la evolución de la IA podría no ocurrir solo en la fase de entrenamiento del modelo. El entrenamiento del modelo puede determinar cómo la IA organiza los conceptos, cómo forma estructuras de juicio de mayor calidad. Luego, una vez en el mundo real, comienza otra capa de evolución para la IA: cómo se registran y verifican las decisiones de los agentes de IA, cómo crecen y evolucionan continuamente en una competencia mutua real, aprendiendo y evolucionando por sí mismos como los humanos. Esto es precisamente lo que Neosoul está haciendo ahora. Neosoul no solo hace que los agentes de IA produzcan respuestas, sino que los coloca en un sistema de predicción continua, verificación, liquidación y selección, optimizándose constantemente en la predicción y los resultados, preservando las mejores estructuras y descartando las peores. Lo que el equipo de la Universidad de Zhejiang y Neosoul señalan conjuntamente es, en realidad, el mismo objetivo: que la IA no solo sepa resolver problemas, sino que tenga una capacidad de pensamiento integral y evolucione continuamente.

Preguntas relacionadas

Q¿Qué descubrió el equipo de investigación de la Universidad de Zhejiang en su estudio publicado en Nature Communications?

ADescubrieron que, al aumentar el tamaño de los modelos (como SimCLR, CLIP, DINOv2), la capacidad de reconocer objetos concretos mejoraba, pero la comprensión de conceptos abstractos no solo no mejoraba, sino que incluso disminuía. Por ejemplo, al aumentar los parámetros de 22.06 millones a 304.37 millones, las tareas de conceptos concretos subieron del 74.94% al 85.87%, mientras que las de conceptos abstractos bajaron del 54.37% al 52.82%.

Q¿Cuál es la principal diferencia entre cómo el cerebro humano y los modelos de IA procesan y clasifican conceptos?

AEl cerebro humano forma una jerarquía de relaciones categóricas, permitiendo clasificar objetos en categorías amplias (como 'aves' o 'animales') y aplicar experiencias previas a nuevos contextos. Los modelos de IA, en cambio, se basan en patrones de datos a gran escala y son buenos para reconocer objetos concretos, pero les cuesta formar categorías abstractas estables y dependen más del conocimiento existente, lo que limita su capacidad de generalización.

Q¿Cómo propone el equipo de la Universidad de Zhejiang mejorar la capacidad de los modelos para entender conceptos abstractos?

APropone utilizar señales cerebrales humanas como supervisión. Estas señales, registradas durante la visualización de imágenes, se utilizan para transferir la estructura conceptual humana a los modelos, enseñándoles a clasificar y organizar conceptos de manera más similar al cerebro humano, en lugar de simplemente aumentar el número de parámetros.

Q¿Qué resultados obtuvo el equipo en sus experimentos después de aplicar su método con señales cerebrales?

ALa distancia entre las representaciones del modelo y las cerebrales se redujo continuamente, y el modelo comenzó a aprender una organización conceptual más cercana a la humana. En tareas con muy pocos ejemplos, el modelo mejoró un 20.5% en promedio en la distinción de conceptos abstractos (como biótico vs. no biótico), superando incluso a modelos con muchos más parámetros.

Q¿Qué visión comparten el equipo de la Universidad de Zhejiang y Neosoul respecto al futuro de la IA?

AAmbos apuntan a que la IA desarrolle una capacidad de pensamiento más completa y evolutiva, similar a la humana. No se trata solo de que la IA resuelva tareas, sino de que pueda optimizarse continuamente en entornos reales a través de la predicción, verificación y competencia, permitiendo que las estructuras más efectivas se mantengan y las menos efectivas se descarten, fomentando así una evolución autónoma.

Lecturas Relacionadas

GensynAI : Que la IA no repita los errores de Internet

En los últimos meses, el auge de la IA ha atraído talento del sector cripto. Muchos proyectos exploran cómo la blockchain puede integrarse en la infraestructura de IA, pero pocos logran un modelo de negocio cerrado. Gensyn se distingue al enfocarse en el núcleo más costoso: el entrenamiento de modelos. Su propuesta es organizar recursos de GPU dispersos globalmente en una red abierta para entrenamiento de IA. Los desarrolladores pueden enviar tareas, los nodos aportan capacidad de cálculo, y la red verifica los resultados y distribuye incentivos. Esto aborda un problema crítico: la creciente centralización del poder de cálculo en grandes tecnológicas, donde el acceso a GPUs como la H100 se ha convertido en una barrera clave para la innovación. Gensyn destaca por cuatro razones: 1. Ataca la capa de infraestructura central de la IA (entrenamiento), no solo aplicaciones. 2. Ofrece un modelo de colaboración abierto que puede optimizar costes y eficiencia para equipos más pequeños. 3. Su principal barrera tecnológica y ventaja es la capacidad de verificar resultados y garantizar fiabilidad en un entorno distribuido. 4. Responde a una demanda real y creciente en un mercado ya validado, más allá de la narrativa cripto. En conclusión, la frontera entre cripto e IA se desdibuja. La IA necesita coordinación de recursos e incentivos para la colaboración global, áreas donde la tecnología blockchain puede aportar soluciones. Gensyn representa un paso hacia una infraestructura de IA más abierta y accesible, no solo controlada por unos pocos gigantes.

marsbitHace 10 hora(s)

GensynAI : Que la IA no repita los errores de Internet

marsbitHace 10 hora(s)

¿Por qué el desarrollo de la IA en China es tan rápido? La respuesta está dentro de sus laboratorios

El artículo explora las razones del rápido desarrollo de la IA en China, centrándose en la cultura organizativa de sus laboratorios. A diferencia del ecosistema estadounidense, que prioriza la innovación disruptiva, el capital y las "estrellas" científicas individuales, el enfoque chino se caracteriza por un pragmatismo basado en la ejecución en equipo, la ingeniería eficiente, la rápida iteración y un fuerte deseo de controlar la pila tecnológica clave. Los laboratorios chinos sobresalen como "seguidores rápidos", optimizando direcciones ya establecidas. Una cultura que valora menos el ego individual y más el trabajo en equipo, combinada con una gran afluencia de jóvenes investigadores y estudiantes integrados en proyectos centrales, facilita una adaptación ágil y un enfoque en tareas prácticas de mejora de modelos. Existe un respeto general dentro del ecosistema, que se percibe más como una comunidad que como tribus en competencia. En el ámbito industrial, se observa una mentalidad de "construir, no comprar", con muchas grandes empresas tecnológicas desarrollando sus propios modelos LLM fundamentales para mantener la soberanía tecnológica. El apoyo gubernamental existe pero es descentralizado. La demanda interna de IA está creciendo, potencialmente similar al mercado de la nube, y los desarrolladores muestran una fuerte admiración por herramientas como Claude. Aunque hay una gran necesidad de chips de Nvidia, también se utilizan alternativas locales como Huawei para inferencia. El ecosistema de datos es menos maduro que en Occidente, lo que fomenta soluciones internas. En conclusión, se están formando dos trayectorias distintas: una carrera impulsada por el capital y el prestigio en EE.UU. frente a una competencia industrial impulsada por la capacidad de ejecución, el ecosistema de código abierto y la autonomía tecnológica en China. El autor destaca la calidez y el enfoque pragmático de los investigadores chinos, subrayando que la competencia futura dependerá no solo de los modelos, sino también de las capacidades organizativas y la fuerza del ecosistema.

marsbitHace 11 hora(s)

¿Por qué el desarrollo de la IA en China es tan rápido? La respuesta está dentro de sus laboratorios

marsbitHace 11 hora(s)

3 años, 5 veces: el renacimiento de una fábrica de vidrio centenaria

Según CRU, la demanda de fibra óptica en centros de datos de IA creció un 75,9% anual, ampliando el déficit de oferta del 6% al 15%. Los precios de la fibra se triplicaron en meses. NVIDIA invirtió en Corning, Lumentum y Coherent (total 45 mil millones USD) para asegurar la cadena de suministro óptica. Corning, fundada en 1851, ve su valor subir un 316,81% en el último año, alcanzando 160 mil millones USD. Su crecimiento se debe a dos factores clave: la rigidez de la oferta (el proceso de fabricación de preformas es complejo y lento) y la transición forzada de cobre a fibra en infraestructuras de IA para mayor eficiencia y menor consumo energético. La fibra es crucial para la IA: su uso en bastidores de IA es 5-10 veces mayor que en centros tradicionales. Se espera que la demanda de fibra para IA represente el 35% del mercado total para 2027. Corning lidera en fibra especializada de baja pérdida, alta densidad y resistencia a la curvatura, esencial para transmisiones de 800G a 1,6T. Sus ingresos en comunicación óptica para empresas se duplicaron en dos años, superando los 30 mil millones USD en 2025, respaldados por acuerdos a largo plazo con Meta, NVIDIA y otros grandes clientes. Aunque no es el mayor fabricante global, Corning destaca en I+D (más de 10 mil millones USD anuales) y en su enfoque en el segmento premium de centros de datos de IA. El aumento de precios beneficia a toda la industria, como muestran los resultados de empresas chinas. El despliegue de Óptica de Co-Embalaje (CPO) y la posible adopción de fibra hueca son variables futuras clave. Sin embargo, la rápida apreciación de las acciones de Corning (multiplicando por 3 su relación P/E) ya refleja grandes expectativas, lo que podría aumentar la volatilidad si los pedidos no cumplen con el ritmo esperado.

marsbitHace 12 hora(s)

3 años, 5 veces: el renacimiento de una fábrica de vidrio centenaria

marsbitHace 12 hora(s)

Trading

Spot
Futuros
活动图片