浙大研究团队提出新路径:把人脑理解世界的方式教给 AI

marsbit發佈於 2026-04-05更新於 2026-04-05

文章摘要

浙大研究团队在《Nature Communications》发表论文提出,当前大模型虽随参数增加能提升具体事物识别能力,但抽象概念理解能力反而下降。实验显示,参数从2206万增至3.0437亿后,具体概念任务准确率从74.94%升至85.87%,而抽象概念任务从54.37%降至52.82%。 研究指出,人脑通过分层分类结构处理概念(如将天鹅和猫头鹰归类为“鸟”),并能灵活迁移知识至新场景,而模型依赖数据统计特征,难以形成稳定抽象分类。团队创新性地采用人脑观看图片时的脑信号作为监督信号,将人脑的概念组织结构迁移至深度学习模型(如SimCLR、CLIP)。经训练后,模型与脑表征距离缩小,在少样本学习和抽象任务(如区分生物与非生物)中表现提升超20.5%,甚至优于参数量更大的对照组。 该研究突破了“规模至上”的范式,转向“结构优化”路径,强调让AI模仿人脑的认知结构以实现真正的抽象思维与迁移能力。这一方向与AI智能体(如Neosoul)的持续进化机制相契合,共同推动AI从“机械答题”向“自主思考+进化”迈进。

大模型一直在变大,主流观点认为模型参数越多,就会越接近人类思考的方式。然而浙大团队4月1日在Nature Communications上发表的一篇论文则提出了不同的观点(原文链接:https://www.nature.com/articles/s41467-026-71267-5)。他们发现当模型(主要为SimCLR、CLIP、DINOv2)规模变大后,识别具体事物的能力确实会继续提高,但理解抽象概念的能力不仅没有提高,甚至会有所下降。当参数从 2206 万增加到 3.0437 亿后,具体概念任务从 74.94% 升到 85.87%,抽象概念任务从 54.37% 降到 52.82%。

人类和模型思考方式的区别

人脑处理概念时,会先形成一套分类关系。天鹅和猫头鹰长得不一样,人还是会把它们放进鸟这一类。再往上,鸟和马还能继续放进动物这一层。人看到新东西时,常常会先想,它和以前见过的什么东西像,大概属于哪一类。人会持续学习新概念,再把经验组织起来,用这套关系去识别新事物、适应新情境。

模型也会分类,但形成方式不同。它主要靠大规模数据里反复出现的形式。具体对象出现得越多,模型越容易把它认出来。到了更大的类别这一步,模型就比较吃力了。它需要抓住多个对象之间的共同点,再把这些共同点归到同一类里。现有模型在这里还有明显短板。参数继续增大后,具体概念任务会提升,而抽象概念任务有时还会下降。

人脑和模型的共同点,是内部都会形成一套分类关系。但是双方侧重点不同,人脑的高阶视觉区域会自然分出生物和非生物这类大类。而模型能把具体对象分开,但很难去稳定形成这种更大的分类。这个差别导致人脑更容易把旧经验用到新对象上,所以面对没见过的东西时,我们能快速分类。而模型则更依赖现有知识,所以遇到新对象时,更容易停在表面特征上。论文提出的方法,就是围绕这个特点展开,用脑信号去约束模型内部结构,让它更接近人脑的分类方式。

浙大团队的解决方案

团队给出的解决方案也很独特,并不是继续堆参数,而是拿少量脑信号做监督。这里的脑信号,来自人看图片时的大脑活动记录。论文原文写的是,把 human conceptual structures transfer 给 DNNs。意思就是把人脑怎么分类、怎么归纳、怎么把相近概念放在一起,尽量教给模型。

团队用 150 个已知的训练类别和 50 个没见过的测试类别做实验。结果显示,随着这套训练推进,模型和脑表征之间的距离持续缩小。这个变化同时出现在两个类别中,这说明模型学到的不是单个样本,而是真正开始学习一种更接近人脑的概念组织方式。

经过这套训练后,模型在样本很少时的学习能力更强,面对新情况时表现也更好了。在一个只给极少示例、却要求模型区分生物和非生物这类抽象概念的任务里,模型平均提升了 20.5%,还超过了参数量大得多的对照模型。团队还另外做了 31 组专门测试,几类模型都出现了接近一成的提升。

过去几年,模型行业熟悉的路径是更大的模型规模。浙大团队则选择了另一个方向,从bigger is better 走向 structured is smarter。规模扩张确实很有用,但主要提高的是熟悉任务里的表现。人类那种抽象理解和迁移能力对AI来说同样至关重要,这需要在未来让AI的思考结构更加接近人脑。这个方向的价值,在于它把行业注意力从单纯的规模扩张,重新拉回到认知结构本身。

Neosoul与未来

这引出了一个更大的可能性,AI 的进化,未必只发生在模型训练阶段。模型训练可以决定AI怎样组织概念,怎样形成更高质量的判断结构。再进入真实世界之后,AI的另一层进化才刚开始:AI agent 的判断如何被记录,如何被检验,如何在真实的互相竞争中不断成长进化,如同人类般自我学习自我进化。这也正是Neosoul现在所做的。Neosoul不只是让AI agent 产出答案,而是把AI agent 放进一个持续预测、持续验证、持续结算、持续筛选的系统里,让其不断在预测与结果中优化自身,让更好的结构被保留,让更差的结构被淘汰。浙大团队与Neosoul共同指向的,其实是同一个目标:让 AI 不再只会做题,更是要具备全面的思考能力,不断进化。

相關問答

Q浙大研究团队在Nature Communications上发表的研究主要发现了什么现象?

A研究发现当模型规模变大后,识别具体事物的能力会提高,但理解抽象概念的能力不仅没有提高,甚至会下降。例如参数从2206万增加到3.0437亿后,具体概念任务准确率从74.94%升至85.87%,而抽象概念任务从54.37%降至52.82%。

Q人脑和AI模型处理概念的主要区别是什么?

A人脑会自然形成分层分类关系(如将天鹅和猫头鹰归类为鸟,鸟和马归类为动物),并能够将旧经验迁移到新对象上。而模型主要依赖数据中的统计规律,擅长识别具体对象但难以稳定形成抽象大类,面对新对象时更容易停留在表面特征。

Q浙大团队提出的解决方案是什么?

A团队采用脑信号监督的方法,将人脑处理概念时的分类、归纳和组织方式教给模型。具体通过人观看图片时的大脑活动记录作为监督信号,让模型学习更接近人脑的概念表征结构。

Q使用脑信号训练后模型有哪些性能提升?

A模型与脑表征距离缩小,在少样本学习能力和新情境适应性上显著提升。在区分生物与非生物的抽象任务中准确率平均提高20.5%,甚至超过参数量更大的对照模型,其他测试中也出现近一成的提升。

Q研究对AI发展的核心启示是什么?

A研究指出AI进化不应仅依赖参数规模扩张(bigger is better),而应关注认知结构优化(structured is smarter)。未来需要让AI的思考结构更接近人脑,具备抽象理解和迁移能力,并通过持续验证与筛选机制实现自我进化。

你可能也喜歡

交易

現貨
合約
活动图片