1. 首页
  2. 7x24H 快讯

浙大研究团队提出新路径:把人脑理解世界的方式教给 AI

OKX欧易app

OKX欧易app

欧易交易所app是全球排名第一的虚拟货币交易所,注册领取6万元盲盒礼包!

APP下载   官网注册

大模型一直在变大,主流观点认为模型参数越多,就会越接近人类思考的方式。然而浙大团队4月1日在Nature Communications上发表的一篇论文则提出了不同的观点(原文链接:https://www.nature.com/articles/s41467-026-71267-5)。他们发现当模型(主要为SimCLR、CLIP、DINOv2)规模变大后,识别具体事物的能力确实会继续提高,但理解抽象概念的能力不仅没有提高,甚至会有所下降。当参数从 2206 万增加到 3.0437 亿后,具体概念任务从 74.94% 升到 85.87%,抽象概念任务从 54.37% 降到 52.82%。

人类和模型思考方式的区别

人脑处理概念时,会先形成一套分类关系。天鹅和猫头鹰长得不一样,人还是会把它们放进鸟这一类。再往上,鸟和马还能继续放进动物这一层。人看到新东西时,常常会先想,它和以前见过的什么东西像,大概属于哪一类。人会持续学习新概念,再把经验组织起来,用这套关系去识别新事物、适应新情境。

Nature Communications

模型也会分类,但形成方式不同。它主要靠大规模数据里反复出现的形式。具体对象出现得越多,模型越容易把它认出来。到了更大的类别这一步,模型就比较吃力了。它需要抓住多个对象之间的共同点,再把这些共同点归到同一类里。现有模型在这里还有明显短板。参数继续增大后,具体概念任务会提升,而抽象概念任务有时还会下降。

Nature Communications

人脑和模型的共同点,是内部都会形成一套分类关系。但是双方侧重点不同,人脑的高阶视觉区域会自然分出生物和非生物这类大类。而模型能把具体对象分开,但很难去稳定形成这种更大的分类。这个差别导致人脑更容易把旧经验用到新对象上,所以面对没见过的东西时,我们能快速分类。而模型则更依赖现有知识,所以遇到新对象时,更容易停在表面特征上。论文提出的方法,就是围绕这个特点展开,用脑信号去约束模型内部结构,让它更接近人脑的分类方式。

浙大团队的解决方案

团队给出的解决方案也很独特,并不是继续堆参数,而是拿少量脑信号做监督。这里的脑信号,来自人看图片时的大脑活动记录。论文原文写的是,把 human conceptual structures transfer 给 DNNs。意思就是把人脑怎么分类、怎么归纳、怎么把相近概念放在一起,尽量教给模型。

Nature Communications

团队用 150 个已知的训练类别和 50 个没见过的测试类别做实验。结果显示,随着这套训练推进,模型和脑表征之间的距离持续缩小。这个变化同时出现在两个类别中,这说明模型学到的不是单个样本,而是真正开始学习一种更接近人脑的概念组织方式。

经过这套训练后,模型在样本很少时的学习能力更强,面对新情况时表现也更好了。在一个只给极少示例、却要求模型区分生物和非生物这类抽象概念的任务里,模型平均提升了 20.5%,还超过了参数量大得多的对照模型。团队还另外做了 31 组专门测试,几类模型都出现了接近一成的提升。

过去几年,模型行业熟悉的路径是更大的模型规模。浙大团队则选择了另一个方向,从bigger is better 走向 structured is smarter。规模扩张确实很有用,但主要提高的是熟悉任务里的表现。人类那种抽象理解和迁移能力对AI来说同样至关重要,这需要在未来让AI的思考结构更加接近人脑。这个方向的价值,在于它把行业注意力从单纯的规模扩张,重新拉回到认知结构本身。

Neosoul与未来

这引出了一个更大的可能性,AI 的进化,未必只发生在模型训练阶段。模型训练可以决定AI怎样组织概念,怎样形成更高质量的判断结构。再进入真实世界之后,AI的另一层进化才刚开始:AI agent 的判断如何被记录,如何被检验,如何在真实的互相竞争中不断成长进化,如同人类般自我学习自我进化。这也正是Neosoul现在所做的。Neosoul不只是让AI agent 产出答案,而是把AI agent 放进一个持续预测、持续验证、持续结算、持续筛选的系统里,让其不断在预测与结果中优化自身,让更好的结构被保留,让更差的结构被淘汰。浙大团队与Neosoul共同指向的,其实是同一个目标:让 AI 不再只会做题,更是要具备全面的思考能力,不断进化。

<
OKX欧易app

OKX欧易app

欧易交易所app是全球排名第一的虚拟货币交易所,注册领取6万元盲盒礼包!

APP下载   官网注册
相关文章