新京报讯 6月9日,记者从中国科学院自动化研究所获悉,科研人员结合行为实验与神经影像分析,首次证实多模态大语言模型(MLLMs)能自发形成与人类高度相似的物体概念表征系统,相关成果发表于《自然·机器智能》。人类能对物体进行概念化,这是人类智能的核心。随着大语言模型发展,其能否发展出类似人类的物体概念表征成为根本性问题。此次联合团队首次证实了MLLMs的这一能力,为人工智能认知科学开辟新路径,提供理论框架。
论文通讯作者何晖光称,传统AI研究鲜少探讨模型是否真正“理解”物体含义。团队构建了AI大模型的“概念地图”,提取出66个“心智维度”,研究发现这些维度高度可解释,且与大脑神经活动模式显著相关,大语言模型内部存在类似人类对现实世界概念的理解。