研究显示多模态大模型可自发形成类人的物体概念表征

时间:2025-06-09 19:15:00 浏览:0

来源:央视新闻客户端

记者今天(9日)从中国科学院自动化研究所获悉,该研究所神经计算与脑机交互课题组与中国科学院脑科学与智能技术卓越创新中心联合团队结合行为实验与神经影像分析,首次证实多模态大语言模型(MLLMs)能够自发形成与人类高度相似的物体概念表征系统。这项研究不仅为人工智能认知科学开辟了新路径,更为构建类人认知结构的人工智能系统提供了理论框架。相关研究成果北京时间6月9日在国际学术期刊《自然· 机器智能》(Nature Machine Intelligence)发表。

人类能够对自然界中的物体进行概念化,这一认知能力长期以来被视为人类智能的核心。当我们看到狗、汽车或苹果时,不仅能识别它们的物理特征(尺寸、颜色、形状等),还能理解其功能、情感价值和文化意义,这种多维度的概念表征构成了人类认知的基石。随着ChatGPT等大语言模型(LLMs)的发展,一个根本性问题浮出水面:这些大模型能否从语言和多模态数据中发展出类似人类的物体概念表征?

传统人工智能研究聚焦于物体识别准确率,却很少探讨模型是否真正“理解”物体含义。该科研团队从认知神经科学经典理论出发,设计了一套融合计算建模、行为实验与脑科学的创新范式。研究采用认知心理学经典的“三选一异类识别任务”,要求大模型与人类从物体概念三元组(来自1854种日常概念的任意组合)中选出最不相似的选项。通过分析470万次行为判断数据,团队首次构建了AI大模型的“概念地图”。

研究人员从海量大模型行为数据中提取出66个“心智维度”,并为这些维度赋予了语义标签。研究发现,这些维度是高度可解释的,且与大脑类别选择区域的神经活动模式显著相关。

研究还对比了多个模型在行为选择模式上与人类的一致性。结果显示,多模态大模型在一致性方面表现更优。此外,研究还揭示了人类在做决策时更倾向于结合视觉特征和语义信息进行判断,而大模型则倾向于依赖语义标签和抽象概念。本研究表明大语言模型内部存在着类似人类对现实世界概念的理解。

(总台央视记者 帅俊全 褚尔嘉)

更多精彩资讯请在应用市场下载“央广网”客户端。欢迎提供新闻线索,24小时报料热线400-800-0088;消费者也可通过央广网“啄木鸟消费者投诉平台”线上投诉。版权声明:本文章版权归属央广网所有,未经授权不得转载。转载请联系:cnrbanquan@cnr.cn,不尊重原创的行为我们将追究责任。