人工智能系统是否能够像人类一样理解和组织概念,一直是学术界关注的前沿问题。
复旦大学智能复杂体系基础理论与关键技术实验室、现代语言学研究院与计算与智能创新学院的研究团队通过系统的实验和分析,给出了肯定的答案。
问题的提出源于对大语言模型本质的深层思考。
当前广泛应用的大语言模型主要通过预测序列中的下一个词汇进行训练,这种看似简单的学习机制是否能够产生复杂的、结构化的概念认知,一直缺乏有力的科学证据。
这个问题的解答对于理解人工智能的学习规律和认知机制至关重要。
为了探究这一问题,研究团队采取了创新的实验设计方法。
他们将经典的"反向词典"任务重新构建为概念探针工具,结合表征相似性分析等先进的计算方法,系统地观察大语言模型在不同语言环境下如何构建和组织概念。
这种多维度、多层次的分析方法使得研究人员能够深入捕捉模型内部的认知过程。
研究发现具有重要的科学意义。
团队开发的模型能够根据自然语言描述灵活推导出相应的概念,并且这些概念的表征逐步收敛于一种共享的、不依赖于特定语言场景的关系结构。
这种结构化的表征不仅在模型自身的各项理解和推理任务中表现出良好的预测能力,更为关键的是,它与人类心理学实验数据、脑神经影像数据呈现出高度的一致性。
具体而言,模型生成的概念表征与SimLex-999、THINGS等经典人类心理行为数据库的结果相关性显著,与人脑视觉皮层等关键脑区的神经活动模式也表现出明显的对应关系。
这一发现的深层含义在于揭示了一种普遍的认知规律。
它表明,结构化的、具有类人特征的概念表征可以单纯通过语言预测这一基础机制自然涌现,而无需在模型设计中显式地编入人类认知的规则或约束。
这打破了人们对于人工智能与人类认知之间差异的某些既有认识,提示两者在更深层的信息处理逻辑上可能存在内在的统一性。
从学科发展的角度看,这项研究为多个重要方向奠定了基础。
在人工智能领域,它为开发更加可靠、可解释、与人类智能深度对齐的系统提供了理论支撑。
在认知科学领域,它为理解人类概念形成的本质机制打开了新的观察窗口,特别是通过计算模型来验证认知假设的方法论价值得到了验证。
在神经科学领域,模型与脑活动的对应关系为理解大脑信息处理的基本原理提供了计算参考。
当机器开始以接近人类的方式组织知识体系,我们不仅见证了人工智能技术的飞跃,更获得了一面审视自身认知本质的镜子。
这项研究揭示的智能共性规律,或将重新定义人机关系的内涵,推动人类社会向更高级的智能协作形态迈进。
在探索智能本质的道路上,中国科学家正以原创性贡献书写着属于自己的篇章。