北大团队发现语言或改变人类“看世界”方式

中新网北京12月15日讯 记者张素 北京大学团队发布了一项重要发现:语言可能改变人们“看世界”的方式。这个成果来自于北京大学心理与认知科学学院和人工智能研究院联合北京师范大学、山西医科大学第一医院的研究团队。他们发现,语言不仅影响思维,还在不知不觉中改变着人们的感知方式。 这次研究成果发表在北京时间12月15日的国际期刊《自然·人类行为》上。北京大学团队负责人毕彦超教授表示,“眼见为实”这个老说法其实并不准确。他指出,你所看到的现实其实受到语言的暗示和调节。 以往的研究中,人们对语言是否会影响感知一直有争议,因为很难把语言与视觉经验区分开来。但人工智能(AI)的出现给解决这个问题提供了新的机会。朱毅鑫助理教授解释道,“AI模型就像一个可控的数字实验室。”他说,“我们可以人为决定AI模型是否学习语言,然后观察它们不同的学习经历会不会导致它们‘看世界’方式上的差异。” 研究团队比较了两类AI模型:一类只学习图像,另一类同时学习图像和文字。然后他们把这两类模型的内部表征和四组健康人群大脑视觉皮层的活动模式进行对比。结果显示,“视觉—语言模型”的活动模式更接近人脑视觉皮层。 陈昊扬博士是该论文的共同第一作者,他解释道:“被语言‘指导’过的AI视觉模型,‘看世界’的方式更接近人脑。”张素进一步解释说,“我们把这个结果告诉了山西医科大学第一医院的王效春教授,他给我们提供了脑卒中患者的数据支持。”王效春教授强调多学科交叉的重要性,“脑卒中患者的大脑活动反过来验证了我们提出的机制。” 朱毅鑫还提到了一个有趣的现象:“当语言—视觉通路受损时,患者的大脑活动就像‘纯视觉模型’一样。”这说明语言对视觉的调节作用非常重要。“这个发现提示语言与视觉之间存在着功能联系。”王效春也赞同这个观点,“它证明了大脑和AI之间形成了一个实验循环。” 毕彦超教授强调这次研究的意义在于用AI来理解大脑,“真正的智能可能需要像人脑一样统筹感知、记忆和推理。”朱毅鑫最后总结说,“通过AI模型我们理解大脑,脑卒中患者又反过来验证了模型机制。”这一研究为未来AI的发展提供了方向。