“眼见为实”老观念带来了冲击

12月15日,中新网从北京发回报道。在这个时间点,北京大学心理与认知科学学院的毕彦超教授,还有同校的朱毅鑫老师和山西医科大学第一医院的王效春教授联合研究的新成果,给“眼见为实”这个老观念带来了不小的冲击。他们跟北京大学还有北京师范大学、山西医科大学第一医院合作,利用人工智能(AI)技术,终于把那个“语言会不会改变感知”的哲学难题给解开了。这项研究登上了《自然·人类行为》这本国际期刊。 之前因为语言和视觉总是一块儿出现,人们很难在实验室里把它们分开研究。朱毅鑫老师提到,AI就像是一个可以被控制的数字实验室。他们决定了模型到底要不要学语言,然后观察这就影响了模型“看世界”的方式。 陈昊扬同学是这个论文的共同第一作者。他们给AI模型分了两类:一类是只看图像的“纯视觉模型”,另一类则是同时看图像和读文字的“视觉—语言模型”。把这两类模型的内部表征和人脑视觉皮层在四组健康人身上的活动模式拿来一比,发现“视觉—语言模型”更像是人脑的左半球,这也是语言加工的主要区域。 这就好比给AI套上了语言指导的外衣。毕彦超教授解释说,不管是说话还是手语,只要有语言经验,视觉加工就会留下印记。这种印记就体现在模型和人脑的相似上。不过这还不足以证明语言就是原因,他们把目光投向了脑卒中患者这群特殊的人。 结果很有意思:患者语言—视觉通路受损越厉害,大脑视觉区活动就越像纯视觉模型。王效春教授和毕彦超教授强调多学科交叉很重要。当通路坏了,语言对视觉的调节作用也就没了。这说明大脑中语言和视觉的关系是有方向的。 朱毅鑫老师表示,这项研究不仅让AI帮助我们理解大脑,反过来大脑也给AI的发展指了路。真正的智能可能需要像人脑一样用语言来统筹感知、记忆和推理。这让AI和脑科学形成了一个闭环实验循环,成了新的研究范式。 张素是这次新闻的记者。通过这种方法,“我们用AI模型理解大脑”,再用脑卒中患者的脑活动来验证机制——这就让研究闭合起来了。王效春教授相信以后AI会更多地辅助脑科学研究,帮助更多病人探索大脑的奥秘。(完)