中新网北京12月15日消息,记者张素报道。在老话说“眼见为实,耳听为虚”的背后,其实藏着一个不小的玄机:你看到的“真实世界”,很可能早就被语言给悄悄左右了。由北京大学联手北京师范大学和山西医科大学第一医院的研究团队给出了这样一个惊人的发现。 这次实验选取了两组AI模型作为样本。一组只学会了看图,另一组既认识图像还能看懂文字。通过对它们内部表征和四组健康人视觉皮层活动的比对,研究者发现了一个有趣的现象:那个同时学了语言的视觉模型,在观察事物时的表现,跟人类大脑的活动模式特别相似,尤其是在处理语言的那个左半球区域。陈昊扬这位北大博士生给大家解释说,“说白了就是受过语言指导的AI,看世界的角度更接近人脑。” 为什么会这样呢?研究人员在论文里指出,由于人类在认知过程中几乎总是把语言和视觉信息混在一起接收,所以过去在心理学和哲学领域的争论很难平息。如今AI的介入就像给了大家一个可控的“数字实验室”。北京大学心理与认知科学学院、人工智能研究院的助理教授朱毅鑫打了个比方,“我们可以在这个实验室里人为决定AI学不学语言,然后看看不同经历到底会不会让‘看世界’的方式变不一样。” 毕彦超和王效春教授两位通讯作者进一步解释道,哪怕是那些不发声的手语经验,只要被大脑处理过,都会在视觉加工的过程中留下系统性的痕迹。“有些人可能认为看到的玫瑰就是‘红’,完全不受外界说法的影响;但有些人则觉得语言才是划定颜色边界的尺子。” 为了验证这种因果关系,团队把目光转向了脑卒中患者的大脑。数据显示,这些病人语言到视觉通路受损越严重,他们大脑的活动模式就越像那个只看图像的“纯视觉模型”。当语言系统崩坏时,语言对视觉的调节作用也随即消失。这种单向的功能联系揭示了一个重要规律。 朱毅鑫认为,这项研究不仅仅是让AI帮我们理解大脑那么简单。“大脑反过来也在为未来AI的发展指明方向。”他说真正的智能可能不需要只是单纯并列处理多种信息模态,“而是需要像人脑一样,让语言去统筹感知、记忆和推理。” 毕彦超和王效春总结道,“我们用AI模型来理解大脑,脑卒中患者的脑活动又反过来验证了模型的机制——这让AI和脑科学真正闭合成了一个实验循环。”多学科交叉的重要性在这次研究中得到了充分体现。“AI会越来越多地辅助脑科学研究,”他们强调,“帮助我们探索大脑的奥秘,帮助更多病人。”