脑中风病人有帮助,也深刻揭示了人类文明为什么离不开语言和感知

关于人脑怎么把看到的东西变成有用的知识,当图片跟文字说的不一样的时候脑子到底怎么运转,这两个问题最近有了新发现。这个发现是由北京大学心理、认知科学学院毕彦超教授和山西医科大学医学影像科王效春教授共同带领的团队搞出来的。他们用核磁共振扫描和电脑模型验证了一下,发现语言在把视觉知识存起来和拿出来的时候特别关键。这个研究结果发在了国际顶级学术杂志上。 以前大家都以为看东西主要靠眼睛到脑子里面的那根神经线。但是这个研究发现有些病人虽然看东西的那部分脑子好好的,但是连接前面那部分的纤维断了,这时候他们虽然能叫出水果的名字和说出颜色分类,可就是没办法把这两样东西连在一起用。比如说看到黑白香蕉的时候,他们就不知道这玩意儿到底是什么颜色。这说明物体的属性这些抽象知识其实都存在前面那个区域里,要想把这些信息跟视觉信息对上号,还得靠神经纤维连通着呢。 为了弄清楚知识到底是怎么来的,团队还特地找来天生看不见的人和看得见的人做对比。结果发现虽然瞎子看不见东西,但是他们回答苹果或者香蕉是什么颜色这种问题的时候,前颞叶的激活模式跟视力正常的人特别像。这就说明即使没有直接的视觉体验,人类也能靠说话来搞懂颜色是怎么回事。 团队里的陈昊扬提到,语言不光是用来聊天的工具,更是构建知识模型的重要帮手。视力正常的人实际上有两套系统:一套是靠着真实感受的具身经验,另一套是用语言拼凑起来的抽象知识体系。 他们还在电脑里搞了个模型来模拟人脑处理多种信息的过程。结果显示,如果语言模块和视觉模块的联系变弱了,系统理解画面的能力就会明显下降。这从计算机的角度证明了语言对实时看到的东西可能还有在线调节的作用。 这项研究最重要的贡献是打破了以前那种把大脑当成一个个模块的看法,提出了一个叫“动态知识网络”的假说。人脑的知识不是单独锁在某个角落里的,而是通过网络整合在一起的。前面的颞叶区域就是个高级信息中转站,它通过神经纤维和各种感觉区域互相聊天。而语言就在这个网络里负责把信息编码好并且帮忙检索出来。 这个发现不光对治疗脑中风病人有帮助,也深刻揭示了人类文明为什么离不开语言和感知这两个方面的共生关系。现在的人工智能发展那么快,把人脑多模态融合的机制研究清楚了,肯定能给以后设计类脑电脑和通用人工智能提供不少灵感。就像研究者说的那样:“我们通过语言看到的世界,可能比眼睛看到的还要深远。” 以后团队还要接着研究文化不一样、说话的方式不同这些因素是怎么影响大脑神经网络的发展的,推动脑科学和人工智能更深的结合。