这个技术的原型是在1969年,那个时候有个叫克莱尔•切斯金的美国人,因为眼睛受伤只能看个模糊,走路全靠摸索。她只能勉强看到眼前的一些大东西,看人脸只能看出轮廓,看不清表情,看远处的大楼更是一团黑。现在情况变了,她的世界变得明亮起来,这要归功于一种很神奇的仪器。这个仪器其实就是一个小型摄像机,给它装在头上就能把眼前的景象变成声音,就像有一双“第三只眼”一样。 其实,用其他感官来弥补视力不足这个想法很早就有了。只要把看到的信息转换成其他感官能接收的信号就行。比如有位神经学家就设计了一个装置,让盲人坐在椅子上就能“摸到”周围的世界。他在椅子上装了个电视摄像机来记录图像,然后根据画面的不同变化,给椅背施加不同频率的震动。虽然震动的感觉有点粗糙,但它确实能通过线条变化帮盲人建立起身体感知与环境的联系。后来科学家们又改进了这个设备,把图片信号变成电脉冲传到舌头里。经过训练后,这种脉冲能让人产生深度感觉,仿佛真的打开了天眼。 触觉毕竟没那么灵敏,从上世纪90年代开始,大家开始把注意力转向听觉。新的设备有一副带摄像头的太阳镜和一副耳机,眼镜还能无线连接电脑。工作时摄像头左右扫描景物,软件把图像变成声景后通过耳机播放。左边右边的物体声音分别传到左右耳里。使用者能靠声音的大小和频率来判断物体的类型和位置。一开始他们可能听不懂这些声音代表什么,但练熟之后大部分人都能通过它来“看”东西了。 有个来自纽约的盲人志愿者甚至能通过声景判断物品的厚度和结构。这就引出一个问题:他们真的是看到了吗?大脑是怎么做到的?以前大家都认为大脑是把不同感官的信息整合在一起的。但这种解释没法解释为什么光靠听到的信息也能产生视觉感受。 最近有科学家提出了一个新观点:感觉可能不是大脑整合出来的,而是由信息传递的方式决定的。只要获得的信息符合透视的规律就能产生“看”的感觉。仪器帮我们获得了这种符合规律的信息,我们自然就“看到”了。如果这种说法正确,那我们就得重新考虑大脑处理信息的方式了。 以前我们觉得大脑是分区处理的,枕叶处理视觉、颞叶处理听觉、顶叶处理触觉。但新的理论认为大脑处理的是某种类型的信息,比如形状或结构,跟信息来自哪里无关。当使用耳朵作为“第三只眼”时,枕叶会不会被激活呢? 实验发现经常使用仪器的老手在“看到”东西时枕叶就活跃起来了。但如果他们只是听到一串钥匙的哗啦声(没有解码声景),枕叶就没反应。这说明处理视觉信息时不管是眼睛还是耳朵传来的信号都能激活枕叶。 为了进一步验证这一点,科学家们给使用者做了颅磁刺激实验。磁场干扰了枕叶区域后,原本清晰的声景世界变得模糊了。这说明这个区域在解码声景时非常重要。 那么大脑是怎么适应新的信息来源的呢?磁共振显示刚开始听觉皮层很活跃,但随着练习时间增加初级视皮层和枕叶皮层也开始工作了。这时使用者就能比较熟练地使用“第三只眼”了。大脑利用已有的连接进行了快速过渡,并且可能还能建立新的视觉联系。