有美媒说,《黑客帝国》里那种全是电的脑子世界,没准马上就要来了。美国的“每日科技”网站在3月23日发了篇文章,标题说微型类脑设备可能会解决人工智能最大的电耗问题。以前那种纯科幻的想法,现在正往现实里头钻。剑桥大学最近弄出个东西,能模仿人脑的物理特性,直接给AI省下70%的电,目的是想拦住那些大数据中心狂吞电的情况,别让系统突然崩掉。AI长得太快了,以前的计算机系统根本管不住。现在的数据中心天天在烧钱,主要是因为现在芯片设计有个根本性的大毛病。这下好了,一种新的生物学需求就冒出来了,大家开始琢磨怎么搞出像人和动物那样神经计算的新技术。 剑桥的研究团队这次算是捅破了这层窗户纸,还把成果发在了美国的《科学进展》期刊上。带头的那个研究员叫巴博克·巴希特,他带着团队弄了个基于氧化铪的新型忆阻器。这东西让信息在一个物理介质上就能存下来还能处理好,直接把AI的能耗压到了70%以下。这研究其实是看人脑干活的启发。人脑子里的神经元和突触挺厉害,只要一点电就能同时存东西和处理东西,效率高得吓人。 咱们现在的电脑为啥那么费电?主要是数据传输的方式太绕了。以前的电脑芯片里,信息非得在处理器和内存盘之间跑来跑去才行。这来回折腾既费时又费电,这也是数据中心费电的主要原因。剑桥这次搞出来的“类脑”设备不一样了,它能记住自己流过的电荷量。 研究团队还引入了一种新的机制,让数据流动得更稳更准,比普通电脑高几百万倍的精度呢,而且只要一丁点电流就行。通过施加电脉冲这设备能慢慢调节自己的导电率,不用像传统电脑那样死磕二进制系统。实验结果显示这个设备真能让硬件设施像人脑神经一样“真的学会东西”。 虽然这新技术现在还进不了市场搞商业变现,但它给未来10年的计算系统铺好了路。这次突破还打开了新一代信息处理设备设计的新思路。以后从智能传感器到自动驾驶这些东西估计都能把电省得更多更多。