剑桥团队搞出了个大新闻,他们给ai的能耗问题找到了一个很牛的解决办法

最近英国剑桥大学的一帮科研人员搞出了个大新闻,他们在《科学进展》上发文说,他们给AI的能耗问题找到了一个很牛的解决办法。传统的AI设备大多是用冯·诺依曼架构搞出来的,这种架构最大的问题就是存储单元和计算单元隔得太远,数据老是要跑来跑去搬运,光这一项就把电力消耗给搞高了。要是这么算下来,全球对算力和能源的需求可就直线上升了。大家都知道,大脑可不一样,它干活儿都是在同一个地方把存储和处理一起干了。这就好比一个人脑子转得快还省电。受大脑启发搞出来的“类脑计算”就是这样,理论上能把能耗降低大约70%。这次剑桥团队搞出来的“类脑忆阻器”特别厉害,他们用了一种叫氧化铪的材料做了一个纳米电子器件。这个东西模拟人脑神经元的连接方式,能在极低电流下工作,而且状态切换也特别稳当。咱们平时用的忆阻器大多是靠金属氧化物里面弄出一根细细的导线来导电的,但这种导线有时候容易出岔子,还得用高电压去控制它。这次他们换了个思路,在铪基薄膜里掺点锶和钛,然后用两步工艺弄出了一种微小的p-n结界面结构。这个结构特别神奇,能靠调节界面处的能量高度来让电阻连续变化,根本不需要那根脆弱的导线断裂来切换状态。 经过测试发现这个器件的开关电流非常低,只有部分传统忆阻器的百万分之一,还能分出好几百种不同的电导状态。这可是实现“存内计算”的关键一步。更厉害的是它能扛得住上万次开关折腾,信息状态还能保持一天左右。研究还发现这个东西能模拟神经元之间的一些基本学习规则,比如连接强度会随着信号时间的变化而改变。虽然现在做这个东西需要700℃的高温来制备,比现在的标准半导体工艺高不少,但这已经是很大的进步了。以后要是能把温度降下来做到芯片集成上,这种器件肯定会变成新一代低功耗AI硬件的重要基础技术。