2015年6月,北京清华大学的科研团队给下一代类脑芯片(ANN与SNN异构融合),在IEDM2015做了特邀报告,这便是第一代天机芯。到了2019年8月1日,这一领域有了重大突破,《自然》杂志封面文章报道了第二代天机芯,它的密度提升了20%,速度提升≥10倍,带宽提升≥100倍。张悠慧带着清华大学计算机系的团队接棒这项工作,把这个方向推向了一个新高度。2020年开始,第三代天机芯启动,目标是进一步缩小功耗、提升扩展性。而灵汐科技作为清华类脑计算中心孵化的企业,已经把多款类脑芯片和异构编译平台给带到了产业前沿阵地。 为了验证这套系统到底行不行,研究团队构建了一条工具链,兼容通用GPU、天机类脑芯片还有阻变存储神经形态芯片的仿真。他们用这三套设备跑通了智能自行车、鸟群模拟和QR分解这三组应用。结果显示,这个新系统比传统架构的性能提升了2到3倍,功耗还能下降30%到50%。 这一突破背后有一个理论基础,就是“类脑计算完备性”。通俗讲就是它回答了系统到底能干啥、边界在哪的问题,为软硬件分工提供了理论锚点。研究团队设计了一个三层结构:上面是支持任意编程语言的软件模型;中间是提供神经形态原语的硬件体系;下面是编译层,它能把高级语言程序自动转换成硬件原语序列。通过这种结构,系统引入了近似粒度这个新优化维度。 为了让大家更好地理解为什么要重新定义“完备性”,团队拿通用计算作对比。大家都知道通用计算靠图灵完备性和冯·诺依曼体系,软硬件是解耦的。但类脑计算虽然芯片和算法很多,却一直缺少这两块基石。新成果用理论和实验证明,只要硬件满足“类脑计算完备性”,编译层就能高效地把任意图灵可计算函数映射到硬件上。 10月14日这天,《自然》杂志在线发表了张悠慧团队的长文《一种类脑计算系统层次结构》。这是清华大学计算机系以第一完成单位/通讯单位在《自然》正刊发表的首篇类脑计算论文。它标志着清华在短短一年内完成了类脑计算领域《自然》正刊“三连发”的壮举。审稿人评价说这是一个新颖观点,可能会被证明是神经形态计算领域的重大发展。计算机体系结构专家金海教授也指出,这项研究做出了基础性、原创性贡献。 接下来的计划是继续深耕计算机科学加神经科学的双轮驱动路线。利用新型非易失性存储器件的时空复杂性发展全新智能计算体系。面对未来十年的计算架构黄金期,清华打算在现有冯·诺依曼结构上“植入”类脑模块。这样既保留处理结构化信息的优势,又能借助神经形态引擎提升非结构化信息的效率。这个思路就是为人工通用智能提供中国方案。