在人工智能飞速发展的今天,大模型对于更高算力的无限追求,对现今以冯诺依曼架构为基础的计算机不断提出挑战,寻找能够替代这种传统架构的新型高效计算机形式是业界长期以来的追求。
最近,上海科技大学的研究团队构建了首例全光深度储备池计算机,成功地解决了储备池光计算机的深度架构问题,相关成果以“Deep photonic reservoir computing recurrent network”为题发表在国际知名期刊Optica上。
储备池计算(Reservoir Computing)是2000年提出的概念,是一种低训练代价、低硬件开销的循环神经网络(RNN),在时序信息处理方面具有广泛的应用,例如波形分类、语音识别、时间序列预测等。虽然其训练成本很低且能效高、时延低,但是对于基于深度神经网络训练的大模型来说并不太实用,因为深度神经网络通常需要通过多个隐藏层来处理信息,而目前大部分硬件储备池计算机仅具有单层深度,尚无法处理现实世界中的复杂任务。
深度储备池光计算机架构
该研究团队此次的研究成果是通过使用级联光注入锁定的技术,成功构建了4个隐藏层。该储备池光计算机的每个隐藏层由一个半导体激光芯片和一个光学反馈环构成,层与层之间通过光注入锁定技术以全光形式进行连接,不需要任何光电转换和数模转换的过程,因此具有低能耗和低延时的优势。
据了解,这款计算机的工作频率为20GHz,时延为263ns,可以产生5000余个神经元节点,对应的算力为101TOPS,另外由于每个隐藏层均有激光芯片提供能量,它还可以根据需要继续增加储备池深度,构建更高深度的储备池光计算机,而不会减少系统中的光功率。
为了验证计算机解决实际问题的能力,研究团队使用四个隐藏层共计320个互连神经元(每层80个)来解决光纤通信领域中的非线性信道均衡难题,这也是华为曾经提出的后香农时代十大数学难题之一。研究结果表明,深度储备池光计算机表现出很强的光纤非线性补偿能力,能够大大提高光纤信道的通信容量。
据悉,相比于市面上目前主流的边缘计算产品,在同等功耗之下,储备池光计算机的算力要高出1个数量级,同时时延能降低3到4个数量级,因此未来储备池光计算机将会应用于包括智能制造、机器人、智慧医疗、智能交通、智慧家居等典型的边缘计算场景。