据新华社报道,近日,清华大学研究团队首创了一种干涉—衍射分布式广度光计算架构,并研制出高算力、高能效的智能光计算芯片,可实现每秒每焦耳160万亿次运算的通用智能计算,为大模型通用智能计算探索了新路径。该研究于12日发表于国际学术期刊《科学》。
清华大学电子工程系方璐课题组、信息科学技术学院院长戴琼海院士课题组,摒弃了传统电子深度计算范式,构建了智能光计算的通用传播模型,首创了名为Taichi(意为“太极”)的干涉—衍射分布式广度光计算架构。基于此创新架构,课题组进一步探索干涉光与衍射光的优势特性,又研制出干涉—衍射异构集成智能光计算芯片。
报道引述论文第一作者、清华大学电子系博士生徐智昊介绍,与国际上高性能人工智能芯片相比,“太极”芯片的系统整体能量效率提升了3个数量级,可将复杂智能任务拆分为多通道高并行的子任务,赋能光计算实现自然场景千类对象识别、跨模态内容生成等人工智能复杂任务。
此外,目前该团队正与相关机构洽谈,建设算力实验室,以期用智能光计算芯片支撑大模型训练与推理、通用人工智能等人工智能研究与应用。
清华光芯片将重塑AI计算边界?
这款芯片采用了一种全新的光电路设计,可以高效利用光子进行运算,从而突破了传统电子芯片在算力和能效上的bottleneck。
咱们先来看看这款芯片的一些核心亮点。首先它的峰值能效高达160 TOPSW,目前是最高能效的人工智能芯片之一。它使用硅基光子集成电路工艺制造,已经推出了原型芯片并通过实验验证了设计的可行性。它采用了创新的"太极"光波导结构和光电复用电路设计,可以在芯片上同时传输电信号和光信号,从而大幅提高了集成度,减小了芯片面积。
这玩意儿是清华大学的一帮高手研发出来的,采用了一种全新的"太极"光电路设计。传统的电子芯片用的是电流传输信号,但电流在高速运算时会产生很多热量,导致能耗太高。而光芯片则是利用光子来传输信号,光子在传输过程中基本不会产生热量,所以能效特别高。
这款"太极"光芯片的峰值能效高达160 TOPSW,可以说是目前最高能效的AI芯片了。它的核心创新就在于那个"太极"光波导结构,可以让光在芯片上高效传输和转弯,从而大幅减小芯片面积。
另外,它还设计了一种光电复用电路,可以在同一个芯片上同时传输电信号和光信号,提高了集成度。你想啊,把光路和电路集成到一起,那运算速度和带宽就更高了。
总之嘛,这款芯片的优势主要有三个:高能效、高集成、高带宽。对于未来的人工智能算法,尤其是要在边缘设备上运行的,这些优势可都是硬核亮点啊!
咱们继续聊聊这款"太极"光芯片的关键性能。
首先就是它的能效表现了,160 TOPSW的峰值能效水平可以说是领跑同行了。要知道,对于AI算法来说,能效就是硬指标,能效越高,运算成本就越低,对设备的发热和功耗影响就越小。
这款芯片采用的是硅基光子集成电路工艺,也就是说它的制造工艺和传统电子芯片是一致的,这就意味着未来有望实现大规模量产,成本会更加可控。
研究团队已经利用该工艺流程制造出了原型芯片,并通过实验验证了设计的可行性。所以说,这款芯片已经不是纸上谈兵,而是有了实实在在的产品雏形。
光芯片与AI:强强联手突破算力瓶颈
光芯片最吸引人的地方,在于它与AI技术的天然契合度。AI算法对算力的需求,正是光芯片所擅长的领域。
具体来说,光芯片可以充当AI系统的加速器,大幅提升AI算法的运算速度。例如,在深度学习领域,光芯片可以加速卷积神经网络等运算密集型操作,使训练时间大幅缩短。
光芯片与AI的结合还可以降低功耗,提高能源利用效率。AI系统通常需要大量的计算资源,能耗问题一直是个痛点。而低功耗正是光芯片的优势所在,两者的结合可以有效缓解这一矛盾。
未来的AI系统将会充分利用光芯片的优势,通过光电混合集成等技术,将光芯片与电子芯片紧密融合,发挥两者的协同作用,从而突破当前的算力瓶颈,推动AI技术的进一步发展。
光芯片成果不断,落地缓慢?
光芯片看起来是很不错的技术路径,但到底多久才能落地?
经纬创投认为,光芯片商业化有两大路径:第一种思路是短期内不寻求完全替代电,不改动基础架构,最大化地强调通用性,形成光电混合的新型算力网络;另一种思路是把光芯片模块化,不仅仅追求在计算领域的应用,还追求在片上、片间的传输领域应用,追求光模块的“即插即用”。
硅光芯片不是靠尖端制程来获胜,更多是靠速度和功耗,比如光的调制解调的速度、功耗,还有多波复用,在一个波导里面同时能通过多少路光等。
可以理解为,光芯片最大的优势在于技术通用性。
这也不难理解,因为无论是生产商还是客户,最大的诉求之一就是要确保通用性。产品实现“开箱即用”才能够最大限度降低学习成本,不需要对现在的底层框架进行过多修改,就能够适配到成千上万个应用场景中。所以不动基础架构,而是把线性计算的计算核部分用光来部分替代,形成光电混合的算力网络新形式,是最快的商业化路径。
另一方面,全球光计算芯片竞赛,各国和地区相继出台政策推动发展。
美国国防部高级研究计划局(DARPA) 早在2019年就启动“未来计算系统”项目,以研究具备深度学习能力、高算力和低功耗的集成光子芯片。
欧盟在2020开始启动PHOOUSING项目,致力于开发基于集成光子技术的将经典过程和量子过程结合起来的混合计算系统。
我国科技部“十四五”重点专项申报指南中,也将信息光子技术、高性能计算、物态调控、光电混合AI加速计算芯片列为重要内容,其中包括光电混合AI加速计算芯片、量子计算、基于固态微腔光电子芯片、光学神经拟态计算系统等技术的研发。
能看到,如何为智能时代提供更强大算力,许多国家已在思考下一波的发展浪潮,光计算正是颇具潜力的选项之一。
潜力之下,光芯片挑战尚在
虽然提到了很多优势,但光芯片作为一项前沿技术,必然有很多挑战有待克服。
工艺挑战:由于要用于复杂计算,光器件的数量必然会很多,要达到不错的性能至少需要上万个,这会带来更复杂的结构和更大的尺寸。为了实现可编程,必然要对每个器件进行控制,也会要求高集成度和一些Knowhow积累。这些要求会产生一些工艺上的挑战,同时导致成本很高,以及整体稳定性、生产良率都有挑战,所以必须找到一种低成本、高良率的方法,来控制大量光器件的技术。
温度难题:因为是模拟计算,当整个环境温度对电芯片产生影响的时候,对光信号也会产生扰动,影响计算精度。有一种办法是把整个芯片放在恒温环境下,通过温控电路来实现。但这反过来会牺牲一些光计算的低能耗优势。此外,对于温度控制,还包括芯片内部发热,导致对周边器件的影响问题。
产业链未形成成熟分工:光芯片技术门槛高、产品线难以标准化,生产各工艺综合性更强,相比于大规模集成电路已形成高度的产业链分工,光芯片产业链行业尚未形成成熟的设计-代工-封测产业链。
新蓝海市场亟待开拓:光芯片下游大客户为主,可靠性与交付能力是重要竞争力;光芯片产业参与者众多,中低端领域竞争激烈,高端市场仍是蓝海。在算力基础设施建设海量增长的背景下,光芯片将会迎来巨大的机会。
对于我国光芯片产业的发展路径,有业内人士认为或将经历两个阶段:
1)在细分领域凭借自身技术实力,绑定优质客户实现进口替代;
2)产品品类横向扩张,打开远期成长天花板。
由于光芯片行业具备细分品类较多等特点,中短期内看好在细分领域中具备深厚技术积累,且已绑定优质客户的国产厂商,有望率先开启进口替代步伐,占据先发优势;长期来看,具备较强横向扩张能力的光芯片企业更具备竞争优势。