美国研究人员利用相变材料(PCM)开发了具有快速原型设计和重新编程功能的光子集成电路(PIC)。
西雅图华盛顿大学开发的直写和可重写光子芯片技术采用低损耗相变材料(PCM)薄膜,可以一步直接激光写入完整的端到端PIC无需额外的制造工艺,电路的任何部分都可以擦除和重写,从而实现快速设计修改。
该团队已将该技术用于可重构网络的光学互连结构、用于光学计算的光子交叉阵列以及用于光学信号处理的可调谐光学滤波器。
将直接激光写入技术的可编程性与 PCM 相结合,为可编程光子网络、计算和信号处理带来了机遇。它还以方便且经济高效的方式提供快速原型设计和测试,并且无需纳米制造设施。
光子芯片是通过使用 PCM 两种非易失性相(非晶态和晶态)之间显着的折射率对比来创建的,这两种非易失性相可以使用来自商用海德堡 DWL 66+ 激光写入系统(工作频率为405nm和27.5mW)的光脉冲进行可逆切换。
光子电路写在标准氧化硅基板上,该基板上涂有 200 nm 厚的 SiO2 层,覆盖 330 nm Si3N4 薄膜上的 30 nm Sb2Se3 层。SiO2 覆盖层可保护并防止 Sb2Se3 层氧化。
通过使用结晶相 (cSb2Se3) 作为高折射率芯和非晶相 (aSb2Se3) 作为包层,在Sb2Se3薄膜中创建波导。这种二元相配置能够在Si3N4底层的辅助下将基本横向电 (TE0) 光学模式限制在 cSb2Se3 波导内。
由激光创建的一系列矩形aSb2Se3结构的宽度范围从1μm到200nm,可实现的最小特征尺寸为300 nm,明显小于其他系统。
该团队使用该技术构建波导、光栅、环形谐振器、耦合器、交叉点和干涉仪来构建光子芯片。
什么是光子芯片?
光子芯片或光子集成电路(Photonic Integrated Circuit, PIC),是一种特殊的芯片。
不同于传统的以电子为主导的芯片,光子芯片是利用光子(光的粒子)进行信息处理和传输的设备。在此类设备中,数据被编码到光子上,然后通过光纤传输,从而实现了超高速度的数据传输。
光子芯片有许多显著优点。首先,由于光速快且光的频率远高于电子,因此光子芯片的数据传输速度和处理能力远超过电子芯片。
其次,光子芯片的信号传输损失小,因此可以实现远距离、高容量的数据传输。再者,光子芯片的能耗低,因为光信号的传输并不会产生热量。
最后,光子芯片抗电磁干扰性能好,对环境适应性强。
光子芯片的实现并非遥不可及。实际上,现在已经有许多科研机构和公司在研发这种新型芯片,有些产品已经用于光纤通信、生物医疗、环境监测等领域。
但光子芯片也面临一些技术挑战,比如制造精度、光与电的转换效率、光信号的调制和检测等。这些问题需要科研人员进一步攻克,但总体来看,光子芯片的前景是乐观的。
除了光子芯片,科研人员还在探索许多其他新型芯片,如量子芯片、纳米芯片、生物芯片等。
光模块核心部件
光模块厂商里,全球有一半在我国,不过光模块的核心是光芯片,占光模块大部分的成本,国内光芯片企业主要集中于2.5G系列产品的生产和制造,10G和25G中高速率光芯片逐渐实现量产,而50G及以上高端光芯片生产仍主要集中在美日企业里,国内高端光芯片需求极度依赖进口。像中国做光模块的,但大多数高端光芯片依靠进口,只是在部分光模块产品和应用领域采用了自研的硅光芯片。
光模块产业链也很长,涵盖芯片(电/光)、器件(无源/有源)、模块成品,其中芯片技术壁垒高,能够占到大部分比重,而且,高端产品由国外垄断,比如根据ICC的数据,2021年2.5G及以下速率光芯片国产化率超过90%;10G光芯片国产化率约60%,部分性能要求较高、难度较大10G光芯片仍需进口;2021年25G光芯片国产化率约20%,但25G以上光芯片的国产化率仅5%,多是海外光芯片厂商为主。
光模块两大增长因素
从资本市场的角度看,近几年光模块行业有两个高潮:
第一个是,国内 5G 网络的建设高峰。
约在 2019-2020 年,随着国内 5G 牌照发放,三大运营商大力筹建 5G 网络。由于其开支主要聚焦于无线网和承载网,所以对前传、中回传光模块的需求量非常高。由于当时对 5G 网络大范围渲染,资本市场也很看好 5G 发展,刺激一波年度级别的光模块概念行情。
但在 2020 年下半年开始,5G 网络建设减速、商业推广受阻等综合影响,光模块概念也随之下行,出现近 2 年半的低迷。不过,光模块在电信通信的应用只占一部分,更大的应用是在数据通讯领域。
第二个是,ChatGPT 引爆的 AI 新时代。
去年底,OpenAI 公布了一个全新对话式 AI 模型 ChatGPT。由于其很高的创造性,很快就出圈,并且愈演愈烈。
年初时,各种消息逐渐传入国内。特别在微软推出新版 Bing 搜索引擎、百度宣布将推出“文心一言”等消息后,相关话题在各大流量平台爆发。
全球的大厂都正在进行 AI 大模型的“军备竞赛”。但大模型竞赛背后,其实就是算力的比拼。
以 OpenAI 团队举例,他们训练 GPT3 模型用了一万张英伟达 A100 显卡。训练 GPT4 乃至更高级的模型则需要更多算力,据说 OpenAI 已经配备了 3 万张以上的 A100 显卡。业内认为,一万张显卡几乎就是一个大模型的门槛,国内大厂几乎都部署了两三万张显卡。
比如,一个 SuperPOD 架构(英伟达AI基础架构解决方案)需要 140 台 AI 服务器;1120 张 A100GPU;186 台交换机与 5760-8000 个光模块。
所以,一句话总结,算力需求正在指数级爆发,给光模块带来庞大的新增量。