欢迎访问
记忆体大厂CES大秀HBM实力 AI、云端、高速传输新品动能备出
2024-01-15 来源:科技网
1365

关键词: HBM 人工智能 SK海力士

记忆体大厂在CES期间大秀HBM的技术实力,看好高阶制程将翻转产业景气走势。康琼之摄


记忆体产业复甦迹象明确,AI浪潮快速兴起,各家记忆体大厂积极掌握先进制程商机作为成长动能,随著记忆体成为云端伺服器及AI终端应用不可或缺的要角。


此次2024年CES期间的各大记忆体厂均以AI为聚焦重心,HBM、高速传输等新品呈现百花齐放,率先抢攻记忆体从谷底翻身的成长契机。

 

儘管各大记忆体厂仍背负营运亏损的压力,但生成式AI採用高频宽记忆体(HBM)推动价格倍速翻涨,让记忆体产业从过去标准化的量产规模竞争,走向客制化的高技术含量竞争。


近期市场传出,大客户NVIDIA提前支付数亿美元预付款给SK海力士(SK Hynix)、美光(Micron),以确保2024年AI GPU搭配HBM3E的供货稳定,并降低记忆体业者财务及投资的压力。


尤其以SK海力士2023年已在HBM领域抢先攻下一城,取得全球市佔逾5成的领导地位,而三星电子(Samsung Electronics)也紧追在后。


据传,HBM3、HBM3E陆续结束产品测试,可望与NVIDIA签订供应合约,两家韩系记忆体厂不仅在HBM互别苗头,交锋战场延伸至CES展会,并扩大战线至云端伺服器的记忆体介面CXL(Compute Express Link)的布局。


SK海力士在CES展示了HBM3E,号称是业界最高的每秒1.18 TB的资料处理速度,满足AI市场在快速处理海量资料的需求,与前一代产品相比,速度将提高了1.3倍,资料容量也提高1.4 倍,独家开发的MR-MUF技术更是SK海力士的强调重点,提升散热性能约10%。


SK海力士预计将于2024年上半年量产HBM3E,至于CXL透过扩展记忆体和提高AI应用性能受到关注,预计在AI时代下将与HBM3E发挥相乘的关键效益。


三星针对生成式AI的DRAM方案有三大领域,分别为12奈米32 Gb DDR5 DRAM、HBM3E以及CXL记忆体模组产品。


其中,32Gb DDR5 DRAM 是目前单晶片容量最大的DRAM产品,而CXL介面虽然过去推动多年,但AI商机带来新机会,三星认为,透过在伺服器前端安装CXL介面的模组产品,将能大幅增加每台伺服器的记忆体容量,将适合用于处理大量资料的生成式AI平台。


随著生成式AI应用逐渐地从云端资料中心扩展至终端边缘装置,内建AI功能的PC将在2024年先后登场推出,美光在CES展出的LPCAMM2记忆体被视为AI PC的最后一哩路,採用LPDDR5X DRAM,但更强调降低功耗及节省空间。


美光强调,LPCAMM2已开始送样,预计于2024年上半年量产,将导入多家PC大厂的笔电新品。


不仅三大记忆体厂在CES大打AI商机,台厂钰创也在CES首度亮相4Gb DDR3 LRTDRAMTM(Long Retention Time Dynamic Random-Access Memory),锁定在AI应用、KGD异质整合封装、车载等高温应用情境的创新型记忆体,以独家首创的长效资料保存技术为重点诉求。


由于AI应用在高速运算的需求下,传统DRAM受限于先天物理特性,存取效能会随著温度上升而衰减。钰创表示,4Gb DDR3 LRTDRAM可在摄氏122度的高温下达到超过104毫秒的100%长时保留,目前4Gb DDR3 LRTDRAM相关验证已经完成,并开始送样给客户。



Baidu
map