欢迎访问
三星和SK海力士:2026年将量产HBM4,其他选手只能“眼红”?
2024-05-07 来源:贤集网
1501

关键词: 三星 SK海力士 存储芯片

三星电子和 SK 海力士将引进先进的代工工艺,大规模生产第六代高带宽内存 (HBM),目标是在 2026 年。因此,拥有自己代工业务的三星和 SK 之间未来的 HBM 战争海力士与世界领先的代工厂台积电结盟,预计将取决于代工厂的竞争力。

据业内人士 4 月 29 日消息,三星电子和 SK 海力士计划通过将领先的代工工艺融入基础芯片中,从 2026 年 HBM4(第六代 HBM)开始生产定制 HBM。



HBM 的实现方法是将核心芯片 DRAM 芯片堆叠在位于封装底部的称为基础芯片的方形框架顶部,然后使用硅通孔 (TSV) 技术将它们垂直连接。基础芯片连接到图形处理单元 (GPU) 或 ASIC,控制 HBM 并从每个 DRAM 收集计算数据以传输到 GPU。在第五代 HBM3E 之前,基础芯片的技术难度已经足够低,可以采用 DRAM 工艺制造。

然而,随着客户的人工智能服务不断进步,对具有卓越性能和更低功耗的 HBM 的需求不断增长,因此需要改进基础芯片性能。为了满足客户的期望,使基础模具的功能多样化需要利用领先的铸造工艺。

SK海力士最近与台积电进行技术合作,也是夺取定制HBM领导地位的战略一步。尽管SK海力士通过SK海力士System IC和SK海力士Key Foundry这两家子公司开展代工业务,但其主要重点还是较旧的8英寸工艺。据了解,HBM4 基础芯片的制造工艺低于 5 纳米。目前,全球仅有三星电子和台积电建立了5纳米以下超微细工艺的量产体系。


三大巨头结盟,全球垄断

4月25日,崔泰源发布了一张与黄仁勋的合影。

崔泰源在硅谷的Nvidia总部与黄仁勋见面并拍下了这张照片。黄仁勋在崔泰源收到的一本小册子上签名,上面写着“为了我们的合作,共同创造人工智能和人类的未来”。

外界普遍认为,崔泰源与黄仁勋此次会晤涉及HBM问题。

英伟达是AI芯片领域的领军企业,占据全球AI芯片市场80%的份额。去年,SK海力士成为英伟达AI专用图形处理器 (GPU) 所用的第4代 HBM (HBM3) 的独家供应商,并占据该市场的头把交椅。

SK海力士在开发新型第五代HBM(HBM3E)方面也领先于三星电子。不过,上个月在美国加州圣何塞举行的“GTC 2024”开发者大会新闻发布会上,黄仁勋透露他们正在测试三星的HBM,这让SK海力士感到担忧。

第二天,黄仁勋来到三星电子展位,在展示的12层HBM3E上签名“JENSEN APPROVED”,这进一步引发了猜测。

虽然“批准”的具体含义尚未明确,但这被解读为对三星HBM产品的期待。

业内人士表示,崔泰源此次来访可能是为了跟上HBM领域的主要竞争对手三星电子的步伐。SK海力士还计划投资900亿美元建设全球最大的超级晶圆厂,预计于2046年竣工。该公司最近还成为韩国市值第二大公司,仅次于三星。

此前,SK海力士还与全球最大的芯片代工厂台积电签署谅解备忘录,一起合作打造HBM4芯片,利用台积电先进的封装技术和晶圆代工能力。

根据4月19日的声明,SK海力士将利用台积电的领先工艺。由于Nvidia也是台积电的核心合作伙伴,这次和SK海力士加强合作关系,这也意味着在AI世界的半导体联盟关系正式确立,形成一个共同的生态系统。



HBM4将引领技术变革

据悉,自2015年以来,从HBM1到HBM3e各种更新和改进中,HBM在所有迭代中都保留了相同的1024位(每个堆栈)接口,即具有以相对适中的时钟速度运行的超宽接口。然而,随着内存传输速率要求不断提高,尤其是在DRAM单元的基础物理原理没有改变的情况下,这一速度将无法满足未来AI场景下的数据传输要求。为此,下一代HBM4需要对高带宽内存技术进行更实质性的改变,即从更宽的2048位内存接口开始。

接口宽度从每堆栈1024位增加到每堆栈2048位,将使得HBM4具备的变革意义。

当前,生成式人工智能已经成为推动DRAM市场增长的关键因素,与处理器一起处理数据的HBM的需求也必将增长。未来,随着AI技术不断演进,HBM将成为数据中心的标准配置,而以企业应用为重点场景的存储卡供应商期望提供更快的接口。

根据DigiTimes援引Seoul Economy的消息:下一代HBM4内存堆栈将采用2048位内存接口。

将接口宽度从每堆栈1024位增加到每堆栈2048位将是HBM内存技术所见过的最大变化。自2015年以来,从HBM1到HBM3e各种更新和改进中,HBM在所有迭代中都保留了相同的1024位(每个堆栈)接口。

采用2048位内存接口,理论上也可以使传输速度再次翻倍。例如,英伟达的旗舰Hopper H100 GPU,搭配的六颗HBM3达到6144-bit位宽。如果内存接口翻倍到2048位,英伟达理论上可以将芯片数量减半到三个,并获得相同的性能。

回顾HBM发展历史,由于物理限制,使用HBM1的显卡的内存上限为4GB。然而,随着时间的推移,SK海力士和三星等HBM制造商已经改进了HBM的缺点。

HBM2将潜在速度提高了一倍,达到每个堆栈256GB/s,最大容量达到8GB。2018年,HBM2进行了一次名为HBM2E的小更新,进一步将容量限制提高到24GB,并带来了另一次速度提升,最终达到峰值时的每芯片460GB/s。

当HBM3推出时,速度又翻了一番,允许每个堆栈最大819GB/s。更令人印象深刻的是,容量增加了近三倍,从24GB增加到64GB。和HBM2E一样,HBM3看到了另一个中期升级,HBM3E,它将理论速度提高到每堆栈1.2 TB/s。

在此过程中,HBM在消费级显卡中逐渐被更便宜的GDDR内存所取代。HBM越发成为成为数据中心的标准配置,以企业应用为重点场景的存储卡供应商们期望提供更快的接口。


HBM市场测算:未来三年CAGR超80%

AI刺激服务器存储容量扩充,HBM需求强劲


AI服务器刺激更多存储器用量,大容量内存条、HBM、eSSD需求旺盛。根据Trendforce,目前服务器 DRAM (模组形态为常规内存条RDIMM和LRDIMM)的普遍配置约为500〜600GB,而AI服务器在单条 模组上则多采64〜128GB,单台服务器搭载16〜36条,平均容量可达1TB以上。对于企业级SSD,由于AI 服务器追求的速度更高,其要求优先满足DRAM或HBM需求,在SSD的容量提升上则呈现非必要扩大容 量的态势,但配置也显著高于常规服务器。

随着算力卡更新迭代,HBM规格持续提升。未来在AI模型逐渐复杂化的趋势下,服务器的数据计算和 存储需求将快速增长,并同步带动服务器DRAM、企业级SSD以及HBM的需求成长。相较于一般服务器 而言,AI服务器多增加GPGPU的使用,以NVIDIA A100/H100 80GB配置8张计算,HBM用量约为 640GB,超越常规服务器的内存条容量,H200、B100、MI300等算力卡将搭载更高容量、更高速率HBM。



2024年HBM市场容量有望接近9亿GB

我们测算了全球算力卡的HBM需求,结论是:

1、从容量看,2023年HBM市场容量为2.8亿GB,预计2024年增长至8.9亿GB, 2026年增长至14.1亿GB, 2023〜2026 年CAGR为71 %。增长驱动因素是:算力卡单卡HBM容量提升、算力卡出货量提升、新的玩 家产品放量。

AI服务器出货增速远高于传统服务器、手机、PC+NB等传统市场,且单机DRAM容量增速更快,因此 HBM/全 球DRAM市场的占比将逐步提升,2023年容量占比为1% (2023年大宗DRAM市场容量为275亿 GB) , 2026年 将提升至3%。

我们认为,目前HBM供应链以海外厂商为主,部分国内厂商打入了海外存储/HBM供应链。国产HBM 正处于0到1 的突破期,目前HBM供应主要为韩系、美系厂商,国内能获得的HBM资源较少。随着国产 算力卡需求快速增长,对于算力卡性能至关重要的HBM也有强烈的供应保障诉求和国产化诉求。



Baidu
map