根据TrendForce集邦咨询资深研究副总吴雅婷表示,受惠于HBM销售单价较传统型DRAM(Conventional DRAM)高出数倍,相较DDR5价差大约五倍,加上AI芯片相关产品迭代也促使HBM单机搭载容量扩大,推动2023~2025年间HBM之于DRAM产能及产值占比均大幅向上。
产能方面,2023~2024年HBM占DRAM总产能分别是2%及5%,至2025年占比预估将超过10%。产值方面,2024年起HBM之于DRAM总产值预估可逾20%,至2025年占比有机会逾三成。
2024年HBM需求位元年成长率接近200%,2025年将再翻倍
吴雅婷指出,今年第二季已开始针对2025年HBM进行议价,不过受限于DRAM总产能有限,为避免产能排挤效应,供应商已经初步调涨5~10%,包含HBM2e,HBM3与HBM3e。而供应商议价时间提早于第二季发生有三大原因:
其一,HBM买方对于AI需求展望仍具高度信心,愿意接受价格续涨。
其二,HBM3e的TSV良率目前仅约40~60%,仍有待提升,加上并非三大原厂都已经通过HBM3e的客户验证,故HBM买方也愿意接受涨价,以锁定质量稳定的货源。
其三,未来HBM每Gb单价可能因DRAM供应商的可靠度,以及供应能力产生价差,对于供应商而言,未来平均销售单价将会因此出现差异,并进一步影响获利。
展望2025年,由主要AI解决方案供应商的角度来看,HBM规格需求大幅转向HBM3e,且将会有更多12hi的产品出现,带动单芯片搭载HBM的容量提升。根据TrendForce集邦咨询预估,2024年的HBM需求位元年成长率近200%,2025年可望将再翻倍。
高带宽内存成就AI芯片算力飞跃
在人工智能算力的竞赛中,存储技术的突破是决定性因素。作为新一代高性能存储方案,高带宽内存(HBM以其卓越的带宽和容量优势,成为AI芯片发展的重要推手。
HBM最大的亮点就是超高的存储带宽。以HBM3为例,其理论带宽高达3.2TB/s,是当前主流GDDR6显存的8倍以上。这意味着AI芯片可以更快地读写数据,大幅提升运算效率。HBM还可以通过堆叠设计实现TB级别的大容量,满足AI算法对海量数据的需求。
正是凭借这些独特优势,HBM逐渐取代传统显存,成为AI加速卡的标配。英伟达旗舰AI芯片H100就采用了HBM3,使其显存带宽和容量分别比上一代提升43%和76%,算力也随之大幅飙升。
业内预计,未来几年HBM需求将快速增长,2023年全球需求量将增近六成。这主要得益于AI浪潮的推动,各大芯片厂商纷纷推出新一代AI加速卡,而HBM正是其中的核心配件。
HBM的制造工艺远比传统芯片复杂。它需要将多个存储芯片堆叠在一起,对前后道制程的要求更加苛刻。关键的键合环节技术也有待进一步发展和突破。
三大原厂垄断市场,开启军备竞赛
图形和服务器 DRAM 三大家垄断程度高。未来 DRAM 制程演进需要使用 EUV 光刻技术,三星最早使用。 1)DRAM 制程:进入 10nm 级别制程后迭代速度放缓,使用 1x(16- 19nm)、1y(14-16nm)、1z(12-14nm)等字母表示,另外三星海力士使 用 1a(约 13nm)、1b(10-12nm)、1c(约 10nm),对应美光 1α、1β、 1γ。 2)三星在 1znm 就已使用 EUV 光刻技术。三星在 2020 年在 1znm DDR5 上采用 1 层 EUV,2021 年量产采用 5 层 EUV 的 DDR5,三星是首家在 DRAM 采用 EUV 光刻技术的厂商,也是在 DRAM 上使用 5 层 EUV 的 厂商。而海力士和美光在 1znm 仍然使用 ArF-i 光刻工艺,2021 年海力 士在 1anm 转向使用 EUV,后续在 1bnm 继续使用 EUV。而美光在 2023 年宣布开始在 1cnm(1γ制程)使用 EUV 光刻技术。EUV 技术,制程 更小、单位容量更大,成本更有优势。
2024 年三大原厂将以迭代量产 1bnm(1β)为主,海力士和美光 HBM3E 将直接使用 1bnm,三星采用 1anm。 目前,DRAM 先进制程技术已发展至第五代 10nm 级别,美光称之为 1 βnm DRAM,三星和海力士称为 1bnm DRAM。美光最先量产 1bnm 级 别 DRAM。三星透露将于 2026 年推出 DDR6 内存,2027 年即实现原生 10Gbps的速度。据披露,三星正在开发行业内领先的 11nm 级 DRAM 芯片。
三星和海力士垄断 9 成 HBM 市场,美光份额落后。HBM 市场垄断效应 更强,2022 年海力士/三星份额为 50%/40%,美光份额仅 10%,海力士 HBM3 产品领先其他原厂,是英伟达 AI 芯片 HBM 的主要供应商,份额 最高,而三星着重满足其他云端服务业者的订单,在客户加单下,预计 在 HBM3 与海力士的市占率差距会大幅缩小,2023~2024 年三星和海力 士市占率预估相当,合计拥 HBM 市场约 95%的市占率,不过因客户组 成略有不同,在不同季度的出货表现可能有先后。
美光因技术路线判断失误在 HBM 市场份额比较低,在追赶中。美光此 前在 HMC 投入更多资金,HMC(Hybrid Memory Cube,混合内存立方 体)将 DRAM 堆叠、使用 TSV 硅穿孔技术互连,DRAM 下方是一颗逻 辑芯片,从处理器到存储器的通信是通过高速 SERDES 数据链路进行 的,该链路会连接到 DRAM 下面的逻辑控制器芯片,但不同于 HBM, HBM 是与 GPU 通过中介层互连。HMC 是与 HBM 竞争的技术,美光 2011 年推出 HMC,海力士 2013 年推出 HBM,HMC 与 HBM 开发时间 相近,但 HBM 未被大规模使用,美光 2018 年由 HMC 转向 HBM。
2023 年主流需求自 HBM2E 转向 HBM3,预计 2024 年转向 HBM3 及 3E。随着使用 HBM3 的 AI 训练芯片陆续放量,2024 年市场需求将大幅 转往 HBM3,而 2024 年将有望超越 HBM2E,比重预估达 60%,且受惠 于其更高的平均销售单价,将带动明年 HBM 营收显著成长。
海力士是 HBM 先驱、技术最强,最早与 AMD 合作开发,三星紧随其 后。 海力士在 2015 年首次为 AMD Fiji 系列游戏 GPU 提供 HBM,该 GPU 由 Amkor 进行 2.5D 封装,随后推出使用 HBM2 的 Vega 系列,但 HBM 对游戏 GPU 性能未产生太大改变,考虑没有明显的性能优势和更高的成 本,AMD 在 Vega 之后的游戏 GPU 中重新使用 GDDR,目前英伟达和 AMD 的游戏 GPU 仍然使用更便宜的 GDDR。随着 AI 模组中参数数量 的指数级增长,内存墙问题愈加突出,英伟达在 2016 年发布首款 HBM GPU P100,后续英伟达数据中心 GPU 基本都采用海力士 HBM。 海力士 22Q4 量产全球首款 HBM3,而三星由于此前降低 HBM 的投入 优先级,HBM3 较海力士晚推出一年。
三大原厂积极扩产 HBM 和推进产品迭代,预计 24H2 HBM3E 量产,未 来成为市场主流。 1)海力士:24 年 Capex 优先保障 HBM 和 TSV 产能,23 年 HBM 产能 已出售完、同时持续收到额外需求,预计 DDR5 和 HBM 产线规模将在 24 年增长 2 倍+。公司已从 2023 年 8 月开始提供 HBM3E 样品,2024 年 1 月中旬结束开发,3 月开始量产 8 层 HBM3E,3 月底发货。12 层 HBM3E已于 2 月送样。 2)三星:计划 24 年 HBM 产能提高 2.5 倍。23Q3 已量产 8 层和 12 层 HBM3,计划 Q4 进一步扩大生产规模,并开始供应 8 层 HBM3E 样品, 2024 年 2 月底发布 12 层 HBM3E ,预计 H1 量产。 3)美光:跳过 HBM3,直接做 HBM3E,2024 年 3 月宣布量产 8 层 HBM3E ,将用于英伟达 H200,3 月送样 12 层 HBM3E。
国产HBM制造难关待解 美国管制增添阻力
虽然HBM在AI加速卡中大放异彩,但其制造工艺的复杂程度却远高于传统芯片。HBM需要将多个存储芯片堆叠在一起,对前后道制程环节的要求更加苛刻。
以光刻工序为例,HBM堆叠结构使得曝光面积大幅增加,对光刻机的成像质量和对准精度都提出了更高要求。在后道环节,HBM芯片需要进行减薄、切割等步骤,对设备的精度控制也是一大考验。
而最关键的键合环节更是技术难题。目前主流是采用TCB压合和MR两种方案,但都存在一定缺陷。TCB压合虽然成熟,但存在引线过长、信号衰减的问题;MR方案虽然线路短,但成本较高且良率较低。
混合键合或将成为主流方向。它结合了两种方案的优点,有望进一步提高HBM的性能和可靠性。但这项技术目前仍处于起步阶段,还需要大量研发投入。
除了技术难关,HBM产业还面临着来自美国的管制威胁。美国政府最新修订出口管制新规,进一步限制包括英伟达、AMD在内的AI芯片和半导体设备对华出口,以防中国获取先进AI芯片技术。
这无疑将给中国HBM产业链带来巨大冲击。目前,中国HBM产能主要集中在长江存储、华虹无锡等企业,但上游设备和关键工艺环节仍严重依赖进口。一旦美国"拉闸门",中国HBM产业发展将陷入停滞。
挑战与机遇往往并存。美国管制措施无疑将加速中国半导体自主可控进程,从而推动HBM国产化替代步伐。中国企业也在加大HBM研发投入,期望在这场AI算力竞赛中赢得主动权。