成为AI服务器标配,趋势和需求已明确
HBM的作用类似于数据的[中转站],就是将使用的每一帧,每一幅图像等图像数据保存到帧缓存区中,等待GPU调用。
HBM促使DRAM从传统2D加速走向立体3D,充分利用空间,契合行业小型化、集成化的发展趋势。
AIGC技术应用呈现爆发式增长,大模型处理数据的吞吐量更是呈指数级增长。
ChatGPT已成为史上最快达到1亿月活跃用户的应用,预计至2025年生成式AI所创造的数据可占到已生产数据的10%。
近期英伟达发布最新一代GH200 Grace Hopper,搭载了全球第一款HBM3e,达到141GB,将不再配备今年春季版本的96GB HBM3。
HBM价值量的显著提升也可以体现出当前对存力需求的迫切。
未来3年的超算算力需求提升将超过10倍,万亿级别的参数量使HBM(高带宽内存)成为AI服务器的标配。
此外,HBM的高带宽相当于把漏斗中间的通道打得更开,让数据可以快速流通,面对AI大模型这种动不动千亿、万亿的参数,服务器中负责计算的GPU几乎必须搭载HBM。
翻倍增长势态良好,HBM4是未来共同方向
从HBM的发展趋势来看,其芯片密度更大,堆叠层数更多,进而带来容量、带宽以及连接速率翻倍增长的良好态势。
据集邦咨询预测,2023年HBM需求将同比增长58%,2024年可能进一步增长约30%,未来这个市场规模将达到数十亿美元。
2023年主流需求自HBM2e转往HBM3,需求比重分别预估约是50%及39%。
随着使用HBM3的加速芯片陆续放量,2024年市场需求将大幅转往HBM3,而2024年将直接超越HBM2e,比重预估达60%。
全球市场研究机构TrendForce集邦咨询预测,2023年HBM需求量将年增58%,2024年有望再成长约30%。
虽然目前还没有关于HBM4的正式规范,但台积电在2023 OIP论坛阿姆斯特丹厂上给出了部分制定中的标准。
台积电称,未来HBM4内存的接口位宽将实现翻倍,达到2048 bit。
按照计划,这将使HBM4在多种技术层面上实现重大飞跃。
为数不多的看好,大厂积极推动HBM技术迭代
·SK海力士:今年5月,SK海力士带来第五代HBM 3e,预计今年年底前供应样品,2024年量产,下一代产品HBM4生产时间定在2026年。
该厂商将把下一代后处理技术[混合键合]应用于HBM4产品。
与现有的[非导电膜]工艺相比,它提高了散热效率并减少了布线长度,从而实现了更高的输入/输出密度。
三星:为了掌握快速成长的HBM市场,将大幅革新新一代产品制程技术,预计2026年量产新一代HBM产品HBM4。
预计2024年接口速度可以提高到7.2Gbps的HBM3p,传输速率再提升10%,从而将总带宽提升到5TB/s以上。
已开发出9.8Gbps的HBM3E,计划开始向客户提供样品。同时,三星正在开发HBM4,目标2025年供货。
并已关注存内计算HBM-PIM,在HBM内存中直接集成计算单元,HBM3-PIM预计在2024年完成开发。
目前正开发针对高温热特性优化的非导电粘合膜(NCF)组装技与混合键合(HCB)等技术,以应用于HBM4产品。
美光最新的HBM3 Gen 2内存正在向客户提供样品,具有1.2 TB/s的聚合带宽和最高容量的8高堆栈24GB容量,采用1β工艺制造。
美光在今年5月宣布,已经开始研发第四代HBM,并且计划在2024年下半年开始量产。
其HBM4可以支持16个存储堆栈,每个堆栈有4096位的接口,数据传输速率可达12Gbps,从而实现3TB/s的总带宽。
结尾:
尽管各大厂商都在努力扩大HBM的产能,但根据预期的供需情况,供应量的增长速度相对需求的增长略显缓慢。
据相关研究机构的评估,2023年和2024年的HBM供需比分别为-13%和-15%。这表明,在未来近两年的时间里,HBM市场可能仍将处于供不应求的状态。