机构:预计2023年对HBM需求量将增加60%,达到2.9亿GB
2023-06-28
来源:集微网
448
TrendForce集邦咨询6月28日发表研报,称目前高端AI服务器GPU搭载HBM芯片已成主流,预计2023年全球HBM需求量将年增近六成,达到2.9亿GB,2024年将再增长30%。
机构预计到2025年,全球如果等同于ChatGPT的超大型AIGC有5款,类似Midjourney的中型产品有25款,以及80款小型产品,在这个条件下,上述所需的运算资源至少包含145600~233700颗英伟达A100 GPU;再加上超级计算机、8K影音串流、AR/VR等应用,也将进一步提高云端运算系统的负载。
由于HBM内存芯片拥有比DDR SDRAM更高的带宽、相对较低的能耗,因此近年来发布的旗舰HPC处理器、运算加速GPU均在采用HBM内存。预计未来,HBM可以取代一部分GDDR SDRAM显存以及DDR SDRAM普通内存。
集邦咨询预计,目前英伟达A100、H100、AMD MI300,以及大型云服务提供商谷歌、AWS等自主研发的ASIC AI服务器增长需求较为强劲,预计2023年AI服务器出货量(含GPU、FPGA、ASIC等)预估在120万台,年增长率近38%。AI芯片出货量同步看涨,预计今年将增长50%。