机构与厂商表示,存储价格预计在今年第二季度到达谷底,市场有望在第三季度触底反弹。如火如荼的物联网(IoT)、智能汽车和工业机器人,AI算力提升的需求,以及ChatGPT的拉动,有望让存储市场在2023年下半年一扫阴霾,迅速回暖增长。
市场转暖,需求再度旺盛,价格回抬,这正是国产厂商难得的一场的机遇,而厂商能否把握机会,借助这股东风,乘势而起,迎来发展的第二春呢?
行业巨头纷纷减产
“在经历长达大半年的下跌趋势后,存储价格预计在今年第二季度到达谷底,随着经济和需求面的改善,市场有望在第三季度触底反弹。”在3月23日举办的CFMS2023—中国闪存市场峰会上,多家核心产业链厂商对2023年存储市场行情如是预判。
从海外三大存储巨头来看,美光已进一步削减2023会计年度资本支出,目前预期将投资大约70亿美元、较2022年度缩减超过40%。值得注意的是,公司CEO梅赫罗特拉表示:“我们现在认为几个终端市场的客户库存已经减少,未来几个月供需平衡将逐步改善。排除库存减记的影响,我们认为我们的资产负债表库存余额(DIO)已在第二财季达到峰值,我们的季度业绩接近向连续营收增长的过渡。”
SK海力士CEO朴正浩日前在股东大会上表示,预计存储芯片需求将在今年下半年复苏,但不确定性依旧存在。公司今年资本开支将减半,不会进一步减产;三星电子也在考虑削减存储芯片产量。
回顾全球半导体与存储市场周期变化情况,资本开支增速与市场变化呈现强相关性。随着各大存储厂商陆续在最新财报说明会中公开2023年展望,并大幅度下调2023年资本开支计划,多家机构看好弹性最大的存储板块2023年下半年迎来复苏。
中信证券在最新研报中指出,美光虽在行业逆风期录得单季大幅亏损,但业绩指引环比复苏,终端客户库存下降,中长期有望受益AI需求提振。存储厂商库存2023年第二季度达峰并逐步下调,看好2023年下半年存储周期触底复苏,行业存储龙头有望迎业绩反转。
真正实现SSD自由
从媒体的报道来看,目前存储芯片的价格,已经跌破了成本价,如果按照容量价格比来算,也达到了历史最低价,可能只有2-3毛/1GB的价格了,很多厂商是在亏本卖芯片。
于是很多人表示,这要感谢国产存储厂商,比如长存,长鑫,没有国产厂商的努力,那么三星、美光、SK海力士等厂商,肯定不会降价,消费者也无法实现SSD自由。
那么问题来了,存储芯片大跌,究竟是国产厂商的功劳,还是市场规律?
在我个人看来,国产厂商的功劳可能只占10%,市场规律占90%,市场规律才真正起到了决定性的作用。
一方面是市场需求下滑,从去年的数据可以看到,不管是手机,还是电脑这些存储芯片消耗大户,均下滑了15%以上,而2023年还在继续下滑,市场需求不振。
而存储芯片厂商的产能没有减少,导致产能极度过剩,库存高企,比如三星的芯片库存超过了500亿美元,所以大家不得不减少,降价促销,这是市场必然。
而芯片产业本来就是周期性的,有高峰也就有低谷,现在正是低谷。
二是技术进步,随着存储芯片的工艺不断提升,从SLC到MLC,再到TLC、QLC,以及64层,96层,128层,196层、232层堆叠……
存储芯片密度已经是不断增长,每个单元可以存储的数量不断升级,从1bit到2bit、3bit、4bit甚至5bit数据。简单的来讲,以前一块芯片能存300M,但现在同样大小的芯片,可以存1.5T了,是原来的5倍,甚至10倍。
这就导致存储芯片的成本大降,单位容量的价格也会大跌,以前1TB的SSD硬盘要1000块,现在可能只要100块了,价格下跌是技术进步的必然,这是存储芯片价格跌的第二个重要原因。
第三个原因,才是国产存储厂商搅局,但其实这个原因,并不是十分重要,没有国产厂商搅局,价格也会跌的。
不信大家看看2008年前后,存储芯片也是跌成白菜价,那时候没有国产存储什么事吧?
目前国产存储的市场份额可能在5%左右,对市场价格的波动,其实起不了太多决定性的作用,最多也就是搅局一下而已。
所以真正让存储芯片大跌,还是市场需求下滑、然后技术不断进步导致的,然后国产存储也推动了一下,当然或多或少也产生了一些作用。
AI浪潮拉升存储芯片需求 行业或将提前回暖
智能手机、PC和服务器构成了存储芯片的主要需求来源。据华经产业研究院统计,智能手机对DRAM和NAND的需求量均接近40%。此外,服务器和PC对DRAM的需求分别达到34%和13%。
尽管目前全球智能手机和PC的出货量提升动能不足,但智能手机和PC的升级换代提升容量规格的趋势不变,单机容量仍有一定提升空间。数据显示,2014年-2020年,全球智能手机中DRAM平均单机容量提升了2倍,NAND平均单机容量提升了4倍。
而在服务器方面,AI服务器对DRAM和NAND的需求飙升。据美光测算,AI服务器中DRAM数量是传统服务器的8倍,NAND数量是传统服务器的3倍。TrendForce预测,2023年服务器DRAM的位元出货比重将达37.6%,将超过智能手机DRAM成为第一大需求增量。此外,大模型庞大的数据集也需要更大容量的NAND储存数据,GPT-3的参数量就已经达到1750亿个,GPT-4的参数量相对更大。
随着ChatGPT开启了AI的新纪元,全球科技巨头相继开发并推出大模型产品,大模型的训练和部署需要大量的AI算力芯片提供支柱,同样大量的数据集传输和储存也对存力提出了更高的要求。在AI服务器中应用的存储芯片主要包括:高带宽存储器(HBM)、 DRAM和SSD(固态硬盘),针对AI服务器的工作场景需要提供更大的容量、更高的性能、更低的延迟和更高的响应速度。
HBM是一种基于3D堆栈工艺的高性能DRAM,它使DRAM从传统2D转变为立体3D,充分利用空间、缩小面积,契合半导体行业小型化、集成化的发展趋势。凭借TSV(硅通孔)封装方式,HBM大幅提高了容量和数据传输速率。
以英伟达刚发布的专为大模型设计的AI服务器NVIDIA DGX H100为例,一台服务器里配置了8颗H100 GPU,每一颗GPU需要80GB显存,采用HBM2e或HBM3的方案,每颗GPU需要5颗HBM。此外,DGX H100服务器还需要2TB的系统内存、2条1.92TB的SSD以及8 条3.84TB的SSD。
未来,各大巨头们的AI大模型也有望强劲拉动存储芯片朝着更大容量、更高性能方向演进,成为存储市场长期增长的强劲驱动力。