市场需求大增,AI服务器价格大涨
服务器行业由早期以传统服务器为主的市场格局,转变为传统服务器、云服务器、AI服务器和边缘服务器四足鼎立。AIGC大时代来临,ChatGPT等大语言模型的推出,市场算力需求大增,AI服务器作为算力基础设施之一,由于具备图形渲染和海量数据的并行运算等优势,能够快速准确地处理大量数据,市场价值逐渐凸显,近来市场需求大增,外加AI服务器核心零部件GPU(图像处理器、加速芯片)芯片持续紧缺、GPU价格不断上涨等,近期AI服务器价格大涨。
究其原因,市场需求大增是AI服务器价格大涨的主因。
据了解,ChatGPT火热后,全球各大科技企业都在积极拥抱AIGC(生成式AI),纷纷发力AI大模型。据不完全统计,自3月16日百度率先公布“文心一言”以来,国内已有超过30项大模型产品亮相。
然而,AI大模型的实现,需要海量数据和强大算力来支撑训练和推理过程,华为预估2030年相比2020年,AI爆发带来的算力需求将增长500倍。
AI服务器作为算力基础设施单元服务器的一种类型,由于普遍采用CPU(中央处理器)、GPU等组合的异构式架构,相较通用服务器具备图形渲染和海量数据的并行运算等优势,能够快速准确地处理大量数据,可以满足大模型所需强大的算力需求,广泛应用于深度学习、高性能计算、搜索引擎、游戏等行业,其价值逐渐凸显。
“AI应用增加,推升算力需求,GPU服务器会增加,预期未来含有GPU的AI服务器需求将会持续增加,看好云端服务供应商(CSP)或AI服务器的成长性。”在近日举行的电话会议上,富士康集团董事长刘扬伟表示。
索引对记者表示,过去几年,加速计算服务器(加速计算服务器中90%为AI服务器)是拉动服务器市场增长的主要驱动力,2019年~2022年,整个服务器市场增量为100亿美元,其中50亿美元来自加速计算服务器市场增量,随着人工智能应用进入大模型时代,加速计算服务器市场预计仍将保持活力,其增速也预计大于通用服务器市场。
服务器产业链或为重要的受益环节之一
华泰证券认为,以ChatGPT为代表的AI大模型应用普及将推动算力需求快速增长,服务器产业链是其中重要的受益环节之一。
AI服务器整体能效的提升驱动服务器各零部件升级需求,包括且不限于:
1)AI训练和推理对网络带宽提出更高要求,有望催生光模块速率进一步升级需求,其中800G光模块有望加速放量;
2)PCB:AI服务器用PCB一般是20-28层,传统服务器最多16层,每提升一层,PCB价值量提升1000元左右,因此单台AI服务器的PCB价值量约为单台传统服务器的3-4倍;
3)服务器半导体:GPU方面,一台AI服务器就能够带来约10万美元的价值量提升,而大功率供电需求也驱动多相电源用量增长,进一步提升价值量。
除AI服务器外,在东数西算、数字经济等趋势下,各科技企业还一致看好整个服务器、存储相关行业。
工业富联指出,算力需求的增长不仅带动AI服务器的出货增长,也会带动整个超算系统架构的升级,包括中央处理器单元、运算加速器、高效能存储器、更高的带宽等。此外,算力的指数级增长会带来巨大的能耗,工业富联提前布局了数据中心液冷及沉浸式散热产品,HGX4就采用了水冷和气冷两种散热技术,绿色产品在算力需求增长的未来,重要性会更为凸显。
中兴通讯高级副总裁、政企业务总裁朱永涛对记者表示,新一轮数字经济浪潮带来的市场机会确定,今年中兴通讯将加强对服务器和存储的资源投入。
索引表示,2009年,中国本土供应商在全球的出货占比只有1%左右,到2022年这个数字变成了25%,如果加上台湾几家ODM给互联网的直接供货,这个占比已经超过60%,中国本土服务器供应商在全球正扮演越来越重要的角色。
此外,亦有券商研究员提示,我国服务器生产商面临核心零部件供应风险,同时服务器行业的经营发展状况与国家整体宏观经济发展密切相关。
ChatGPT引爆AI服务器,对PCB提出新的技术升级需求
近年来,PCB朝着微型化、轻便化和多功能方向发展,如在消费电子领域,受智能手机、平板电脑等不断向小型化和功能多样化发展,PCB 上需要搭载更多的元器件并不断缩小尺寸。
在计算机和服务器领域,在高速高频的 5G 时代和 AI 浪潮下,通信频率和传输速率大幅提升,PCB 需高频高速工作、性能稳定、可承担更复杂的功能,满足低介电常数、介质损耗因子和低粗糙度的技术指标要求。目前服务器/存储器需要六至十六层板和封装基板,高端服务器主板层数在十六层以上,背板层数超过二十层,未来随着服务器的需求要求提高,PCB 的技术水平还需不断升级。
从硬件组成细分,AI 服务器采用异构形式服务器作为计算来源,主要内容包括 CPU+GPU、CPU+FPGA、CPU+ASIC等异构形式,优点在于其可以根据实际需求调整计算模块结构的灵活性。数据显示,2022 年中国 AI 市场 GPU 占据 89%的市场份额。市场中种类较多的是 CPU+GPU,GPU 数量单元丰富和流水线较长,擅长梳理图形渲染,可以有效满足 AI 的大规模并行计算,在 GPU+CPU 的运算中,GPU 和 CPU 共享数据效率高,任务以极低的开销被调度到合适的处理器上,不需要内存拷贝和缓存刷新。CPU 多个专为串行处理而优化的串行部份,GPU 有大规模的小核心运行程序的并行部分、是高度算力的基础,二者的结合有利于充分发挥协同效应。
AI 服务器能够有效满足深度学习、神经网络的计算要求,AI 服务器对 AI GPU 的应用,有效支持卷积、池化和激活函数等多重矩阵运算,很大程度上提高了深度学习算法的计算效率,助推算力的提高。
进入2023年以来,ChatGPT 目前在各种专业和学术基准上已经表现出人类水平,发布后推出 2 个月后用户量破亿。同时,国内百度“文心一言”、阿里“通义千问”等一系列中文大模型也陆续推出。人工智能架构中,芯片层为整个架构提供算力基础支撑,每一次大模型的训练和推理对芯片提供的算力基础提出要求。历代 GPT 的参数量呈现指数级增长,随着 AI 的进一步发展,算力的需求将持续扩张,将持续带动高性能的计算芯片的市场需求,目前服务器龙头 Intel 已经逐步出货针对 HPC 和人工智能领域的服务器产品,在 AI 方面即可实现高达 30 倍的性能提升,并且在内存和接口标准上进一步过渡到 DDR5 和 PCIe 5.0 等行业领先水平。
PCB 是服务器内各芯片模组的基座,负责传递服务器内各部件之间的数据信号以及实现对电源的分布和管理,对于芯片的集成性、稳定性、抗干扰能力和散热能力等起到了决定性作用,对服务器的性能有极大的影响。随着芯片性能的不断提升,PCB 作为芯片基座和信号传输通道,不仅需要为芯片提供更高的基础度和稳定性,针对性的升级改革以满足增加的 GPU 模块对针脚数和对显存颗粒需求,还需要处理更多的信号和电源路径以及在传输中提高信息传递质量,减少信号干扰并且增加散热以及电源管理能力,未来服务器的性能不断提升,PCB 板也需同步升级。
根据预测,2025 年全球 AI 服务器的市场规模会达到 318亿美元,将会带动PCB行业需求大大增加。