欢迎访问
AI不仅解了PC产业危机,也成为了产业链投资的好“借口”
2024-04-18 来源:贤集网
1915

关键词: 人工智能 英特尔 AMD

AI浪潮正持续改变各行各业,此前历经下行周期的PC市场也开始迎来新的机会。今年以来,无论是美国消费电子展(CES)还是巴塞罗那世界移动通信大会(MWC),AI PC都成为了当之无愧的焦点,包括英特尔、AMD、英伟达等芯片大厂,以及联想、戴尔、宏碁、华硕、荣耀等下游厂商纷纷推出相关产品,布局AI PC。业界直言,2024年或是AI PC元年,这一风口下,半导体领域NPU以及存储器等有望持续受益。


AI PC一触即发,半导体大厂瞄准NPU

ChatGPT的横空出世,让人见识到了AI大模型的威力,随后,AI内容生成逐渐从云端向PC、手机等终端靠近,业界也开始意识到PC将是支持AI大模型的重要平台。毕竟,与手机相比,PC拥有更高存储容量与物理空间,更适合复杂度高、参数规模大的AI大模型。这一背景下,AI PC一触即发。



当前行业对AI PC尚未有明确定义,业界普遍认为,AI PC指的是具备AI加速计算能力或能在本地运行AI大模型的PC产品,其具备深度学习以及自然语言处理等能力,可以完成多种复杂AI任务。

传统PC采用CPU+GPU架构,聚焦本地计算与存储,虽然也能运行大语言模型,但AI时代数据量庞大,传统PC算力不足发展受限。与之相比,AI PC采用的是CPU+GPU+NPU(神经网络处理单元)异构方案,NPU作为AI PC算力中枢,主要用于加速人工智能和机器学习任务,包括图像识别、语音识别、自然语言处理等,与传统的通用处理器相比,NPU在神经网络计算方面具备更高的计算效率和能耗效率,可以令AI大模型在本地化运行变得更加高效,从而满足PC用户对AI能力的需求。

2023年以来,围绕CPU+GPU+NPU异构方案,AMD、英特尔与高通纷纷展开布局。

AMD于2023年5月推出锐龙7040系列移动处理器,集成了专门负责处理AI任务的NPU,首次将x86平台带向AI时代。同年12月,AMD又推出了锐龙8040系列移动处理器,提供高达16TOPS的NPU算力和高达39TOPS的整体算力,对比上代7040,可带来60%的AI性能提升。

2023年12月,英特尔正式推出酷睿Ultra处理器,基于Intel 4制程工艺以及先进的Foveros 3D封装技术,并采用了英特尔首个用于客户端的片上AI加速器“NPU”,带来2.5倍于上一代产品的能效表现。酷睿Ultra处理器率先在消费级AI PC上应用,随后于2024年3月,英特尔又宣布基于酷睿Ultra处理器的AI特性延展到商用领域。在今年4月举办的Intel Vision 2024创新大会上,英特尔披露了下一代酷睿Ultra客户端处理器家族(代号Lunar Lake),产品AI算力将超过100TOPS,NPU单元提供超过45TOPS的算力,该款处理器将于2024年推出,届时AI PC性能将可进一步提升。

高通2023年也推出了为AI PC设计的处理器产品骁龙 X Elite SoC,采用4纳米工艺,集成了高通定制的 Oryon CPU,AI引擎算力达到75TOPS,NPU提供45TOPS算力,首批搭载骁龙X Elite 芯片的PC制造商包括荣耀、联想、小米等。

除此之外,GPU大厂英伟达也在发力NPU。今年2月英伟达发布RTX 500和RTX 1000系列笔记本显卡,适用于笔记本电脑和移动工作站,上述系列产品全部配备NPU,主要负责处理轻型AI任务。


存储器需求上涨,DRAM、SSD等受益

“来势汹汹”的AI PC浪潮,推动了存储器市场需求上涨,也对存储器性能、容量、功耗等方面提出了更高的要求。

为支持AI大模型运行,AI PC需要有足够大和足够快的内存。与DDR4相比,DDR5内存具有更高的性能、更低的功耗和更大的容量,因而有望在AI PC时代下得到快速发展。

从微软针对AI PC的规格要求来看,DRAM基本需求为16GB起跳,不过16GB可能难以满足AI大模型海量数据需求。近期,英特尔中国区技术部总经理高宇对外表示,未来AI PC的入门级标配将是32GB内存,16GB内存将面临淘汰,预计在明年,64GB内存的PC将开始进入市场。



TrendForce集邦咨询认为,AI PC将有机会带动PC DRAM的位元需求年成长,后续伴随着消费者的换机潮,进而加大产业对PC DRAM的位元需求。TrendForce集邦咨询预期,今年LPDDR占PC DRAM需求约30~35%,未来将受到AI PC的CPU厂商的规格支援,从而拉高LPDDR导入比重再提升。

值得一提的是,原厂正开发LPCAMM内存,具备高带宽、低功耗、大容量、模块化设计特点,有望在未来更好助力AI PC发展。

美光科技今年1月推出了业界首款标准低功耗压缩附加内存模块(LPCAMM2),采用LPDDR5X DRAM,与SODIMM产品相比,能在网页浏览和视频会议等PCMark?10重要工作负载中将功耗降低高达61%,性能提升高达71%,空间节省达64%。LPCAMM2提供从16GB至64GB的容量选项,该模块已出样,计划于今年上半年量产。美光表示,LPCAMM2将为具备AI功能的笔记本电脑提供更强性能,且内存容量可随着技术和客户需求的发展而不断升级。

闪存领域,SSD是PC必不可少的存储介质,AI PC需要更高性能、更大容量以及更低功耗的SSD。业界认为,PCIe 5.0具备高速低延迟的性能,将更适合AI大模型时代数据中心的需求,因此PCIe 5.0 SSD将大有可为。

围绕AI PC,已经有存储厂商推出相关SSD产品。今年3月,SK海力士正式发布AI PC端高性能消费级SSD新产品PCB01,将在上半年内完成开发,并将于今年内正式推出。该款产品采用PCIe 5.0接口,连续读取速度可达到14GB/秒(千兆字节),连续写入速度为12GB/秒。相较于上一代产品,PCB01速度提升了2倍,相当于可在1秒内实现加载需要用于人工智能学习和推理的大型语言模型;功耗效率提升了30%,可有效管理大规模AI计算的功耗需求。


从组装厂到新中枢都在布局AI

复盘PC行业过去四十多年的历史,行业的增长依赖的是摩尔定律,创新的主导者实际上是芯片和操作系统厂商们。随着上游技术迭代的放缓,作为离用户更近的终端厂商们,尽管产品形态迭代不断,但始终困在创新的窘境里,缺乏关键性技术驱动用户需求,因此PC厂商们也只能干着组装厂的苦生意,产业链中的价值增量也多是来自于用户自然的换机周期。

但在AI大模型浪潮下,有了新可能。理解联想们为何在此刻如此激进地「All in PC」,简单来说就是改变产业链中的地位,从组装厂成为AI时代的新入口,能获得的价值增量更多了。

首先,PC经历数十年的发展,作为传统产业其角色定位与生产力已紧密连接,而AI本身就是一场关于生产力的革命,更有望成为AI落地的第一入口比手机、平板等更容易讲述生产力的故事。

其次,PC厂商们也可以借AI东风,重塑自己的生态。一方面利用AI解决串联自己的终端产品,带来新产品的突破,解决PC同质化的问题,另一方面,则是加速建立AI时代下的新伙伴生态。

毕竟,在PC领域,无论是Wintel联盟,还是英特尔、英伟达、AMD三大巨头在异构计算时代的合纵连横,都说明了最终胜利的并非技术领先者,而是有着强大生态壁垒的玩家。

以联想为例。除了发布十余款AI PC外,还将AI内嵌进平板、手机、智慧大屏等多种终端设备,形成多终端的互通。于此同时,联想还与微软、英伟达、英特尔、AMD、高通等企业,在智能设备、基础设施和解决方案领域持续深化战略合作。

最后,更为重要的是产业链角色的转变。终端厂商可以从单一的设备制造商转变为提供更多价值增量的服务商,做AI时代的卖水人、卖铲人。



一方面,随着端侧大模型进入PC,过去的大量应用会被AI PC自带的AI Agent取代,同时联想们通过自建AI操作系统形成AI原生应用生态。软硬件协同下,PC厂商及其应用生态合作伙伴有望通过提供除硬件之外的AI服务和解决方案获得更多价值增量。西南证券就将AI PC之于传统PC的意义,比作自动驾驶对于传统整车,会在硬件端和软件端同时产生突破性创新和商业价值上的赋能。

另一方面,在软硬件外,大模型时代下算力既是新生产力,也是一门新生意。终端厂商依靠过去的IT经验沉淀,不止是做终端的智能设备的生意,而是走向B端和上游,做更定制化的生意。

比如联想反复强调的“全栈智能”战略。从2017年开始,联想就开始围绕“端-边-云-网-智”的新IT架构进行大刀阔斧地改革,目前已形成了包括AI内嵌的智能终端、AI导向的基础设施、AI原生的方案服务三大方向。

“AI内嵌的智能终端”对应一系列的智能设备升级,“AI导向的基础设施”则是联想多年的AI服务器布局,而“AI原生的方案服务”就是联想在大模型时代下“卖的铲子”。联想明确表示自己不会做通用大模型,而是与产业伙伴合作基于现有的通用大模型进行二次深度开发,完成对个人大模型和企业大模型的构建。

总之,AI PC革命下,PC有希望成为AI时代的新入口,联想们既能掌握用户的数据与需求,围绕软硬件进行创新与迭代,又能协同芯片和基础大模型厂商们在算力、算法等方面进行优化与合作。 这样一来,从卖硬件到卖水、卖铲子,PC厂商们也就在产业链中掌握了更多的话语权,成为PC产业生态的核心中枢之一。


PC已经被AI包围了?

在AI改造智能终端的道路上,与手机厂商主导的AI手机不同,AIPC在产业链上汇聚了更多厂商的共识。

率先进军AIPC的,是微软和英特尔两大分别位于软件和芯片的巨头。

2023年9月,英特尔CEO帕特·基辛格在创新大会上认为,AI将通过云与PC紧密协作,进而从根本上改变、重塑和重构PC体验,并高呼称,“我们正迈向AIPC的新时代”。另一边的微软,在Windows 11上内置了Copilot,将AI助手集成到PC系统层级。

从时间节点来算,英特尔和微软是AIPC时代的揭幕者。但对于AI植入PC的看法,英特尔和微软显然各有各的算盘。

在英特尔这边,根据创新大会聚焦开发者云平台的规划,不难看出英特尔希望通过AI普及到终端的方式,拉动其近两年不断失利的数据中心及AI业务。根据英特尔2023年报显示,其两大营收支柱之一的数据中心及AI业务营收155亿美元,同比下滑20%。并且,其数据中心业务在整个市场中已经呈现边缘化趋势,市场营收份额已下降至如今的20%区间。



而对于“半控制”了OpenAI微软来说,PC系统内置AI(Copilot),更像是Windows和ChatGPT的整合。在自然语言的交互下,降低用户使用操作系统的难度,顺便推广更新Windows 11。

不过,不论PC产业链上游的玩家(英特尔和微软)最初对AIPC的想法如何,AIPC的落地,随着2024年CES上英伟达、英特尔、AMD围绕AIPC推出多款AI能力增强的芯片,PC整机厂商联想一口气推出10余款AIPC产品的密集节奏下,更多PC整机厂商也披露(或发布)了AIPC产品的落地计划。

其中,除了联想和微软、苹果,单论整机厂商是惠普将在星Book Pro 14上搭载酷睿Ultra 7处理器,用于支持本地200亿参数大语言模型;戴尔在灵越13 pro、14 Plus、16Plus上搭载酷睿Ultra处理器;三星将在Galaxy Book4(搭载酷睿Ultra)上深度集成微软Copilot;宏碁在Swift和Aspire笔记本支持Copilot按键(一键呼出Copilot功能);华硕将推出灵耀14等AIPC。

从PC厂商们的产品规划来看,准备发布(或已发布)的AIPC产品具备两个明显特征。其一是,现阶段披露的产品,大多AI的落地规划并不完整,AI功能主要靠芯片能力(搭载酷睿Ultra)或依赖第三方实现(Copilot);其二是2024年的PC市场将在不同定位和价位上,涌现大量AIPC产品。

PC厂商们在AI能力的缺位,或因PC厂商对AI大模型的投入并未如手机行业“人手一个大模型”般“狂热”。不过,从PC厂商宁可“先拿硬件顶上”也要扎堆推出AIPC的举动上,能够看到PC的AI迭代窗口期可能非常短。

以中国PC市场为界,根据IDC数据显示,处理器集成AI加速引擎的AIPC(包括笔记本电脑和台式机)在2024年便成为市场主流。2027年,AIPC的市场份额预计将达到85%,基本完成对PC市场的渗透。预期的销量解释了,PC厂商为何纷纷将2024年作为推出AIPC产品的重要时刻。

或许AIPC的落地节奏,正如去年12月联想集团副总裁、中国首席战略官阿不力克木・阿不力米提所言,“AIPC首先会经历一个AI Ready阶段,芯片架构会率先升级到混合AI架构,并加速AI应用创新;随着个人大模型、个人智能体、AI应用开放生态等的嵌入,AIPC将加速迈入AI On阶段”。当前阶段的AIPC产品落地,暂时处于先推出具备AI能力硬件(AI Ready),等待PC端应用生态和使用场景完全开发(AI On)的阶段。

不过,参考手机行业的AI变革,一味依赖硬件和第三方支持的AI终端会丧失产品差异,表现弱于平均值(例如国行三星Galaxy S24的部分AI功能表现较差)。

AIPC的先行者们,已经开始寻找独属于PC上的AI应用场景了。



Baidu
map