欢迎访问
英特尔急了,甩出一系列新招应对GPU冲击,PC也要进入AI时代
2023-10-08 来源:贤集网
426

关键词: 英特尔 GPU 人工智能

美国时间9月19日,英特尔在加州圣何塞举办“Innovation 2023"活动,英特尔CEO帕特·基辛格登台,年过六旬的他一上场便做了一个伏地挺身,为这场信息量爆炸的演讲做了铺垫。

在这场英特尔年度最重要的发布会上,基辛格接连宣布公司在芯片,尤其是先进制程上的最新进展;包括采用5纳米的下一代AI专用芯片Gaudi 3;酷睿Ultra和第五代至强处理器;以及Intel 18A(1.8纳米)制程……



英特尔的AI时代

这次英特尔的发布会中,AI是贯穿始终的主旋律。

演讲开篇,基辛格便表示,AI正在催生全球增长的新时代,在新时代当中,算力便起到了重要的作用,开发者正迎来巨大的商业和社会机会——算力离不开芯片,如今芯片形成了规模达5740亿美元的行业,驱动着全球背后约8万亿美元的技术经济。

随后,基辛格宣布推出第五代“至强”处理器、以及即将发布搭载着英特尔酷睿 Ultra处理器的AI PC。

英特尔先是披露了一台采用英特尔至强处理器,和4000个英特尔Gaudi2加速器的大型AI超级计算机。英特尔表示,Gaudi 2加速器已经能满足各种AI计算的解决方案,包括更大更具有挑战性的大语音模型等等。

英特尔方面称,其第五代“至强”处理器未来将在同样功耗下,提升数据中心的性能和存储速度,相比于上一代,AI方面的性能提升了2-3倍,将于12月14 日发布。

为了展示AI能力的全面跃升,英特尔还拉了下游伙伴来站台,包括AI独角兽Stability AI、以及阿里云智能CTO周靖人。

周靖人主要阐述了阿里巴巴如何将内置AI加速器的第四代英特尔®至强®可扩展处理器,用在阿里云的通义千问大模型上。其称,英特尔的技术,大幅缩短了模型响应时间,“平均加速可达3倍”。

至强处理器和Gaudi2加速器的搭配,更多是用在数据中心上,而英特尔此次也在探索如何把AI与端边计算融合,改造原有的PC体验。

英特尔甚至将他们即将推出的酷睿Ultra处理器称为:“PC处理器路线图的转折点”——这颗处理器最大的亮点在于,英特尔在上面安装了一颗神经网络处理器(NPU),让传统的PC也能够在本地实现更强的AI 加速体验。

另外,这颗芯片的亮点还有:是首个采用Foveros封装技术的产品;也集成了英特尔的锐炫显卡,能够有独立显卡的性能。

英伟达在AI时代最大的财富是在全球拥有一大波忠诚的开发者。而英特尔显然也有意构建自己的生态体系,为开发者们创造更高拓展性、透明度的开发环境。



大模型出现带动AI服务器呈现加速状态

除了对低延迟低功耗算力的性能需求,在服务器的种类上也产生了多样化、细分化的场景应用需求。各行业与人工智能技术的深度结合及应用场景的不断成熟与落地,使人工智能芯片朝着多元化的方向发展,为了迎合芯片的多元化,服务器的类型也将越来越丰富,并适用越来越多的行业应用场景。根据IDC在2021年的统计,预计到2025年中国加速服务器市场规模将达到108.6亿美元,且2023年仍处于中高速增长期,增长率约为20%。


AI大模型对算力的需求分别来自训练和推理两个环节

1)训练环节:通过标记过的数据来训练出一个复杂的神经网络模型,使其能够适应特定的功能,模型具有一定的通用性,以便完成各种各样的学习任务。该环节需要处理海量的数据,注重绝对的计算能力。

2)推理环节:利用训练好的模型,使用新数据推理出各种结论。借助神经网络模型进行运算,利用输入的新数据来一次性获得正确结论的过程。该环节对算力要求比训练环节略低,但注重综合指标,单位能耗算力、时延、成本等都要考虑。

训练对算力要求更高:2021年中国AI服务器推理负载占比约55.5%,未来有望持续提高;训练对芯片算力要求更高,推理对算力的要求偏低。

服务器架构随负载量扩张而不断优化: 服务器架构经历了从传统单一模式到集群模式,再到分布式架构的优化过程。传统单一模式,服务器诞生初期将所有功能汇集在同一个系统,缺点为不便于维护、横向拓展性不佳;因此集群模式诞生,这种集群模式将同一项目放在多个服务器上,有效缓解用户访问量大的压力,但由于各个服务器间功能重复却缺乏协同,系统维护成本仍然较高,且增加了用户重复登陆问题,因此服务器架构进化到分布式模式。在分布式架构中,整个系统按照不同功能拆分为多个单一功能的子模块,每个模块被放到不同服务器中相互协作,共同组成服务器网络,能够有效解决功能耦合度高等问题且代码复用性高。


GPU蚕食CPU市场

黄仁勋在今年2023 COMPUTEX演讲中即提到,PC产业正同时经历“加速运算”和“生成式AI”两大转变,CPU时代已经结束,产业需要一个更快的计算模式,即是GPU。以往PC、服务器中最重要的零组件为CPU,但随着需要大量计算能力的AI应用出现后,GPU将成为主角,CPU沦为配角。目前最先进的系统是采用8个GPU配1个CPU的配置,以发挥最高的计算能力。

另一个数据中心CPU和GPU感受两极化的原因:GPU产能因为CoWoS封装产能不足而受限,大家买不到足够GPU后来变成重复下单。


某客户本来只需要50颗GPU,因为买不到足够数量只好到处下订,最后延伸出200颗GPU的需求量,即使最后订单砍单一半,供需还是有缺口。这也是为什么黄仁勋一直说GPU需求真的很强很强,因为客户都怕缺货,实际下单的数量都早已超过实际需求不知道几倍。

反观通用服务器,因为全球经济景气不佳,消费力转趋保守,服务器客户对于新建的资本支纷纷缩手,转而倾向优化现有设备,或是用软件更新等各种方式来延长使用寿命和资源重新分配,释放更大性能,因此通用服务器芯片供应商当然会感受到无尽寒意。

不过,AI服务器和通用服务器的两极化现象也不会无止境的扩大下去,因为AI服务器还是要建立在既有的基础架构和终端设备之上,GPU侵蚀很大部分的CPU使用量,但不能全然取代CPU。

短期内,生成式AI带来很多新应用和海量信息需求,大家赶着布建AI服务器,因此疯狂下单GPU,等到AI服务器的需求布建到一定程度,最后还是会回过头来布建通用服务器。长期来看,AI服务器的气势如虹,终究会带动通用服务器需求脱离谷底才对。


总结

作为一家长期领先的半导体企业,以CPU而闻名天下的厂商,英特尔在处理器方面的进展尤其值得关注。在本次大会上,英特尔也的确带来了全面的展示,英特尔的PC芯片从此也开始全面进入AI时代。

基辛格表示:“人工智能将从根本上改变、重塑和重构 PC 体验,通过云和 PC 协同工作的力量释放个人生产力和创造力。为此,英特尔正在开创人工智能电脑的新时代。”代号为Meteor Lake的Intel Core Ultra处理器,正是英特尔实现上述目标的一个重要倚仗



Baidu
map