欢迎访问
NVIDIA市值再创历史新高,老黄是如何打出一手“好牌”的?
2023-08-28 来源:贤集网
519

关键词: AMD 人工智能 英伟达

伴随着2024财年第二季度财报的发布,NVIDIA的市值再创历史新高,盘中一度逼近1.2万亿美元,最新报收1.16万亿美元,相当于8个Intel、7个AMD。

NVIDIA日前宣布,截至2023年7月30日的第二季度收入为135.1亿美元,较上一季度增长88%,较去年同期增长101%。季度GAAP摊薄每股收益为2.48美元,较去年同期增长854%,较上一季度增长202%。季度非GAAP摊薄每股收益为2.70美元,较上一季度增长148%,较去年同期增长429%。

在传统计算机时代里,CPU作为整个计算大脑的中枢,拥有无可取代的核心地位,而GPU更多的只是“辅助”角色。但如今,双方的角色和地位已经发生了转变。而让GPU取代CPU历史地位的引爆点,正是AIGC——生成式人工智能。



NVIDIA创始人兼CEO黄仁勋表示:“一个全新的计算时代已经来临。全球各地的企业正在从通用计算转型为加速计算和生成式AI。我们的网络和交换机技术能够将多个NVIDIAGPU连接起来,同时运行CUDAAI软件栈,通过这种方式即可创建生成式AI的计算基础架构。”

他表示:“在本季度,各大云服务提供商发布了大型NVIDI AH100 AI基础架构。领先的企业IT系统和软件提供商宣布与我们合作,将NVIDIA的AI技术引入各行各业。采用生成式AI的比赛已经开始。”

此前,英伟达CEO黄仁勋接受采访时也表示,计算机制造方式已明显转变了,数据中心将需要少得多的CPU,而不是传统上数百万个CPU,反而它们会需要数百万个GPU。数据中心GPU芯片需求可能会变成一个1万亿美元的巨型市场。

核心原因在于,过去的数据中心主要由用于文件检索的CPU构成,而未来将以生成式数据为主导,你只需要检索一部分数据,但必须使用人工智能生成剩余的大部分数据。


英伟达是如何抢先一步达到人工智能芯片拐点的?

黄仁勋领导的英伟达始终处于发展的边缘——先是游戏,然后是机器学习,然后是加密货币挖掘、数据中心,现在是人工智能。在过去的十年中,这家芯片巨头开发了独特的硬件和软件产品组合,旨在实现人工智能的民主化,使该公司能够从采用人工智能工作负载中受益。

但真正的转折点是 2017 年,当时 Nvidia 开始调整 GPU 以处理特定的人工智能计算。同年,通常为其他公司的系统销售芯片或电路板的英伟达也开始销售完整的计算机,以更有效地执行人工智能任务。

它的一些系统现在已经达到 超级计算机的大小,使用专有的网络技术和数千个 GPU 来组装和运行。此类硬件可能会运行数周来训练最新的人工智能模型。对于一些竞争对手来说,与销售计算机、软件、云服务、训练有素的人工智能模型和处理器的公司竞争非常困难。

到 2017 年,谷歌、微软、Facebook 和亚马逊等科技巨头已经为其数据中心购买了更多 Nvidia 芯片。麻省总医院等机构使用 Nvidia 芯片来发现 CT 扫描等医学图像中的异常情况。

那时,特斯拉已经宣布将在其所有汽车中安装 Nvidia GPU 以实现自动驾驶。Nvidia 芯片为虚拟现实耳机提供了强大的基础能力,就像 Facebook 和 HTC 推向市场的耳机一样。英伟达因每隔几年持续提供更快的芯片而享有盛誉。

回顾过去,可以肯定地说,十多年来,Nvidia 在生产芯片方面已经建立了几乎坚不可摧的领先地位,这些芯片可以执行复杂的人工智能任务,如图像、面部和语音识别,以及为 OpenAI 的 ChatGPT 等聊天机器人生成文本。

最大的好处是什么?英伟达通过及早认识到人工智能趋势、根据这些任务定制芯片、然后开发有助于人工智能开发的关键软件来实现其主导地位。正如 《纽约时报》(NYT)所言,英伟达已逐渐转变为人工智能开发的一站式商店。



据研究公司 Omdia 称,虽然谷歌、亚马逊、Meta、IBM 等也生产了 AI 芯片,但 Nvidia 目前占据了全球 AI 芯片销量的 70% 以上。它在训练生成式人工智能模型方面占有更加突出的地位。 仅微软就花费了数亿 美元购买了数万个 Nvidia A100 芯片来帮助 构建 ChatGPT。

纽约时报的 唐·克拉克 (Don Clark) 在文章中表示 :“到今年 5 月,该公司作为人工智能革命最明显赢家的地位已经变得清晰起来,该公司预计季度收入将增长 64%,远远超出华尔街的预期。”


英伟达的AI GPU强在何处?

英特尔已不再是当年那家占据统治地位的科技公司。

原本CPU是PC或服务器最重要的核心部件。但是现在,加速计算芯片通过杀手级应用ChatGPT正在加速取代CPU的地位。算力成为以IDC为基础条件的AI应用发展核心驱动力,GPU成为关键部件。

“生成式人工智能将是(英伟达业绩)引爆点。”黄仁勋说,“与CPU相比,未来IDC更需要GPU,因为数据都将通过生成式LLM自动生成,而非主要用于数据检索。”生成数据需要更多的GPU,而检索数据,只需要CPU。

目前,性能愈发强悍的PC系统配置了超过8个服务器GPU和1个CPU的算力硬件,英伟达占据了全球超过八成(84%)的服务器(IDC:数据中心)GPU市场份额。

比如,英伟达DGX系统,这是用于数据训练的IDC核心算力来源,搭载了8颗英伟达高端H100 GPU,还有两颗CPU;谷歌的A3超级计算机,同样用了8颗英伟达H100 GPU,但只用了1颗英特尔制造的高端至强处理器。

据英伟达公示的技术资料显示,H100于2022年三季度发布,训练速度比A100快9倍,推理速度比上代产品A100快30倍。5月29日,黄仁勋发布了GH200超级芯片,这是英伟达开发的基于Arm架构的CPU+GPU集成方案,用于开发聊天机器人、互联网推荐系统算法等大模型AI应用。

这个趋势随着AGI在产业的持续落地,产生的影响日益显著。英伟达IDC业务在第一季度增长了14%,但英特尔的AI和IDC业务部门业绩下降了39%。

另一项因素也在加强英伟达超越英特尔的优势。英伟达服务器GPU售价极高,单颗英伟达H100售价高达4万美元(eBay平台加急售价),而英特尔最新一代至强CPU的单颗标价虽然也很高,但“只有”1.7万美元。

当然英伟达也不是全无对手,当年英特尔的上游合作伙伴AMD,也在发力服务器GPU,包括高通、苹果、谷歌和亚马逊在内的众多巨头,都在设计开发移动AI算力芯片,而非服务器GPU;甚至是英特尔,在游戏领域的GPU技术实力,同样不容小觑。

但是在眼下,英伟达确实一家独大。但凡提及AGI算力,无不将英伟达服务器GPU列为首选。这主要是因为AGI目前对算力极为渴求,要处理处理TB级数据,训练性能要求极高,而在需要“推理”的过程中使用模型生成文本、图像或预测,也不是移动AI GPU能达成的。

更重要的还不在于英伟达的GPU硬件性能,而是——英伟达的AI软件系统:英伟达的AI专有软件,能轻松聚合GPU的硬件功能用于AI应用程序。

黄仁勋在英伟达财报电话会议上也说,“我们的软件不易复制,(竞对)必须设计所有的软件、库和算法,将它们集成到框架中并做持续优化;同时,软件架构也同样需要优化迭代。”

也就是说,要做到和英伟达一样,实现GPU与AI应用的无缝衔接,要做的不仅仅是优化芯片的设计和性能,还需要对软硬件的技术架构和整体框架做同步优化,这是一项系统工程。要超越单品性能虽然不易,但并非全无可能,但面对系统级能力,谈超越,难度不言而喻。

英伟达也在持续增加对IDC的资本投入。据英伟达最新财报显示,其整体收入中,IDC资本支出的份额占比已增至8.4%,而之前根据其上一年的固定比率预测为6.5%。



初创公司和巨头的现实威胁

看上去似乎无人能阻挡英伟达在AI技术领域的统治地位,但AI前景的无限空间,仍在吸引无数挑战者。

除了上文提及的多家巨头,初创AI公司成为英伟达AI挑战者大军不容忽视的一部分。当然,这种技术要求的初创公司很难出自无名之辈。

有一则极具戏剧性的传闻,出自在前沿技术和应用领域极为活跃的特斯拉公司首席执行官埃隆·马斯克(Elon Musk)之口。这位持续让世人惊叹的科技巨子说,“就连狗都在抢GPU”。

有鉴于此,所以马斯克虽然在口头上叫停研究AI技术,但他的身体却很诚实:这位老兄在今年3月9日建立了一家取名为“X.AI”的AI公司,还偷偷摸摸买了10000颗英伟达GPU。

想分英伟达一杯羹的还有来自英特尔公司架构、图形和软件(IAGS)部门的副总裁、首席架构师Raja Koduri,这位技术大拿已于今年3月底离职。接下来,Raja Koduri将创办一家AI技术公司,主要研发新一代生成式AI工具,目的是削弱英伟达对数字电影和视频游戏市场的控制力。

与马斯克的X.AI公司不知道要干嘛相比,Raja Koduri的计划更清晰。他这家尚未命名的AI初创公司,第一个项目,是要创建一套AI工具,以便让包括电影和游戏艺术家在内的消费群体,无论用PC、Mac、iPad还是其他设备,都无需深入研究软件代码而直接生成自己想要的工作结果。

尽管这些AI赛道新手看上去很想大干一场,但真正对英伟达有现实挑战能力的还是AMD、微软和谷歌此类巨头。其中,AMD在游戏领域的GPU对英伟达有些许威胁,但IDC需要的服务器专用GPU性能无法望其项背。

至于微软、谷歌甚至云服务商比如亚马逊,都一面和英伟达保持良好的业务合作,一面又在下大本钱研发自己的AI专用GPU。

比如微软,这个桌面PC时代的超级霸主,正是OpenAI的背后金主(2019年微软给OpenAI投了10亿美元),同时也是英伟达H100芯片最大的采购方。今年3月,微软用数万颗英伟达GPU帮OpenAI组装了一台AI超级计算机。

但微软也在推进自己的AI芯片研发计划,代号“雅典娜”。这项计划始于2019年,目标是为训练LLM(大语言模型)等软件而设计,同时可支持推理,能为ChatGPT背后的所有AI软件提供算力支持,初代雅典娜GPU量产时间表被定于2024年。

与微软相比,谷歌对英伟达的威胁可能更显著。目前谷歌的AI处理芯片是专为AI研究开发机器学习(Machine Learning)的专属芯片TPU(张量处理单元),能同时处理“云上”训练和推理,并设计了基准测试工具MLPerf。



谷歌TPU如今已迭代到V4版。据谷歌4月6日披露,得益于互连技术和领域特定加速器(DSA)方面的关键创新,谷歌云TPU v4在扩展机器学习系统性能方面比其前代版本有了近10倍的飞跃。

TPU v4是谷歌于2021年推出的、专门用于执行机器学习的AI芯片,是谷歌第5代特殊领域加速器(DSA:Domain Specific Accelerator)及第3代用于ML模型的超级计算机平台,其性能与英伟达A100相比,速度快1.2-1.7倍,功耗低1.3-1.9倍。

尽管如此,就眼下看,对英伟达具有商业层面现实威胁的公司,还不存在。这些威胁,现在还处于水面之下。



Baidu
map