欢迎访问
没有计算力一切都白谈!英伟达正在“通吃”AI软件和硬件市场
2023-03-23 来源:网络整理
566

关键词: 人工智能 英伟达 AI

在人工智能领域,英伟达正展现出更庞大的布局。


高性能GPU 79%的市占率,让市场对英伟达的记忆停留在最强大的GPU供应商上,忽略了它强大的软件能力和布局。

当全世界都在为算力焦虑时,英伟达在GTC大会上给出了解决方案。



英伟达CEO黄仁勋推出了算力平台DGX Cloud,基于这个云平台,用户可以通过网页浏览器直接调用算力,就像点开百度搜索界面一样方便。而DGX超级计算机则是Open AI采用的算力引擎。这项云服务目前已经和甲骨文达成合作,微软AWS也即将加入托管。黄仁勋表示,未来中国也可以采用这项服务,中国创业公司可以期待阿里、百度、腾讯提供的底层算力服务。

解决了算力问题,黄仁勋又给出了模型的解决方案。

面向那些没有大模型研发能力,又需要行业专属模型的公司,英伟达推出了NVIDIA AI Foundations,内置了语言模型NEMO、视觉模型PICASSO和生物学模型BIONEMO三种模型,企业可以将行业算法加入其中,生成专属于自己的大模型。在硬件上,英伟达新推出了适合大模型需求的双 GPU产品 H100 NVL,希望更进一步为客户提供算力服务。


AI技术是智慧未来的基础

随着大数据、云计算和物联网等技术不断发展,AI技术逐渐成为新一轮科技革命和产业变革的重要驱动力量。正如近些年大热的元宇宙、前不久的热搜“常客”ChatGPT,火热的背后都离不开AI技术的支撑。

数字时代下,AI技术具备着广阔的应用前景,在医疗、教育、金融、农业、通信等诸多领域都发挥着不可替代的作用。以AI技术赋能智能家居为例,AI技术可以帮助智能家居系统更好地实现自动化控制,从而让家庭成员更加便捷、舒适地生活;再看AI技术加持下的智能工厂,AI贯穿智能设计、智能产品、智能生产、智能决策等制造全流程,降本增效,让工厂焕发新生……

可见,AI技术是智慧未来的基础,只有抓住了AI技术,才能使科技更好地赋能千行百业。

AI发展需“软件”,更需“硬件”。

AI大模型的训练,算力支撑不可或缺。据《经济日报》报道,自2016年以来,我国人工智能产业规模呈现迅猛增长态势,但2019年我国智能投融资出现大幅度下跌。而造成这个现象的主要原因是缺乏支撑人工智能产业快速发展的技术突破。因此,如何让软硬件供需平衡是当下棘手的课题。


提供算力云平台,让高性能算力不再稀缺

算力是当下最抢手的资源。

除了少数云服务厂商和巨头,大模型企业很少有自建设算力中心的能力。大模型具有改变各行各业的能力,自GPT 3.5以来,谷歌、百度等公司纷纷推出大模型产品,摩肩接踵的发布会日期宣示着,大模型混战已然开始。作为Open AI背后的算力支柱,也是目前市面上性能最高、性价比最强的已量产产品,A100成为市面上最抢手的芯片。

一时之间,拥有A100芯片的数量,成为行业判断企业大模型能力的重要指标。

一位行业人士告诉36氪 ,国内某大模型公司拿到新一轮融资后,就赶紧通过私人渠道买了500块A100芯片。

面对如此紧缺的算力需求,英伟达推出了一项新的AI超级计算服务——DGX Cloud云服务。

DGX Cloud背后是DGX(AI超级计算机)的算力能力,通过这个平台,企业无需购买硬件,可以通过网页浏览的方式获取高性能算力,扩展多节点的AI训练。DGX配有8个H100 GPU或A100 80GB Tensor Core GPU,每个节点共有640GB GPU内存。这8个模组具有很好的通信能力,能更好地传输数据。它配有Transformer引擎,可以处理类似ChatGPT的大模型。



此外,DGX还提供了NVIDIA AI Enterprise 套件,带有AI 解决方案工作流程,可以帮助企业优化框架设计和预训练模型,提高工程师的生产效率。

企业可以通过月租的方式获取算力,每月租金36999美元。可以说,DGX Cloud云平台降低了用户使用算力的门槛。在部署方式上,DGX支持公有云、私有云和混合云的部署方式。在混合版本,客户在使用自己私有云算力的同时,接入DGX Cloud庞大的算力资源能力。英伟达的DGX官网界面已对外开放。

黄仁勋表示, NVIDIA DGX H100 AI超级计算机已全部全面投入生产,很快将面向全球企业。

目前,英伟达已经和微软Azure、谷歌云和Oracle OCI合作,向用户提供算力能力,使用户能通过浏览器就拥有英伟达DGXAI超级计算机的能力。


ChatGPT专用芯片性能再升级

在硬件领域,英伟达也推出了新的产品。

黄仁勋隆重推出了一种新的双 GPU产品 H100 NVL。它加载了Transformer引擎,很适合ChatGPT 等大型 LLM。

常规显卡的数据已经无法支撑大模型的数据量需求,H100 NVL单卡显存容量为94GB,最高可提供188GB HBM3 显存。

与HGX A100相比,搭载四对H100和双NVLINK后,服务器的处理速度可以快10倍,且大模型的处理成本降低一个数量级。

此外,面向视频信息,英伟达推出了用于 AI 视频的 NVIDIA L40,能提供比 CPU 高 120 倍的 AI 视频性能,能够用于视频解码和转码功能、视频流、增强现实、生成 AI 视频等场景。

快手和Google Cloud 是L4的早期用户。

在图像生成上,英伟达推出L40,针对图形和支持 AI 的 2D、视频和 3D 图像生成进行了优化。L40 是英伟达元宇宙Omniverse的引擎,可以用来构建数据中心和运行元宇宙的程序。

在图形推荐上,英伟达推出了Grace Hopper for Recommendation Models,主要用于图形推荐模型、矢量数据库和图形神经网络。它将CPU 和 GPU做了一个连接,属于超级芯片范畴,且两类芯片之间的传输速度可以达到900 GB/s。


台积电看好HPC前景

晶圆代工龙头台积电参加外资投资论坛时指出,美国芯片法案(CHIPS Act)对分享超额利润等要求不会影响台积电的海外投资,重申五年之后海外产能将占28纳米及更先进制程20%目标不变。台积电亦看好ChatGPT等生成式人工智能(AI)应用将带动高效能运算(HPC)结构性需求成长,台积电在先进制程及先进封装领先同行业将明显受惠。



同时,台积电预期在产能扩充及技术推进下,加上5G及HPC大趋势不变,预期未来几年的合并营收年复合成长率(CAGR)达15%~20%目标可望达成,长期毛利率可达53%以上,持续性且健全的股东权益报酬率(ROE)会优于25%并为股东带来盈利增长。

台积电参加外资投资论坛,市场聚焦在海外投资、生成式AI、去库存化等议题。在海外投资部分,美国芯片法案提供390亿美元的半导体制造补助方案申请,但要求企业分享超额利润且不能把资金用于发放股利或买回库藏股。

台积电表示,拓展全球制造足迹是依照客户需求,虽然起始成本较高,但有能力吸收海外晶圆厂较高的成本,预期五年后海外产能将占28纳米及更先进制程20%以上。

有关近期当红的ChatGPT等生成式AI应用,台积电认为会带动HPC相关芯片的结构性需求成长,因为HPC处理器需要采用先进制程及先进封装,台积电在这两大领域具有领先地位,客户群体包括IC设计厂、系统厂、大型资料中心业者等,所以可望受惠于生成式AI市场的成长,未来将带来更多绘图处理器(GPU)、可程序逻辑闸阵列(FPGA)、特殊应用芯片(ASIC)等晶圆代工需求。



Baidu
map