欢迎访问江南电竞app
即使对手不少,它们也不是英伟达!
2024-06-20 来源:贤集网
844

关键词: 英伟达 华为 人工智能

在早前的台湾computex上,英伟达创始人黄仁勋接受了媒体采访。在被问到:“Meta、谷歌和微软等云服务提供商正在制造自己的 AI 芯片。这会对 NVIDIA 产生什么影响?NVIDIA 会进入定制 ASIC 业务吗?”这个问题时。

黄仁勋回应道:是的,我们会这么做。但 NVIDIA 非常不同——NVIDIA 不是一家加速器公司,而是一家加速计算公司。NVIDIA 的加速计算非常通用,因此利用率更高,实用性更高,实际成本更低。人们认为你的智能手机很贵,但想想它取代的所有东西——一台设备的实际成本要取代那么多台设备,NVIDIA 加速计算也是如此。




NVIDIA 架构用途广泛,无处不在 - 公共、私人、国家等。这是因为我们的覆盖范围非常广,所以我们是任何开发人员的首要目标。如果你为 CUDA 编程,它可以在任何地方运行,如果你为加速器编程,它只能在那里运行,这是有道理的。当云客户使用 NVIDIA 时,我们会将 CUDA 客户带到云端,我们对此感到高兴。

在问到对 UALink的看法时,黄仁勋表示,世界已经意识到了 NVLink 的重要性。NVLink 现已发展到第五代,并且 NVLink 的连接速度令人难以置信。NVLink 内部包含许多软件和复杂的东西,而不仅仅是 SERDES。它连接到我们的 GPU - 它们以 NVLink 开始和结束,因此软件只能看到一个 GPU。

“经过 7 年,人们现在才意识到 NVLink 的重要性。今天他们有一个提案,但要过几年他们才会有一个功能齐全的 NVLink 竞争对手。有些人更喜欢购买现成的产品 - 如果它存在并且足够好,那为什么不呢?但我的感觉是‘我们得拭目以待’”。黄仁勋强调。


什么是CUDA?

CUDA(Compute Unified Device Architecture),统一计算设备架构,英伟达推出的基于其GPU的通用高性能计算平台和编程模型。借助CUDA,开发者可以充分利用英伟达GPU的强大计算能力加速各种计算任务。

软件生态的基石:CUDA构成了英伟达软件生态的基础,诸多前沿技术均基于CUDA构建。例如,TensorRT、Triton和Deepstream等,这些技术解决方案都是基于CUDA平台开发的,展示了CUDA在推动软件创新方面的强大能力。

软硬件的桥梁:英伟达的硬件性能卓越,但要发挥其最大潜力,离不开与之相匹配的软件支持。CUDA正是这样一个桥梁,它提供了强大的接口,使得开发者能够充分利用GPU硬件进行高性能计算加速。就像驾驶一辆高性能汽车,CUDA就像是一位熟练的驾驶员,能够确保硬件性能得到充分发挥。

深度学习框架的加速器:CUDA不仅在构建英伟达自身的软件生态中扮演关键角色,在推动第三方软件生态发展方面也功不可没。特别是在深度学习领域,CUDA为众多深度学习框架提供了强大的加速支持。例如,在Pytorch、TensorFlow等流行框架中,CUDA加速功能成为标配。

开发者只需简单设置,即可利用GPU进行高效的训练和推理任务,从而大幅提升计算性能。



华为也有自己的护城河

达芬奇架构,作为华为自研的AI计算架构,其起源与华为对AI未来应用的深远洞察密切相关。早在几年前,华为就预测到2025年,全球智能终端的数量将达到400亿台,智能助理的普及率将达到90%,企业数据的使用率将达到86%。基于这样的预测,华为在2018年全联接大会上提出全栈全场景AI战略,并设计了达芬奇计算架构,以在不同体积和功耗条件下提供强劲的AI算力。

达芬奇架构的发展可以追溯到2018年,华为推出的AI芯片Ascend 310(昇腾310)首次亮相,标志着达芬奇架构的正式应用。紧接着,华为在2019年6月发布了全新8系列手机SoC芯片麒麟810,首次采用达芬奇架构NPU,实现了业界领先的端侧AI算力。麒麟810在AI Benchmark榜单中表现卓越,证明了达芬奇架构的实力。

达芬奇架构是专为AI计算特征而设计的全新计算架构,具备高算力、高能效、灵活可裁剪的特性。其核心优势在于采用3D Cube针对矩阵运算做加速,每个AI Core可以在一个时钟周期内实现4096个MAC操作,相比传统的CPU和GPU实现数量级的提升。此外,达芬奇架构还集成了向量、标量、硬件加速器等多种计算单元,并支持多种精度计算,支撑训练和推理两种场景的数据精度要求。

达芬奇架构的应用领域广泛,覆盖了从端侧到云端的全场景AI应用。在端侧,麒麟810芯片的AI算力已经在智能手机中得到应用,为消费者提供了丰富的AI应用体验。在边缘侧和云端,Ascend系列AI处理器可以满足从几十毫瓦到几百瓦的训练场景,提供最优的AI算力。达芬奇架构的灵活性和高效性,使其在智慧城市、自动驾驶、工业制造等多个领域中发挥着重要作用。

诚然,达芬奇架构在华为的AI市场布局中占据了核心的位置。它不仅是华为AI芯片的技术基础,也是华为实现全栈全场景AI战略的重要支撑。通过达芬奇架构,华为能够提供从硬件到软件的全栈AI解决方案,加速AI技术的产业化和应用落地。此外,达芬奇架构的统一性也为开发者带来了便利,降低了开发和迁移成本,促进了AI应用的创新和发展。


华为GPU快成了,但离构建自己的CUDA还很遥远

目前看,华为GPU发展态势较好。

根据公开信息,2023年华为算力GPU的出货量大约为十万片。随着产能的增加,预计到2024年,这个数字将翻几番,达到几十万片的规模。尽管产能有所提升,市场上的订单需求依然非常旺盛,仅在2024年1月份的下单量就已经达到了数十万片。目前,下单需求已经达到上百万片,远超华为当前的供应能力。

在国内购买情况方面,华为算力GPU受到了市场的热烈追捧。华为算力GPU的客户主要分为三个梯队:第一类是三大运营商和政务类客户,第二类是互联网客户,第三类是其他公司。由于算力GPU的紧缺,客户为了尽快拿到产品,都在努力成为第一梯队的客户,甚至采取与地方政府合作等措施以确保优先供应。

价格方面,华为算力GPU自2023年8月上市以来,价格已经经历了至少两次提价。最初上市的价格约为7万元人民币,而目前市场价格已经上涨至约12万元人民币。

总体来看,华为GPU的发展态势良好,市场需求强劲,尽管供应紧张,但这也反映出华为GPU在性能和国产化方面的优势,使其成为市场中的热门选择。随着技术的不断进步和产能的进一步提升,预计华为GPU将在未来市场中占据更重要的位置。

在一次专访中,黄仁勋表示:“华为是个好公司”。此外,英伟达在财报中将华为列为主要竞争对手,这反映了华为在GPU及相关技术领域的竞争力正在增强。

尽管华为GPU发展态势良好,但CUDA作为GPU领域占主导地位的框架,其生态系统的成熟度和广泛接受度远远超过了其他框架,包括AMD开发的框架。华为的AI计算框架在生态建设方面确实还有很长的路要走,需要持续的技术创新和市场推广才能逐步构建起与CUDA相匹敌的生态系统。



然而,英伟达不想给华为成长起来的时间了。

近期,英伟达对其CUDA平台的兼容性政策进行了调整,限制了CUDA软件在非英伟达硬件平台上的运行行为,这一决策始于2021年,并在随后的时间里逐步加强。具体来说,英伟达通过更新其最终用户许可协议(EULA),明确禁止了使用转换层或模拟层在非英伟达GPU上运行CUDA代码的行为。

这一政策变动主要影响了那些试图通过转译技术实现CUDA兼容性的第三方项目,例如ZLUDA等。ZLUDA是一个允许在非英伟达硬件上运行CUDA程序的转译库,它提供了一种相对简单的方式,使得开发者能够在性能略有损失的情况下,运行CUDA程序。

英伟达此举,被广泛认为是保护其市场份额和维护其技术控制权的战略举措。通过限制在其他芯片上使用CUDA软件的方式,英伟达确保其GPU仍然是开发人员和依赖其并行计算平台的企业的首选。

然而,这一决策在业界引起了不小的震动,并引发了广泛的讨论。不少人指责英伟达借助封锁政策垄断市场,压制竞争对手的发展机会。

面对英伟达的限制政策,一些国内GPU企业如摩尔线程选择了遵守EULA规定,并表态采用重新编译代码的方式与EULA保持一致,以避免违反英伟达的限制条款。

此外,业界其他力量,包括AMD、英特尔等厂商,并未因英伟达的限制而止步,他们正在积极推动开放、可移植的生态系统建设,以试图打破英伟达的市场垄断。

面对英伟达的出牌,华为在发展自己的GPU技术时,需要更多地依赖自主研发的软件工具和开发环境,而不是依赖于CUDA这样的成熟平台。这意味着华为需要投入更多的资源来构建自己的软件生态系统,包括开发与CUDA性能相匹敌的编程工具、库和API。

可以预见,在未来较长一段时间内,由于CUDA的广泛使用和对高性能计算、AI等领域的深远影响,英伟达的这一政策可能会限制华为GPU的市场接受度,特别是在那些已经深度依赖于CUDA的领域。

这加强了华为构建自身AI计算架构和AI生态的紧迫性,就像当初安卓断供成就了鸿蒙一样,CUDA的收紧会否成为华为达芬奇架构的神助攻呢?现在还不好评判,让子弹飞一会吧。



Baidu
map