众所周知,这两年AI太火爆了,让GPU芯片直接就走向了神坛。
而GPU领域的大哥英伟达,也因为AI的火爆,一路狂飙,市值都达到了2.4万亿美元左右,离苹果的2.67万亿美元市值,已经只差3000亿美元不到了。
不过大家都清楚,美国生怕中国利用英伟达的GPU,训练出强大的AI,抢了美国的饭碗,于是将英伟达的高端AI卡禁运了。
A100、H100、A800、H800,以及H200、B100、B200等这些强大的芯片,都无法卖到中国来,目前只有H20这款阉割又阉割的残废版了,它的性能只有A100的50%,H100的20%。
而从大家的测试来看,H20的性能,甚至只有华为昇腾910B的50%左右,所以大家都觉得华为的机会到了,迎来了属于华为的“泼天富贵”。
实话实说,如果美国不打压,英伟达的芯片能够随便售卖的话,华为的AI芯片,估计很多国内的厂商,不会使用的,毕竟英伟达的芯片强很多,像B200是昇腾910B性能的10多倍。
但如果美国打压,英伟达的高端GPU芯片买不到,低端的H20还不如华为昇腾910B呢,为何要买H20,不买910B呢,除非是傻了。
事实上,对于芯片企业而言,硬件问题并不难解决,性能高一点,低一点并不是那么的难以接受,为什么呢?因为大家都是大规模的购买,然后通过集群来实现性能堆积的。
比如H20只有H100的20%,那我就买5块H20,集群之后,就有H100的性能了吧,不过是投资多一点,对于企业而言,只要能解决问题,多花点钱,并不是什么大事。
同样的,如果从性能来看,华为的910B替代A100,甚至H100,或者B200也不是问题,性能不够,就数量来凑,一张不行,就10张,10张不行就100张,群集之后,算力就上来了。
真正难解决的,其实是生态,英伟达的GPU生态是CUDA,这个大名鼎鼎了。
目前全球众多的AI应用,AI模型,其实大多是基于CUDA训练出来的,如果没有CUDA生态,这些应用,AI模型,都用不了。
举个例子,就像编程一样,程序都是基于JAVA写的。突然告诉你,没有JAVA运行环境了,程序运行不了,你怎么办?要么你换一个环境,用C语言重新编写一遍。
但用C语言编一遍,相当于重新从0开始,更何况C语言一定就能够实现当初JAVA语言的一切功能,达到一样的效果么,还真不一定。
就比如你在windows操作系统下有CAD,切换到linux下,没有了CAD了,你要用,要么重新自己写一个出来,要么找替代品,但这个替代品,就有windows下的CAD好用么?那可不一定。
所以,说真的,国产GPU芯片要替代英伟达的芯片,硬件还真不是问题,芯片就算性能差一些,也是可以集群的,而CUDA生态才是关键。
不过好在,目前国产GPU厂商们,也意识到了这一问题,开始建设生态了,比如华为、海光都有了自己的生态,未来可期。