欢迎访问
英伟达独占AI“入口”,微软也想分羹,边缘AI芯片成重要“催化剂”
2023-05-05 来源:华尔街见闻
1106

关键词: 英伟达 AI 芯片

据北京大学官网,该校人工智能研究院在面向边缘AI的可转置存内计算芯片方向研究取得重要进展,该研究团队提出了一种可同时实现高能效模型推断前馈计算与训练反向传播计算的可转置存内计算电路设计,该方案能够直接在边缘端完成神经网络的重训练。

报道表示,研究团队在基于28nm标准的芯片原型验证该技术,前馈计算时的能效和反向传播计算能效均达到世界先进水平,该技术为边缘端智能提供了低功耗、高鲁棒性的AI加速器解决方案。




边缘AI是传统云端算力的补充

随着以ChatGPT为代表的AIGC(人工智能技术生成内容)应用大量兴起,算力需求大增,同时需要更多的网络带宽成本。此前由于算力资源缺口问题,ChatGPT官网一度停止Plus付费项目的购买,还频频下调提问限制次数。

传统的云计算模型通常将大量的数据传输到数据中心进行处理,然后再将结果返回到用户设备。这种传统的云计算模型可能存在延迟高、网络带宽消耗大、对隐私和安全性的担忧等问题。

边缘AI运行在边缘设备上,不需要将数据上传云端来计算。相较于云端AI,边缘AI具有低延迟、高安全性、高可靠性、保护用户隐私等优势。国盛证券表示,由于算力爆发下产生的海量数据传输需求,完全依靠IDC(互联网数据中心)提供中心化算力支撑乃是效率较低的选择,在此背景下,边缘计算便成为了传统云端算力的很好补充。

由于边缘AI的优势,科技巨头已将目光盯上。华为、高通均推出边缘AI产品。今年3月,高通中国在安卓手机上首次演示了模型参数超过10亿的Stable Diffusion;华为将发布智慧搜图功能,该功能通过对模型进行小型化处理 。

中信证券表示,华为与高通一定程度上验证了高性能边缘AI的可行性,并且表明通过模型压缩+联网智能的方式有望在边缘端实现AI大模型的体验。

除了巨头角逐,边缘AI应用场景持续丰富。4月初,天猫精灵接入GPT大模型;4月11日,美国智能眼镜开发商推出可以为智能眼镜用户提供ChatGPT的语音服务。

国盛证券表示,大模型将大幅提升智能硬件的使用体验,同时智能硬件本身也将成为愈发重要的AI入口。当前随着物联网模组迈入“智能化”时代,集成了边缘算力的“智能模组”,正在逐渐成为支撑硬件智能化与边缘算力的核心形式。


微软与AMD联手对抗英伟达

在AI热潮中,微软正筹备和AMD联手,自研AI芯片。

据媒体援引知情人士的话说,微软正在提供财务支持以加强AMD研发AI芯片的努力,并与之合作开发代号为Athena的自研AI芯片,这是微软在自研AI芯片方面多管齐下、多重下注的一部分。

有分析认为,此举反映了微软对芯片行业的介入持续深化。在过去几年里,该公司一直在英特尔前高管Rani Borkar的领导下建立一个芯片部门,该部门目前拥有近1000名员工。据其中一位知情人士称,其中数百名员工正在从事Athena项目,微软已在该项目上投入了约20亿美元。

但这并不预示着微软和英伟达的分裂。微软打算与英伟达保持密切合作,该公司的芯片是训练和运行AI系统的主力军。微软还试图获得更多英伟达芯片,这凸显了微软和其他公司面临的AI芯片的紧迫短缺。



4月中旬,据媒体援引两位知情人士的话说,微软早在2019年就开始开发内部代号为Athena的AI芯片。其中一位知情人士称,一些微软和OpenAI的员工已经开始测试并使用这些芯片。微软希望该芯片的性能优于目前从其他供应商处购买的芯片,从而节省其在昂贵的AI业务上的时间和成本。

微软的这些芯片专为大型语言模型等训练软件而设计。在当前,市场上所使用的AI芯片几乎全部来自英伟达,而受制于产能的限制,英伟达的AI芯片时常短缺而且价格昂贵,这迫使微软等公司生产自己的AI芯片。微软曾表示,为了支撑ChatGPT,需要数千块英伟达的AI芯片。

AMD如今已经是微软以及其他云服务商,如谷歌和甲骨文的芯片供应商。AI芯片领域也是AMD的一个关键优先事项。

AMD首席执行官Lisa Su在本周二的电话会上说:我们对AI领域的机会感到非常兴奋——这是我们的首要战略重点,我们正处于AI计算时代的早期阶段,其采用和增长速度比近代以来任何其他技术都要快。

Su还表示,AMD有机会为其大客户制造部分定制的芯片,以用于他们的AI数据中心。

知情人士说,即使该项目制定了时间表,日后推出的第一版芯片也只是一个起点。制造一个好的芯片需要数年时间,而英伟达已经取得了巨大的领先优势。英伟达是许多生成式AI供应商的首选芯片供应商,包括亚马逊公司的AWS和谷歌云,马斯克也已经为其刚刚起步的AI业务买下了一万个英伟达的AI芯片。

微软并不是唯一一家尝试开发自己的AI芯片的公司。微软在云计算领域的竞争对手亚马逊于2016年收购了Annapurna Labs,并开发了两种不同的AI芯片;谷歌母公司Alphabet也有自己的训练芯片。


AI芯片分工生变,云端推理加速转移

据外媒semianalysis报道,ChatGPT每天在计算硬件方面的运营成本为694444美元,Open AI需要大约3617台HGX A100服务器(28936个GPU)为ChatGPT提供服务。真正需要用云端芯片进行推理的需求增加,云端无法承受如此庞大的数据和工作量,如果能够将AI云端芯片的处理工作向边缘侧转移,或许将为大模型的训练和推理释放更多的计算空间。

与此同时,用户需求也在改变着典型的AI芯片分工方式,一方面消费者希望保护个人数据隐私,即将终端数据保留在终端设备上,另一方面,消费者又需要可靠的数据,并即时获得处理结果,数据不断从边缘侧产生,AI处理的重心正在持续向边缘转移。

因此,将推理工作转移至边缘侧终端完成也成为不少企业为之努力的目标和趋势。高通就在推升终端侧的推理能力方面有着出色表现。

雷峰网了解到,高通正在采取不同的方式实现终端侧的学习能力,对包括小样本学习、无监督持续学习、联邦学习和低复杂度的终端侧训练等方向的研究,且已经取得了一些成效。

通过小样本学习,在关键词识别方面,AI能够“看完”某一人的笔迹或书面文字之后快速进行辨认,也能在用户录入数据时进行局部模型适应,凭借少量样本数据和数据标记能力,提升关键词识别能力。

在联邦学习方面,云端创造的模型被下发到边缘侧终端之后,基于一定程度的离线学习,终侧端就可以根据消费者实际情况调整模型,由于终端侧学习的过程会产生噪音,因此还能将其回传到云端进一步提升模型的泛化能力。在实际的应用场景中,如果一辆汽车不断在多个国家的不同路况上行驶,云端模型就可以持续进行适应,假以时日模型经过优化,就能打造出更加优秀的自动驾驶汽车模型。



为了让AI在终侧端发挥最大作用,高通也有针对性的技术创新。

例如,高通支持INT4的精度推理。INT4相比INT8能够实现60% 的能效提升和90%的AI推理速度提升,如果从INT8转化到INT4、或从浮点计算转化到整数计算,在同样的算力下能够处理更多的数据。如果将32位浮点模型转化为INT4模型,能效甚至能够提升到64倍。


国产芯片水平提高,推动行业高速增长

人工智能是引领新一轮科技革命和产业变革的战略性技术。我国把人工智能放在国家战略层面,出台了一系列重要政策鼓励支持人工智能的发展。《新一代人工智能发展规划》明确指出了到2030年我国新一代人工智能发展“三步走”的战略目标。十四五规划中明确提出“推动互联网、大数据、人工智能等同各产业深度融合”。因此,在国家战略引领与政策支持下,我国人工智能行业正面临重要的发展机遇,将推动AI芯片行业不断发展。

当前,我国正加速推进5G基站、人工智能、工业互联网等新型基础设施建设,由于AI芯片是人工智能技术和产业发展的重要支撑,预计未来将催生大量高端芯片、专用芯片的需求,AI芯片行业将迎来新一轮的高速增长阶段。同时,国产AI芯片发展水平的不断提高将为中国企业人工智能顶层应用的算法效果及落地成本赋能。

中国公司的数字化转型将带动AI芯片需求的增长,以支持高效处理海量数据,从而推动AI芯片行业的快速发展和持续创新。目前,随着数字化时代的到来,高级AI芯片、专用AI芯片将存在广阔的应用市场,需求不断增加,预计AI芯片行业将迎来又一个快速发展阶段。



Baidu
map