欢迎访问
AI芯片不是一味追求高性能,低能耗才是AI芯片的主流
2024-05-21 来源:贤集网
662

关键词: 人工智能 芯片 晶圆

5月16日,日本晶圆代工初创企业Rapidus宣布与美国RISC-V架构芯片设计企业Esperanto签署了谅解备忘录,双方将就面向数据中心的人工智能(AI)半导体研发展开合作,共同开发低功耗AI芯片。

当前,尽管GPU缺货问题逐渐缓解,但电力供应成为了AI浪潮发展过程中出现的又一瓶颈。

业内人士指出,CPU和GPU在促进人工智能市场的繁荣方面发挥了关键作用。然而,最新芯片不断增加的功耗正在引发近期危机。例如,预计到2027年,生成式AI处理所消耗的能源将占美国数据中心总用电量的近80%。

数据中心是电力需求增长的重要驱动力。随着以生成式AI为代表的人工智能时代到来,高性能计算芯片所需的功率不断增加,推升数据中心的耗电量亦同步提升。

资料显示,Esperanto是一家大规模并行、高性能、高能效计算解决方案设计企业,此前曾推出一款采用台积电7nm制程打造的ET-SOC-1的RISC-V架构众核AI/HPC加速芯片。而Rapidus一家成立于2022年8月的晶圆代工厂商,由丰田、Sony、NTT、NEC、软银、Denso、NAND Flash大厂铠侠、三菱UFJ等8家日企共同出资设立。其位于北海道千岁市的第一座工厂“IIM-1”已于2023年9月动工,预计2025年4月开始运行试生产线,并引进EUV光刻机等设备。Rapidus的目标是在2027年量产2纳米米以下最先进逻辑芯片。

而此次Rapidus与Esperanto合作的最初重点就是使未来的半导体设计人员能够为数据中心和企业边缘应用的人工智能推理和高性能计算工作负载开发更节能的解决方案。这将有助于缓解全球数据中心能源消耗的不可持续增长。


Meta推出超低功耗AI芯片"

Meta去年宣布推出了一款定制芯片,被称为MTIA,旨在加快生成式AI模型的训练。这是Meta首次推出的AI定制芯片,被列为加速AI训练和推理工作负载的芯片“家族”之一。

MTIA,即Meta训练和推理加速器,是一款ASIC芯片,采用开源芯片架构RISC-V。与主流芯片厂商的产品相比,MTIA芯片的功耗仅为25瓦,大幅降低了能耗。Meta称,他们在2020年设计了第一代MTIA芯片,采用了7纳米工艺。第一代芯片的目标是提高推荐模型的效率,这些模型用于广告和其他新闻推送内容。在Meta设计的基准测试中,第一代MTIA芯片处理低等和中等复杂度的AI模型时,比GPU效率更高。

Meta的软件工程师Joel Cohurn在介绍新芯片时表示,Meta最初使用图形处理单元(GPU)执行推理任务,但发现GPU在这方面并不适合。虽然通过GPU可以对软件进行优化,但在处理真实模型时效率较低,配置上也面临困难和高成本的问题。因此,Meta推出了MTIA芯片。

Meta承认,在处理高复杂度的AI模型时,MTIA芯片还面临一些问题,但指出在中低复杂度的模型处理方面,它比竞争对手的芯片更加高效。

Meta表示,目前MTIA芯片主要应用于Meta应用家族的推理,而非训练任务。然而,Meta强调MTIA芯片大大提高了单位瓦特的推荐负载运行效率,使公司能够运行更强大、更先进的AI工作负载。

虽然Meta在周四的公告中没有透露配置新芯片的具体时间表,也没有提到开发可能用于训练模型的芯片的计划,但同时Meta还宣布计划重新设计其数据中心,针对以AI为核心的网络和冷却系统进行改进。据称,今年将开始建设首个相关数据中心的设施,新设计的成本将降低31%,

建造速度也将是目前数据中心的两倍。


英伟达新AI芯片高算力低能耗,明年成主流

英伟达(NVIDIA)在GTC大会推出Blackwell架构的AI芯片B100、B200及GB200等,不仅效能大幅提升,成本与能耗同步优化,市调机构TrendForce预期,B200等产品有望在2024年底陆续上市,并于2025年成为市场主流。

TrendForce 指出,Blackwell AI服务器架构平台是今年GTC大会亮点产品,以第2代Transformer引擎与第5代NVLink技术,可支持高达10兆参数模型的AI训练与即时大型语言(LLM)推理。

据英伟达表示,Blackwell架构绘图处理器(GPU)配备2080亿个电晶体,采用台积电定制化4纳米制程制造,透过每秒10TB的芯片到芯片互连连接成单个GPU,利用4位浮点AI推论能力支持加倍地运算。

英伟达指出,最新版本的NVLink提供每个GPU每秒8TB的双向吞吐量,确保在复杂的大型语言模型中,实现576个GPU间无缝高速沟通。

英伟达表示,GB200 NVL72系统串联72个BlackwellGPU和36个Grace中央处理器(CPU),相较于H100Tensor Core GPU,GB200 NVL72可提供30倍的大型语言模型推论工作负载效能,并大幅降低成本和能源消耗。


光芯片开启低耗高速计算

来自美国宾夕法尼亚大学、诺基亚贝尔实验的研究团队提出了一种新型 AI 芯片——利用光波进行复杂数学运算,从而提升计算机处理速度并降低能耗。这一研究成果有望为解决当前芯片能耗问题带来新的可能。

相关研究论文以“Inverse-designed low-index-contrast structures on silicon photonics platform for vector-matrix multiplication”为题,已发表在 Nature 子刊 Nature Photonics 上。

该论文的通讯作者、本杰明·富兰克林奖章获得者、宾夕法尼亚大学 H. Nedwill Ramsey 教授 Nader Engheta 表示,由于生产芯片的商业代工厂的限制,这种设计已经可以用于商业应用,并有可能被改装用于图形处理器(GPU)。“它们可以采用硅光子公司的平台作为附加组件,这样就可以加快训练和分类的速度。”

此外,Engheta 教授也表示,除了速度更快、能耗更低之外,这种硅光子芯片还具有隐私方面的优势:由于许多计算可以同时进行,因此无需在计算机的工作内存中存储敏感信息,这使得未来采用这种技术的计算机几乎无法被黑客攻击。


低功耗已成新型芯片必备特点

近年来,为应对 AI 算法的快速发展和应用需求,学界、业界在 AI 芯片领域已经取得了一些重要进展,主要集中在提升计算性能、降低能耗、增强硬件智能等方面。

1. 基于 GPU 的加速器:GPU 加速器已成为 AI 计算的主流选择之一。通过利用 GPU 的并行计算能力,可以大幅提升 AI 算法的运行速度。近年来,为满足人工智能应用的需求,NVIDIA 等公司不断推出性能更强大、功耗更低的 GPU 产品。

2. ASIC 芯片的发展:ASIC(专用集成电路)芯片是针对特定应用场景进行定制设计的芯片,具有性能高、功耗低的特点。近年来,一些公司推出了针对 AI 算法优化的 ASIC 芯片,如 Google 的 TPU(Tensor Processing Unit)和 NVIDIA 的 Tesla 系列。这些芯片在深度学习算法的训练和推理等方面表现出色,在性能上取得了显著的提升。

3. FPGA 芯片的应用:FPGA(现场可编程门阵列)芯片具有灵活性高、功耗低的特点,适合用于加速 AI 算法的运行。一些研究团队正在探索如何利用 FPGA 芯片实现深度学习算法的加速。通过对算法进行硬件优化和并行化设计,可以在 FPGA 芯片上实现较高的性能和能效比。

4. 神经形态芯片的研究:神经形态芯片是一种模仿生物神经网络结构和工作原理的新型芯片。它具有并行性强、能耗低的特点,适合用于实现智能感知和学习功能。一些研究机构和公司正在开展神经形态芯片的研究,试图实现更加智能化的 AI 计算设备。

然而,新型芯片从诞生到成熟应用,还有很长的路要走。

未来,新型芯片仍需要进一步提升其计算性能和能耗效率,实现更高效的数据处理和智能计算。此外,加强新型芯片与现有计算平台和设备的兼容性,实现系统级集成。而且,新型芯片也需要与各个领域融合,包括自动驾驶、医疗健康、智能制造等。



Baidu
map