2025年7月24日  星期四
首页|必读|视频|专访|运营|制造|监管|大数据|物联网|量子|低空经济|智能汽车|特约记者
手机|互联网|IT|5G|光通信|人工智能|云计算|芯片|报告|智慧城市|移动互联网|会展
首页 >> 移动互联网 >> 正文

打造 “CPU+” 异构计算平台,Arm 灵活应对各类 AI 工作负载

2024年12月19日 11:54  CCTIME飞象网  

对于人工智能 (AI) 而言,任何单一硬件或计算组件都无法成为适合各类工作负载的万能解决方案。AI 贯穿从云端到边缘侧的整个现代计算领域,为了满足不同的 AI 用例和需求,一个可以灵活使用 CPU、GPU 和 NPU 等不同计算引擎的异构计算平台必不可少。

依托于 Arm CPU 的性能、能效、普及性、易于编程性和灵活性,从小型的嵌入式设备到大型的数据中心,Arm CPU 已经为各种平台上的 AI 加速奠定了基础。

就灵活性而言,这对生态系统大有裨益的三个主要原因是,首先,Arm CPU 可以处理广泛的 AI 推理用例,其中许多用例通常用于数十亿台设备,例如当今的智能手机、云和数据中心。不仅如此,除了推理之外,CPU 还经常用于技术栈中的数据预处理和编排等其他任务。其次,开发者能够在更多种类的数据格式中运行更广泛的软件,而无需构建多个版本的代码。最后,CPU 的灵活性使之成为加速 AI 工作负载的理想工具。

提供多样性和选择,助力行业灵活部署 AI 计算

除了 CPU 产品组合外,Arm 计算平台还包括 GPU 和 NPU 等 AI 加速器技术,许多市场都在将这些技术与 CPU 进行集成。

在移动端领域,Arm 终端计算子系统 (CSS) 包含 Armv9.2 CPU 集群,并与 Arm Immortalis-G925 GPU 集成,可为各种 AI 用例提供加速功能,包括图像分割、对象检测、自然语言处理和语音转文本等用例。在物联网 (IoT) 方面,Arm Ethos-U85 NPU 可与需要加速 AI 性能的基于 Arm Cortex-A 的系统一起设计,例如工厂自动化等场景。

此外,除了 Arm 自己的加速器技术外,合作伙伴借助 Arm 的 CPU 灵活定制具有差异化的芯片解决方案。例如,NVIDIA 用于 AI 基础设施的 Grace Blackwell 和 Grace Hopper 超级芯片均采用了 Arm CPU 和 NVIDIA 的 AI 加速器技术,从而显著提升 AI 性能。

NVIDIA Grace Blackwell 超级芯片将 NVIDIA 的 Blackwell GPU 架构与基于 Arm Neoverse 的 Grace CPU 相结合。Arm 独特的产品组合使 NVIDIA 能够进行系统级设计优化,与 NVIDIA H100 GPU 相比,其能耗降低了 25 倍,单个 GPU 性能提高了 30 倍。具体来说,得益于 Arm Neoverse 平台的灵活性,NVIDIA 能够实现自有的高带宽 NVLink 互连技术,并提升 CPU、GPU 和内存之间的数据带宽和延迟。

Arm 致力于通过 Arm 全面设计生态项目,为整个生态系统注入 AI 加速的机遇。通过该生态项目,开发者可以更快访问 Arm CSS 技术,赋能软硬件技术进步,以此驱动 AI 和芯片创新,并加快开发和部署 AI 优化的芯片解决方案。

Arm 架构满足 AI 所需的独特灵活性

Arm CPU 设计所具有灵活性关键在于 Arm 领先的架构。它提供了一个可以与 AI 加速器技术紧密集成的基础平台,并支持从 128 位到 2,048 位的各种向量长度,可以在许多不同的数据点上轻松执行多个神经网络。

Arm 架构的灵活性为整个芯片生态系统提供了多样化的定制机会,Arm 一直致力于帮助合作伙伴更快地构建自己的差异化芯片解决方案。这种独特的灵活性也使 Arm 能够不断进行架构创新,定期推出关键指令和功能来加速 AI 计算,进而惠及整个生态系统,其中包括领先的芯片合作伙伴,以及在 Arm 计算平台上构建应用的 2,000 多万软件开发者等。

这一切始于 Armv7 架构,该架构引入了高级单指令多数据 (SIMD) 扩展,例如 Neon 技术,这是 Arm 首次涉足机器学习 (ML) 工作负载。在过去几年中,该架构不断增强,Armv8 中增加了向量点积和矩阵乘法特性,之后在 Armv9 中又引入了 Arm SVE2 和新的 Arm SME 技术,为广泛的生成式 AI 工作负载和用例提高了计算性能并降低了功耗。

与 AI 加速器技术无缝集成

Arm 是 AI 时代的计算平台,推动了持续的架构创新,以满足速度更快、互动性更好和沉浸感更强的 AI 应用的发展。Arm CPU 作为灵活处理 AI 工作负载的异构计算方法中的一部分,可以无缝增强和集成 GPU 和 NPU 等 AI 加速器技术。

Arm CPU 是处理众多 AI 推理工作负载的实用之选,凭借出色的灵活性,它能够与加速器技术无缝集成,打造更强大、更高性能的 AI 功能,精准满足特定用例和计算需求。对于 Arm 的技术合作伙伴而言,出色的灵活性有助于实现丰富的定制选择,使他们能够为 AI 工作负载构建完整的芯片解决方案。

编 辑:T01
飞象网版权及免责声明:
1.本网刊载内容,凡注明来源为“飞象网”和“飞象原创”皆属飞象网版权所有,未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载,请必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和飞象网来源。
2.凡注明“来源:XXXX”的作品,均转载自其它媒体,在于传播更多行业信息,并不代表本网赞同其观点和对其真实性负责。
3.如因作品内容、版权和其它问题,请在相关作品刊发之日起30日内与本网联系,我们将第一时间予以处理。
本站联系电话为86-010-87765777,邮件后缀为cctime.com,冒充本站员工以任何其他联系方式,进行的“内容核实”、“商务联系”等行为,均不能代表本站。本站拥有对此声明的最终解释权。
相关新闻              
 
人物
中国移动副总经理张冬:5G扬帆开新篇,数智远航启新程
精彩专题
2024通信业年终盘点
2024数字科技生态大会
2024年度中国光电缆优质供应商评选活动
2024全球6G发展大会
CCTIME推荐
关于我们 | 广告报价 | 联系我们 | 隐私声明 | 本站地图
CCTIME飞象网 CopyRight © 2007-2024 By CCTIME.COM
京ICP备08004280号-1  电信与信息服务业务经营许可证080234号 京公网安备110105000771号
公司名称: 北京飞象互动文化传媒有限公司
未经书面许可,禁止转载、摘编、复制、镜像