AI PC 之争:Microsoft 的 NPU 执念与 Nvidia 的 AI PC 野心

The Register
微软推出Copilot+PC标准,要求配备高性能NPU,引发AI PC市场格局变化。英伟达虽在数据中心AI领域占主导,但在PC端面临挑战。

本文来自至顶网(ai.zhiding.cn),来源 | The Register。

微软推出Copilot+PC标准,要求配备高性能NPU,引发AI PC市场格局变化。英伟达虽在数据中心AI领域占主导,但在PC端面临挑战。文章分析了英伟达的AI PC策略、NPU与GPU的竞争关系,以及未来GPU可能在Copilot+功能中发挥作用的前景。

在AI基础设施领域,特别是在数据中心方面,Nvidia无疑是无可争议的冠军。然而在新兴的AI PC领域,情况并非如此明朗。

2024年初,很明显Windows的未来将融入AI增强功能和体验。主要特性包括实时字幕和翻译、MS Paint中的图像生成,以及后续推出的略显争议的Recall功能(通过定期截屏来追踪过往活动)。

目前,这些新功能仅限于所谓的Copilot+PC,而要获得这一认证,计算机必须满足Microsoft的最低性能要求。

根据Microsoft的文档,Copilot+PC需要一个capable 40 TOPS以上(每秒可进行超过40万亿次INT8 AI运算)的神经处理单元(NPU),同时配备至少16GB内存和256GB存储。在功能推出之初,只有Qualcomm的处理器能够满足Redmond的NPU要求,因此只有搭载该芯片的PC才能作为Copilot+PC运行上述AI增强功能。

此后,除了Qualcomm符合要求的Arm兼容X芯片外,Intel的Lunar Lake和AMD的Strix Point及Halo处理器系列也获得了Copilot+PC认证。

然而,即使是本月在CES 2025上发布的售价2,000美元、具有超过3.3 petaFLOPS AI算力(FP4)的Nvidia RTX 5090,对Redmond来说仍然不够格。不管你的GPU能产生多少FLOPS或TOPS,目前在Microsoft眼中,只有NPU才算数。

Nvidia在AI PC领域并非无所作为

虽然AI PC的营销炒作多围绕Microsoft的Copilot+规范展开,这也可以理解。目前几乎所有PC都运行Windows。Microsoft在PC软件生态系统的主导地位使其对NPU的执着难以忽视,但这并不意味着Nvidia一直在数据中心、工作站图形和独立游戏GPU领域安于现状。

事实上,据Nvidia Windows AI产品营销负责人Jesse Clayton告诉The Register,Nvidia多年来一直致力于将AI功能引入PC。

"我们在2018年就开始了PC上的AI运动,当时我们推出了首款带有专用AI硬件——tensor核心的GeForce GPU和Nvidia GPU,"Clayton说。"随后,我们宣布了首个广泛部署的PC AI——DLSS,它在游戏中使用AI生成像素和帧来提高帧率。"

自那以后,GPU巨头推出了RTX AI Toolkit(用于优化和部署Windows PC上的生成式AI模型的工具和软件套件),将Nvidia Inference Microservices(NIMs)引入PC,并推出了多个蓝图,用于最先进的图像生成和将PDF转换为播客等功能。

"我们的策略是在能够提供有趣和差异化体验的地方,无论是通过增强游戏玩家的游戏体验,还是通过为创作者节省时间并减少重复性工作,"Clayton解释道。

虽然一些体验直接面向终端用户(如ChatRTX和RTX Voice),但Nvidia最近推出的许多软件都针对开发者社区。

竞争还是机遇?

无论如何评价Copilot+的实际价值,Microsoft已成功促使芯片设计商提供满足其要求的NPU,同时为机器学习性能设立了新的最低标准。

考虑到Windows的市场份额以及Microsoft持续将AI融入其软件各个角落的努力,NPU迟早会渗透到最基础的预算配置中。

此外,Microsoft的DirectML和ONNX Runtime等框架的采用简化了应用程序开发,使代码能够在各种硬件上运行,只需最少的重新调整。

这对Nvidia构成了潜在挑战。这家硅谷巨头可能主导着独立显卡市场,但其GPU仅占所售PC的约18%,绝大多数系统使用Intel、AMD或其他厂商的集成显卡。

有观点认为,在不久的将来,NPU将成为开发AI应用的更大目标。虽然Nvidia不会被排除在对话之外,因为其加速器也支持许多流行的软件框架,但其部分竞争优势在于说服开发者使用其库和微服务,这些服务承诺更易集成、性能更高、效率更好。

最终,Clayton表示,开发者将需要决定是要使用NIMs等工具快速将应用推向市场,还是要支持最大可能的安装基数。

但是,虽然Nvidia最终可能面临来自NPU的竞争——AI PC仍是一个相当小众的市场——这并不一定都是坏消息。即使模型最终不在Nvidia的PC硬件上运行,它们很可能是在其GPU上训练的。

即便如此,Clayton认为NPU并不适合所有工作负载。40 TOPS是相当可观的算力,但如前所述,与高端显卡的性能相比仍相形见绌。

"NPU适合运行轻量级AI工作负载,它们的能效很高,"他说。"GPU则适合运行更具挑战性的AI用例,这也是我们一直推进和关注的方向。"

"对于简单无法在PC上运行的任务,你可以在云端的GPU上运行,那里有实际上无限的性能,"Clayton补充道。

GPU可能最终也会获得Copilot+支持

已经有迹象表明,Microsoft可能会扩展部分Copilot+功能到GPU,以支持更具计算挑战性的工作负载。

Microsoft没有回应我们关于其利用GPU计划的问题。然而,在去年6月的一份声明中,Nvidia表示正与Microsoft合作,通过Windows Copilot Runtime为小型语言模型(SLMs)添加GPU加速。

这项技术原计划在2024年底推出,但Microsoft自己的文档(最后更新于12月5日)并未提及GPU,并特别指出其尚未推出的Phi Silica项目需要NPU来运行SLM。

Clayton拒绝就这项合作提供任何更新,称"最终由Microsoft决定在哪里运行哪些工作负载。"

Microsoft是否以及何时选择接纳GPU用于本地AI,可能最终取决于硬件的可用性。截至目前,配备独立显卡的NPU Copilot+PC数量相当有限。

在台式机方面,情况更为棘手。虽然确实存在带有NPU的台式机芯片,但据我们所知,没有一款满足Microsoft 40 TOPS的性能要求。我们预计不久后会有更强大的NPU进入台式机芯片。只需Intel或AMD找到方法将其移动芯片中的NPU压缩到台式机形态即可。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论