AI服务器:供应链的救世主

人工智能驱动的需求激增促使研究机构修改了他们的估计。据行业研究公司TrendForce预测,2023年AI服务器(包括搭载GPU、FPGA、ASIC等)的出货量预计将达到近120万台,同比增长38.4%,占服务器总出货量的近9%。TrendForce甚至将2022年至2026年AI服务器出货量复合年增长率上调至29%。

360截图16251112669372.png

本文来自微信公众号“半导体产业纵横”。

AI服务器成为2023年行业“救世主”的原因有两个。

英伟达强劲的财务报告揭示了人工智能对科技行业的真正影响,尤其是在人工智能服务器供应链中。

人工智能驱动的需求激增促使研究机构修改了他们的估计。据行业研究公司TrendForce预测,2023年AI服务器(包括搭载GPU、FPGA、ASIC等)的出货量预计将达到近120万台,同比增长38.4%,占服务器总出货量的近9%。TrendForce甚至将2022年至2026年AI服务器出货量复合年增长率上调至29%。

那么,AI服务器与传统服务器的区别是什么?

AI服务器确实是整个服务器市场的一部分,但它们是专门为基于云的AI模型训练或推理而设计的。在规格方面,广义的AI服务器是指搭载AI芯片(如前面提到的GPU、FPGA、ASIC)的服务器,而狭义的定义则包括至少搭载一块GPU的服务器。

AI服务器成为2023年行业“救世主”的原因有两方面。首先,今年以来各终端市场表现明显疲软,就连此前稳定的服务器市场也出现了低迷。对昂贵的AI服务器的需求激增不仅引起了轰动,还直接推动了整个行业的收入增长。

据TrendForce预估,今年AI服务器出货量将占服务器市场总出货量的9%,预计到2026年将达到15%。单价方面,AI服务器的价格约高出15至20倍。云服务提供商传统上使用的服务器。对计算能力、电源管理和改进的冷却技术的需求增加直接促进了服务器组件的使用。

说到AI服务器的关键部件,包括GPU、CPU、内存、智能网卡、机箱、主板、散热系统、电源、组装测试等。从成本角度来看,GPU仍然是最关键的部分,约占总成本的70%,而散热系统、电源和外壳等组件所占比例不到1%。

虽然GPU龙头供应商英伟达在成本上是最大赢家,但元器件使用量增加、规格与技术升级,仍让台系供应链获益,在服务器产业扮演重要角色。

从上游产业来看,最大的受益者是为英伟达代工的台积电。电源供应器方面,AI服务器的需求较以往高出两至三倍,这无疑为台达、光宝等电源供应器厂商带来利好消息。

虽然冷却系统占总成本的比例不到1%,但它们对AI服务器的运行至关重要,促使主要服务器供应商在该领域投入巨资。目前,AI服务器散热解决方案的领先供应商包括Auras Technology、AVC Technology和Sunon,它们提供3D Vapor Chamber(VC)技术。在组装和制造方面,主要参与者是广达、英业达、富士康、纬创、Wiwynn、AMD和技嘉等传统服务器供应商。

TrendForce分析师Frank Gong表示,近年来,服务器行业不断走向标准化,服务器供应商也面临来自客户的压力,要求其供应链多元化。然而,随着人工智能服务器需求的大幅增长,不仅带动了收入增长,也为企业提供了展示其在人工智能服务器领域技术优势的机会。此外,人工智能服务器设计的高复杂度和定制化需求的大幅上升,使得客户粘性得到提升,受到供应链的欢迎和期待。

推理型服务器将逐渐成为全球AI服务器的主流。在生成式大模型发展早期,AI服务器需求以模型训练为主,因而训练型服务器占据市场主体地位。随着后续生成式AI应用的快速发展,AI服务器将主要满足数据的分析及模型输出需求,因而推理型服务器将逐渐成为市场主流。根据IDC统计,2021年全球AI服务器市场中57.33%为训练型服务器,但预计在2024年推理型服务器市场规模将首次超越训练型服务器,在2026年推理型服务器的市场占比将达到53.01%,与训练型服务器的份额差距将持续拉开。

加速计算AI服务器更符合大规模AI运算的需求,成为AI服务器的主流选择。加速计算AI服务器是指拥有一个或多个协处理器的AI服务器,包括GPGPU、FPGA或ASIC协处理器,其更适合处理规模越来越大、算法越来越复杂的深度学习AI模型,因而已经成为目前AI服务器的主流选择。主要使用CPU进行运算的非加速计算AI服务器的市场规模仍将有一定增长,但其主要用于小型人工智能模型的推理以及部分训练负载。根据IDC统计,2021年全球AI服务器中加速计算AI服务器市场规模为91亿美元,2026年将增长至245亿美元,期间年复合增速为22%,同期非加速计算的AI服务器市场规模的年复合增速仅为9.3%。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论