芯片公司,都盯上了这个市场

由于芯片上搭载了神经引擎,苹果一直在宣传其最新款笔记本电脑和平板电脑已针对人工智能进行了优化。在即将召开的开发者大会上,苹果计划展示一系列新的人工智能功能,这些功能很可能会在该公司为iPhone提供支持的芯片上运行。

本文来自微信公众号“半导体行业观察”。

Nvidia 5月份上涨27%,市值达到2.7万亿美元,仅次于微软和苹果。该公司是全球市值最高的上市公司之一。受人工智能处理器需求飙升的推动,这家芯片制造商报告称,其销售额连续第三个季度同比增长三倍。

瑞穗证券估计,英伟达控制着用于训练和部署OpenAI的GPT等模型的AI芯片市场的70%至95%。英伟达的定价能力体现在78%的毛利率上,对于一家必须制造和运输实体产品的硬件公司来说,这是一个惊人的高数字。

竞争对手芯片制造商英特尔和AMD最新季度的毛利率分别为41%和47%。

一些专家将Nvidia在AI芯片市场的地位描述为护城河。其旗舰AI图形处理单元(GPU)(例如H100)与该公司的CUDA软件相结合,使其在竞争中占据了先机,以至于转向其他替代产品几乎是不可想象的。

尽管如此,英伟达首席执行官黄仁勋表示,他“担心”这家成立31年的公司会失去优势。黄仁勋的净资产在过去五年中从30亿美元飙升至约900亿美元。他在去年年底的一次会议上承认,许多强大的竞争对手正在崛起。

“我不认为有人想让我破产,”黄仁勋在11月表示。“我可能知道他们想这么做,所以这不一样。”

Nvidia承诺每年发布一种新的AI芯片架构,而不是像历史上那样每隔一年发布一种,并推出可以更深入地将其芯片嵌入AI软件的新软件。但Nvidia的GPU并非唯一能够运行生成式AI所依赖的复杂数学运算的GPU。如果性能较弱的芯片也能完成同样的工作,黄仁勋的担忧或许是有道理的。

从训练AI模型到所谓的推理(或部署模型)的转变也可能为公司提供替代Nvidia GPU的机会,尤其是当它们的购买和运行成本较低时。Nvidia的旗舰芯片售价约为40,000美元或更高,这给客户足够的动力去寻找替代品。

“Nvidia希望能拥有100%的市场份额,但客户并不想让Nvidia独享100%的市场份额,”竞争对手D-Matrix的联合创始人Sid Sheth说道。“这个机会太大了。如果任何一家公司全部占有,那就太不健康了。”

D-Matrix成立于2019年,计划在今年晚些时候推出一款用于服务器的半导体卡,旨在降低运行AI模型的成本和延迟。该公司于9月筹集了1.1亿美元。

除了D-Matrix,从跨国公司到新兴创业公司,各家公司都在争夺AI芯片市场的份额,据市场分析师和AMD称,未来五年,该市场的年销售额可能达到4000亿美元。过去四个季度,Nvidia创造了约800亿美元的收入,美国银行估计,该公司去年的AI芯片销售额为345亿美元。

许多采用Nvidia GPU的公司认为,不同的架构或某些权衡利弊可以产生更适合特定任务的芯片。设备制造商也在开发技术,最终可能为人工智能完成大量计算,而这些计算目前是在云端的大型GPU集群中进行的。

3Fourteen Research联合创始人Fernando Vidal向CNBC表示:“没有人会否认,如今Nvidia是人们训练和运行AI模型时最想要的硬件。但从开发自有芯片的超大规模企业,到设计自有芯片的小型初创公司,我们在公平竞争方面已经取得了一些进展。”

AMD首席执行官Lisa Su希望投资者相信该领域有足够的空间容纳许多成功的公司。

“关键在于有很多选择,”苏姿丰去年12月在公司推出最新款AI芯片时告诉记者。“我认为我们将看到不仅有一个解决方案,还会有多个解决方案。”

1

传统芯片厂商

AMD制造用于游戏的GPU,并像Nvidia一样,将其改造用于数据中心内的AI。其旗舰芯片是Instinct MI300X。微软已经购买了AMD处理器,并通过其Azure云提供对它们的访问。

在发布会上,苏姿丰强调了该芯片在推理方面的卓越表现,而不是与Nvidia竞争训练。上周,微软表示正在使用AMD Instinct GPU为其Copilot模型提供服务。摩根士丹利分析师认为,这一消息表明AMD的AI芯片销售额今年可能超过40亿美元,这是该公司公开的目标。

英特尔去年的收入被英伟达超越,目前该公司也在努力在人工智能领域占据一席之地。该公司最近发布了第三版人工智能加速器Gaudi 3。这一次,英特尔将其与竞争对手进行了直接比较,称其是一种更具成本效益的替代方案,在运行推理方面优于英伟达的H100,同时在训练模型方面速度更快。

美国银行分析师最近估计,英特尔今年在人工智能芯片市场的份额将不到1%。英特尔表示,该芯片的订单积压金额达20亿美元。

阻碍更广泛采用的主要障碍可能是软件。AMD和英特尔都加入了一个名为UXL基金会的大型行业组织,其中包括谷歌,致力于创建Nvidia CUDA的免费替代品,用于控制AI应用程序的硬件。

除了芯片对手以外,英伟达的客户也在自研芯片。

2

客户自研芯片

Nvidia面临的一个潜在挑战是它正在与一些最大的客户竞争。包括谷歌、微软和亚马逊在内的云提供商都在开发用于内部使用的处理器。三大科技公司加上甲骨文,占Nvidia收入的40%以上。

亚马逊于2018年推出了自己的人工智能芯片,品牌名称为Inferentia。Inferentia目前已推出第二版。2021年,亚马逊网络服务推出了针对训练的Tranium。客户无法购买这些芯片,但可以通过AWS租用系统,AWS将这些芯片宣传为比Nvidia的更具成本效益。

谷歌可能是最致力于自有芯片的云提供商。自2015年以来,该公司一直在使用所谓的张量处理单元(TPU)来训练和部署AI模型。今年5月,谷歌宣布推出其芯片的第六个版本Trillium,该公司表示该芯片用于开发其模型,包括Gemini和Imagen。

谷歌也使用Nvidia芯片并通过其云端提供这些芯片。

微软在这方面的进展并不快。该公司去年表示,正在开发自己的AI加速器和处理器,分别名为Maia和Cobalt。

Meta不是云提供商,但该公司需要大量计算能力来运行其软件和网站并投放广告。虽然Facebook母公司正在购买价值数十亿美元的Nvidia处理器,但它在4月份表示,其部分自主研发的芯片已在数据中心使用,并且与GPU相比具有“更高的效率”。

摩根大通分析师5月份估计,为大型云提供商打造定制芯片的市场价值可能高达300亿美元,并且每年的潜在增长率为20%。

3

初创芯片企业

风险投资家看到了新兴公司加入这一领域的机会。根据PitchBook的数据,他们在2023年向AI半导体公司投资了60亿美元,略高于一年前的57亿美元。

对于初创公司来说,这是一个艰难的领域,因为半导体的设计、开发和制造成本很高。但也存在差异化的机会。

对于硅谷的AI芯片制造商Cerebras Systems来说,重点是AI的基本操作和瓶颈,而不是GPU的通用性。据彭博社报道,该公司成立于2015年,在最近一次融资中估值为40亿美元。

该公司首席执行官安德鲁·费尔德曼(Andrew Feldman)表示,Cerebras芯片WSE-2将GPU功能以及中央处理和额外内存整合到单个设备中,这更适合训练大型模型。

“我们使用巨型芯片,而他们使用很多小芯片,”费尔德曼说。“他们面临着数据传输方面的挑战,而我们则没有。”

费尔德曼表示,他的公司包括梅奥诊所、葛兰素史克以及美国军方等客户,其超级计算系统正在与Nvidia竞争,赢得业务。

费尔德曼说:“竞争非常激烈,我认为这对生态系统来说是有利的。”

D-Matrix的Sheth表示,他的公司计划在今年晚些时候推出一款带有芯片的卡,这样就可以在内存中进行更多计算,而不是在GPU等芯片上进行计算。D-Matrix的产品可以与现有的GPU一起插入AI服务器,但它可以减轻Nvidia芯片的工作量,并有助于降低生成AI的成本。

Sheth说,客户“非常乐于接受新解决方案,并且非常愿意推动其进入市场”。

4

苹果和高通是X因素

Nvidia数据中心业务面临的最大威胁可能是处理位置的改变。

开发人员越来越多地押注人工智能工作将从服务器场转移到我们拥有的笔记本电脑、个人电脑和手机。

OpenAI开发的大型模型需要大量强大的GPU集群进行推理,但苹果和微软等公司正在开发“小型模型”,这些模型需要的电量和数据更少,可以在电池供电的设备上运行。它们可能不如最新版本的ChatGPT那么熟练,但它们还可以执行其他应用,例如摘要文本或视觉搜索。

苹果和高通正在更新他们的芯片以更有效地运行人工智能,为人工智能模型添加专门的部分,称为神经处理器,这可以具有隐私和速度优势。

高通最近发布了一款PC芯片,可让笔记本电脑在设备上运行微软的AI服务。该公司还投资了多家芯片制造商,生产低功耗处理器,以便在智能手机或笔记本电脑之外运行AI算法。

由于芯片上搭载了神经引擎,苹果一直在宣传其最新款笔记本电脑和平板电脑已针对人工智能进行了优化。在即将召开的开发者大会上,苹果计划展示一系列新的人工智能功能,这些功能很可能会在该公司为iPhone提供支持的芯片上运行。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论