本文来自刘旷。
随着人工智能技术的快速发展,大模型以其强大的数字处理能力和深度学习能力,不断与各领域交叉融合,逐步成为产业创新的关键抓手,和驱动新质生产力的关键引擎。据国家最新公布的数据显示,截至今年3月,我国共有117个生成式人工智能服务完成备案,各类国产大模型,更是超过了200多个,多模态的大模型应用场景正在不断拓展。
然而,随着大模型的快速发展,算力成本日益成为影响人工智能推广应用的重要因素,大模型产品的价格居高不下,更是长期制约着人工智能应用的发展。近日,随着字节跳动率先将大模型的使用价格,调低至“厘”时代,百度、阿里、腾讯等巨头纷纷跟进,迅速将大模型推至免费时代。
大模型免费时代加速到来
5月15日,火山引擎云服务平台,发布了国内首批通过算法备案的“豆包大模型”,主力模型,仅需0.8厘就能处理1500多个汉字,比行业价格低99.3%,带动大模型企业市场定价,从“以分计价”步入“以厘计价”时代,助力企业以更低成本加速业务创新。在字节跳动打响大模型降价第一枪之后,随后百度、阿里纷纷跟进。
5月21日上午,阿里云方面宣布,通义千问GPT-4级主力模型Qwen-Long的API输入价格降至0.0005元/千Tokens,直降97%。随后,百度通过官方微信发文称,文心大模型两款主力模型ENIRE Speed和ENIRE Lite全面免费。一个降价一个免费,阿里云和百度智能云的降价行为表明,国内大模型科技公司开启了价格比拼模式。
一方面,价格战有利于巨头抢占更多客户资源,从而迅速扩大市场份额,使其在市场竞争中保持领先地位。随着大模型用户和场景的不断扩大,模型调用价格的主要趋势是,性能不断提升、价格不断下降。而随着算法调用价格下降,算法使用成本也将进一步下降,这将推动大模型进入快速增长时代,促进大模型产业加快发展。目前来看,相比技术与实力都比较雄厚的百度、阿里而言,字节跳动率先开启价格战,本质上还是希望借此机会实现“弯路超车”。而百度、阿里、腾讯选择跟进,很明显是不甘落后,更不愿意将市场拱手让人。
另一方面,随着大模型产业的快速发展,推理成本飞速下降,也成为终端降价的基础。据百度官方透露,相比一年前,文心大模型的算法训练效率提升到了原来的5.1倍,周均训练有效率达到98.8%,推理性能提升了105倍,推理的成本降到了原来的1%。也就是说,客户原来一天调用1万次,同样成本之下,现在一天可以调用100万次。
在业内人士看来,降低成本是推动大模型快进到“价值创造阶段”的一个关键因素,并且只有大的使用量,才能打磨出好模型,也能大幅降低模型推理的单位成本。因此,大模型的降价,不能只是停留在提供低价的轻量化版本,而是让主力模型和最先进的模型也足够便宜,才能真正满足企业的复杂业务场景需求,验证大模型的应用价值,推动AI应用创新和价值创造。随着头部厂商纷纷参与大模型“降价”,大模型的真正免费时代或许正在加速到来。
AI基建竞赛进入拼应用阶段
在AI风口之下,作为AI基建的云服务商们,去年还主要聚焦大模型产品,今年大厂的竞争点,已不再局限于技术,现在更重要的是价格,以及具体的落地场景。
首先,巨头都在加大开源力度,以扩大自身大模型生态影响力,扶持更多AI原生应用创新。5月9日,阿里云正式发布通义千问2.5,宣布模型性能全面赶超GPT-4Turbo,成为地表最强中文大模型。在阿里云AI峰会上,阿里云首席技术官周靖人介绍,阿里云大模型API日调用量已经过亿;除了日常2C应用外,也服务了9万家企业客户,目前通义开源模型下载量已超过700万。
同样选择对外开源的还有腾讯混元文生图大模型。5月14日,腾讯宣布其旗下混元文生图大模型全面升级,并对外开源。这也是首个中文原生的类Sora架构开源模型,支持中英文双语输入及理解,参数量15亿。放眼市场,当下的文生图开源生态,比如Stable Diffusion基本围绕英文语义理解,要先把中文翻译成英文才能生成图片。腾讯混元文生图大模型的出现,打破了这一现状,让文生图生态更了解中文。
事实上,腾讯的大模型应用,已经具有显著的产品思维。自去年9月份腾讯混元大模型上线以来,腾讯采取的就是“大模型全家桶”的策略,目前其内部已经有超过400多个业务接入了腾讯混元大模型。比如,在混元大模型之后,既可以是微信读书的“AI问书”,也可以是腾讯会议的“AI小助手”。看得出来,互联网巨头们在做开源的同时,正在试图用自身的AI应用,为其他合作者们打个样。
其次,通过大模型工程优化,加速大模型推理成本降低,从而推动大模型大规模降价,以繁荣应用场景落地。以前的推理模型,大多采用的是单机推理,大模型用的是分布式推理。比如,如今业内很多公司都在使用MoE架构模型,而MoE架构中基于多个专家并行机制,推理时只激活部分专家,即可以极大压缩参数量和推理成本。事实上,为了让用户可以低成本地使用AI,并推动应用的发展,降价已经成为了国内大模型厂商的共识了。
今年2月份,阿里云宣布全线下调云产品官网售价,平均降价幅度超过20%,最高降幅达55%,涉及100多款产品、500多个产品规格。4月份,阿里云将降价策略扩大至海外公有云产品。大厂们之所以打起价格战,是因为大模型价格越低,使用的人越多;使用量越大,大模型才能被调用得越来越好。简言之,价格力的出现,才能推动大模型更好地落地。
大模型棋至中局
自ChatGPT横空出世以来,大模型的火热有目共睹。面对大模型带来的技术革命,不仅仅是微软、谷歌、百度、字节等大厂下场做大模型,众多与AI相关的创业公司也在持续涌现,业内更是出现了百川智能、月之暗面、MiniMax、智谱AI等AI四小龙。随着大厂下调API价格,包括新AI四小龙在内的创投公司,都将面临全新的考验。
一方面,以BAT为首的云服务商,成为了“降价主力军”,直接对以出售B端API为生的中小创业公司产生严重冲击。在业内专业人士看来,本轮大模型降价的目的,不是为了用户直接使用,而是为了吸引开发者。因为短期来看,大模型的性能遇到了瓶颈,当下无论哪一家,都拿不出新的杀手锏,降价自然就成了优先级最高的选项。
因为现在各大模型APP基本都是免费的,本质上是各大模型的APP用户量都涨不动了,包括OpenAI。一时间各大AI大模型的APP推广费用水涨船高,投入产出比直线下降。在这种情况下,必须让更多的开发者参与进来,开发出应用以吸引用户的参与。
不过,针对各大厂的降价,各大AI创业公司并未选择跟进,而是选择冷眼旁观。比如,一些参与AI大模型投资的投资人就表示,“这波降价对一些创业公司TO B模式影响较大。”因为过去很多公司,之所以选择跟初创公司合作,主要就是看重初创公司的API比大厂要便宜,但现在基本上没有任何比大厂便宜的可能性了,这意味着创业公司的B端商业化模式不复存在了。
在这种情况下,被迫卷入价格战的创业公司,将不得不寻找全新的商业模式。倘若在一段时间之内,创业公司找不到全新的商业模式,将面临生死考验,届时业内将首先面临一波创投企业的大洗牌。这也会倒逼一些创投企业,加速探索垂直领域的细分应用机会,开发全新的AI应用,将服务对象从B端转向C端。
另一方面,当前的行业价格战,可以看做是“百模大战”带来的一个衍生结果,大模型降价或有利于行业头部大模型公司加速整合步伐。目前来看,当前的中文大模型市场,空间相当有限,不可能所有的大模型都取得成功。作为生态产品的大模型,要么赢家通吃,要么落寞退场。当前,国内做AI大模型的厂商,除了BATH之外,字节跳动、科大讯飞、商汤科技等众多厂商也都有参与,各家不免落入“拼算力规模”的内卷之中。由于各家的功能差异不大,同质化竞争之下,价格战自然在所难免。
另外,伴随着苹果、微软、联想等设备厂商,在本地化AI算力和本地大模型方面的重金投入,AI PC、AI Phone等成为主流,而通用大模型的使用场景则大幅度受限。这迫使很多大模型厂商,不得不寻找破局方法,以求尽快做出创新性的应用成果,来应对外部威胁。
因此,表面上来看是大模型在降价,背后牵动的却是,与之相关的各大参与方的角逐。价格战之下,中小创业公司纷纷转向,大型云服务商则趁势抢占市场份额,一波大洗牌显然已经开启。
大模型的竞赛逻辑变了
其实,从降价开始,行业内关于AI大模型的竞赛逻辑就已经变了。用业内人士的说法来讲,企业使用AI并不是成本驱动,而是能否产生业务价值来决定,而这或许会成为今后一段时间,大模型竞赛的核心逻辑。
首先,基础大模型的API调用模式,离实际业务相差甚远,决定企业使用AI的并非是成本,而是是否有效、好用。单纯从API降价角度来看,推动整个行业大降价并没有多大门槛,但是真正的TO B商业成功则相对较难,因为AI大模型如何扎根企业业务,帮助企业实现对应的业务效益,才是企业关心的核心问题。
但很多大模型尚且流于表面,距离真正的业务落地仍有相当远的距离。在大模型未能有效与企业结合的情况下,无论定价有多低,都不会让企业觉得有价值。因为真正让企业决定买单的是,AI带来的高效和好用的体验,以及由此产生的降本增效的成果。所以,降价能否达成目标,核心还是看用户体验和反馈,否则就变成了厂商的一厢情愿。
其次,大模型API降价给行业内卷敲响了警钟,单纯的堆参数、拼算力、价格,并不是行业健康发展的最优解,未来只有差异化才有出路。与所有的行业一样,从混沌初开到进入大混战,多是以惨烈的价格战作为标志。如今大模型经过狂热的“百模大战”之后,价格战初步显现,同质化竞争的恶果逐步出现。
事实上,目前业内一些玩家,已经在尝试做一些面向C端的尝试了。比如,百川智能近期发布基座大模型Baichuan 4时,同步推出首款AI助手“百小应”,类似于AI搜索应用。在王小川看来,中国商业环境里,C端市场规模比B端大10倍,必须走“基座大模型”+“AI应用”的“双轮驱动”策略。
放眼未来,随着行业大模型的加速洗牌,未来各家大模型企业,要么选择在垂直应用领域进行深耕;要么选择结合自身优势,与大模型公司联合,做适合自己的小模型,而不是一拥而上地参与大模型竞赛,一味在数量、参数上进行对拼。