本文来自微信公众号“电子发烧友网”,【作者】吴子鹏。
电子发烧友网报道(文/吴子鹏)2月16日,百度搜索正式宣布,为丰富多元化的搜索体验,将全面接入DeepSeek和文心大模型的最新深度搜索功能。同一天,腾讯方面向媒体确认,微信搜一搜也已开启灰度测试接入DeepSeek。被灰度到的用户,可在对话框顶部搜索入口看到“AI搜索”字样,点击进入后,便能免费使用DeepSeek-R1满血版模型。
目前,各领域头部企业基本都已宣布接入DeepSeek,涵盖国内三大通信运营商、云计算领域的亚马逊、腾讯、华为,企业领域的比亚迪、吉利、长城,以及手机领域的荣耀、OPPO等。不仅如此,DeepSeek的“朋友圈”已不再局限于企业,深圳宣布政务平台全面接入DeepSeek。
随着接入DeepSeek的企业越来越多,业内人士也开始担忧,接入DeepSeek可能成为企业的负担,造成数额较大的亏损。
DeepSeek重塑搜索业态
在国内搜索引擎市场,百度搜索是占据主导地位的传统搜索引擎,而微信搜索属于垂直搜索引擎。相关统计数据显示,目前百度在国内搜索引擎市场的综合占比为52.79%。2024年11月,百度在手机端搜索引擎市场份额为67.99%,在桌面端搜索引擎市场份额约为30.64%。
微信搜索虽因未被计入通用搜索引擎市场而缺乏统计数据,但它基于微信生态内的搜索功能,借助微信超12亿的月活用户,体量极为庞大。
作为国内通用搜索和垂直搜索的代表,百度搜索和微信搜索都选择接入DeepSeek,主要是因为DeepSeek对搜索引擎具有很大的赋能价值。DeepSeek拥有庞大的知识图谱数据库,涵盖各行业知识体系及概念关联关系,搜索时能呈现更丰富全面的信息。运用先进的自然语言处理技术,DeepSeek能深入理解用户搜索意图,即使是模糊或复杂的关键词、句子,也能转化为清晰的查询,提供相关性更高的结果。
DeepSeek能够优化用户搜索的个性化体验,通过分析用户的搜索历史、兴趣偏好以及当前上下文环境等因素,DeepSeek能自动调整搜索策略,优先展示符合用户需求的内容,为不同用户量身定制个性化搜索方案。同时,DeepSeek专注于减少无效链接展示,智能预测用户真正想要的信息。
接入DeepSeek的成本压力
然而,在百度搜索和微信搜索接入DeepSeek之后,业内人士注意到,接入DeepSeek可能会给相关企业带来巨额亏损。与汽车应用和政务应用相比,搜索引擎接入DeepSeek所带来的使用量无疑更大,因此成本支出相当惊人。
目前,满血版DeepSeek-R1模型每百万token的收费为16元,若每日输出1000亿token,即需处理1,000,000个百万token单位,那么单日成本就是1600万元,一个月的推理成本高达4.8亿元。而这只是API应用成本,实际运营中还需考虑算力资源、硬件类型及运营效率。有业内人士指出,为满足大规模DeepSeek的推理应用,需要构建大型智算中心以提供算力支撑,若采用英伟达GPU集群,成本通常在数亿美元以上。
由于DeepSeek的收费是OpenAI o1同等规模输入15美元(约109元人民币)和输出60美元(约437元人民币)的二十分之一到百分之一,被称为“AI界的拼多多”,但搜索引擎类型的应用是免费的,且用户体量大,大规模使用DeepSeek的成本依然不低。根据百度方面的数据,2024年11月文心大模型日调用量已达15亿。假设平均每次调用输出的文本经分词后产生的token数量为100个(此为假设便于理解,实际因搜索内容不同差异大),那么一天输出的token数量约为1500亿个,如果这些搜索结果都由DeepSeek输出,那么百度要支付的成本就是上述结果的1.5倍。
无论是API费用层面,还是硬件部署层面,DeepSeek爆火都揭示了一个真相:只有低成本的AI才能够真正普及。同时,业内人士对企业接入DeepSeek后的亏损担忧说明,无论是DeepSeek API,还是部署DeepSeek,都还不够便宜。在这个过程中,国产算力芯片有望凭借性价比优势进一步推动AI成本下降。
国产算力芯片价值凸显
虽然DeepSeek使单个模型训练和推理算力需求有所下降,但技术的普及却带来了AI应用的爆发式增长。其全球日活用户在短短一个月内就从34.7万飙升至1.19亿。如此庞大的用户群体和复杂多样的应用场景,使得整体算力消耗大幅增加。同时,DeepSeek的开源特性以及成本的大幅降低,使其能迅速渗透到教育、医疗、金融等众多垂直领域。在这些领域中,大量存在着低延迟、高并发的实时推理需求。为满足AI应用实时推理需求,智算中心的架构也在发生转变,从传统超大规模集中式建设转向靠近用户的分布式节点。
长期以来,英伟达等国际巨头凭借技术优势,几乎垄断了高端算力芯片市场,国产算力芯片在重重技术封锁与市场挤压下艰难前行。之前,国产算力芯片发展艰难的一个重要原因是“性能不足”,难以满足AI大模型的训练和推理需求。不过,DeepSeek改变了这一局面,并且DeepSeek对国产算力芯片的带动是全方面的。
在训练环节,DeepSeek通过模型架构创新(如MLA、DeepSeekMoE技术)和高效训练框架(如FP8混合精度、DualPipe算法),大幅降低了对高端GPU的依赖,使国产芯片能够以较低成本完成模型训练适配。在推理方面,DeepSeek在应用层面的推理环节,其模型压缩技术(如蒸馏模型)显著降低算力需求,使国产芯片在推理场景中更具性价比。
另外,DeepSeek带来了大量的智算一体机需求。智算一体机作为一种高度集成、灵活部署且能有效满足多样化算力需求的解决方案,已经成为众多企业与机构部署DeepSeek的首选。这一市场已经成为厂商布局的重点,也是国产算力芯片发展的蓝海。据报道,目前京东云的DeepSeek大模型一体机已经广泛支持华为昇腾、海光、寒武纪、摩尔线程、天数智芯等多种国产AI加速芯片。
据统计,截至2025年2月,已有华为昇腾、沐曦、天数智芯等17家国产AI芯片企业宣布支持DeepSeek模型的训练与推理,覆盖从云端到边缘的全场景需求。比如,2月13日,华为昇腾推出了服务器、推理卡等一体机产品形态,全面适配DeepSeek V3/R1全系列模型;开源中国方面消息显示,DeepSeek-V3全精度满血版可以成功运行在沐曦训推一体GPU上;天数智芯完成DeepSeek-R1模型适配,上线多个大模型服务。
从效果来看,国产芯片通过专门的优化适配,效果并不弱于国际厂商的高端芯片。比如,华为此前表示,DeepSeek V3/R1 671B旗舰模型(满血版),通常需要高端GPU进行推理,现在基于华为云昇腾云服务的全栈优化适配,可获得持平全球高端GPU部署模型的效果,提供稳定的、生产级服务能力,满足业务商用部署需求;根据天数智芯与Gitee AI联合发布的消息,在双方的高效协作下,仅用时一天,便成功完成了与DeepSeek R1的适配工作,经过严格的测试与验证,适配后的模型精度高度对标论文精度,展现出卓越的稳定性与可靠性。然而,国产方案只是英伟达方案的一半,甚至是几分之一,有助于进一步降低DeepSeek的使用成本。
此前“国产算力芯片起飞”这一观点频现报端,不过从结果来看当时更多是制造噱头。如今,在DeepSeek的带动下,国产算力芯片真的起飞了,成为终端应用部署DeepSeek模型的首选。同时,DeepSeek也需要国产算力芯片的繁荣,百度搜索引擎的案例揭露出,拥有大规模用户基础的应用部署DeepSeek是一项不小的成本负担,国产算力芯片快速发展有望带动AI应用成本持续走低,使得产业更加良性发展。