李彦宏开卷:“DeepSeek慢且贵”

李彦宏开卷:“DeepSeek慢且贵”

如何证明自家的模型是行业一流水平?跟DeepSeek比一比。为了验证自家的模型是否达到行业一流水平,我们需要对其进行系统性地评估和比较。首先,我们可以从模型的性能指标开始,例如准确率、召回率、F1-score等。同时,我们也可以对模型的稳定性和泛化能力进行评估。其次,我们可以与其他 industry leaders,如DeepSeek,进行比较和对比。DeepSeek是知名的机器学习平台,提供了多种机器学习算法和工具。通过与DeepSeek的比较,我们可以更好地了解自家的模型的优缺,并对其进行改进和完善。最后,我们也可以通过实践和客户反馈来验证自家的模型是否达到行业一流水平。

随着DeepSeek的爆火,2025年的大模型市场中,DeepSeek就像手机圈的iPhone一样,成为各家模型厂商发布新品时的最新对标对象。

除了模型能力上号称超过DeepSeek之外,上述对标更直观地体现出在价格上的优势。

在百度文心大模型4.5 Turbo和文心大模型X1 Turbo的发布当天,百度创始人李彦宏曾经对DeepSeek进行了吐槽。除了能力上只能处理文本数据外,李彦宏认为DeepSeek还存在理解和生成图片、音频、视频等多媒体内容的限制,并且幻觉率高。更重要的是,李彦宏认为使用DeepSeek更大的问题是其速度和价格问题,“中国市场上绝大多数的大模型API调用价格都比DeepSeek满血版要低,而且速度也更快”。

其中也包括最新发布的文心4.5 Turbo和文心X1 Turbo。官方数据表明,文心4.5 Turbo每百万token的输入价格为0.8元,输出价格为3.2元。

即便在打五折后的优惠时段(00:30-8:30),DeepSeek V3每百万token的输入价格也达到1元,输出价格达到4元。

推理模型上,百度模型的性价比则进一步凸显:百度文心大模型X1 Turbo的每百万token输入价格为1元,输出价格为4元,与DeepSeek R1优惠时段价格一致,但比DeepSeek R1标准时段(8:30-00:30)要便宜得多,R1每百万token输入8元,输出16元。

为了抗衡DeepSeek的竞争压力,需要以性价比为主。4月17日,字节发布了豆包1.5·深度思考模型,上述模型每百万token的输入价格为4元,输出价格16元,总体成本仍然低于DeepSeek R1标准时段。

这种性价比策略不仅仅局限于国内大模型玩家,国外同样如此。

4月份,Google发布了首个混合推理模型Gemini 2.5 Flash,该模型以低成本为主打特点。在关闭思考模式下,Gemini 2.5 Flash的每百万token输出成本暴降了600%,能够达到0.6美元/百万token,输入价格为0.15美元,并且远低于DeepSeek R1标准时段价格。

稍微偏离性价比策略的模型玩家是OpenAI。

2月底,GPT-4.5的发布后,其API价格陡然上涨,达到了每百万token输入75美元、每token输出150美元,这一高昂价格引发了激烈的争议。

但是 OpenAI 很快纠正了自己的“错误”。两个月后的四月份,OpenAI 专为开发者推出了三款全新模型:GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano。最便宜的 GPT-4.1 nano,每百万 token 输入价格暴降至 0.1 美元,输出价格 0.4 美元。

然而,只靠性价比显然还不足以打开市场。DeepSeek之所以能够出圈,除了低成本外,其重要前提之一是模型能力的创新,首次向外界免费展示了思维链的奇妙存在。

无需修改,返回原本内容:01

模型降本是趋势,但国外比国内更贵。

延续至今的大模型降本之争,源头便是DeepSeek。2024年5月,DeepSeek借助大模型价格战一跃成名,当时,它发布了DeepSeek V2开源模型,并率先在行业内降价,将推理成本降到每百万token仅1块钱,约等于GPT-4 Turbo的七十分之一。

随后,中国的科技巨头们,如字节、腾讯、百度和阿里等纷纷降价跟进。中国大模型价格战由此揭幕。

在接受「暗涌」采访时,DeepSeek创始人梁文锋解释道,抢用户并不是DeepSeek降价的主要目的。“我们降价一方面是因为我们在探索下一代模型的结构中,成本先降下来了,另一方面也觉得,无论是API还是AI,都应该是普惠的、人人可以用得起的东西。”

此前,有云厂商高管曾向直面AI(ID:faceaibang)解释:“降价一直存在,并且只要摩尔定律继续有效,降低计算成本将一直是模型行业的长期趋势。”

包括李彦宏在内的部分大佬更是认为,降本将是推动人工智能应用的重要前提。

然而,在降本的全球趋势之下,值得注意的不同现象是,国外同类型、同尺寸的模型,调用成本依然要比国内的更贵。

4月份刚刚发布的OpenAI o3新推理模型上,其每百万token的输入价格为10美元,输出价格40美元,但以输入价格论,o3是文心X1 Turbo的超70倍。

造成这种不同的原因之一,或许也跟国外模型厂商的多元化商业变现有关,体现出全球化的深入影响和商业模式的不断创新。

相比国内只能靠B端API调用收费,当前国外还存在来自C端的销售订阅服务,这种模式的商业变现能力甚至更强于传统的B端API调用。据The Information报道,OpenAI今年的订阅销售额预计将达到80亿美元,这个数额远远超过其API接口销售的约20亿美元。

在最近的一次采访中,OpenAI CEO 奥特曼表达了自己的兴趣:探索如何为出色的自动化软件工程师或其他类型的代理向人们收取高额费用,而不是通过传统基于广告的模式来赚取小钱。

此前,外界曾经爆出,OpenAI可能推出高达2000美元乃至2万美元的月度订阅制。目前,OpenAI已经设有每月20美元和200美元两档订阅模式。

02

只有性价比还不够,关键在于模型是否有特色。

在商业变现受限的背景下,国内模型厂商仍然陷入价格战的泥沼中,面临着更大的成本压力,甚至可能会跌入互联网时代的烧钱补贴竞争逻辑中。

更大的挑战还在于,仅靠性价比也无法彻底留住用户。

DeepSeek在去年开启价格战后,虽然在行业内开始崭露头角,但并未在大众层面引发关注。然而,随着DeepSeek R1模型的问世,这款AI产品终于真正走出了行业的圈子,成为了一款家喻户晓的知名品牌。

奥特曼在点评DeepSeek爆火现象时曾认为,模型的能力并不是真正让DeepSeek获得病毒式传播的关键,而是DeepSeek免费开放了OpenAI隐藏起来的思维链,这一举动让用户更容易接触和分享DeepSeek,从而推动了其爆火。

然而环顾当下的一众新模型产品,除了在各项数据上相比或超越DeepSeek,乃至OpenAI之外,它们尚未在产品体验和功能上展现出创新之举。

从谷歌到豆包,都先后做过了反面示例。晚于DeepSeek R1近两天发布的豆包1.5 Pro大模型,尽管在预训练和推理成本上还要低于DeepSeek V3,但由于模型体验不如前者,因此难以在舆论场上引发太多的关注和讨论。

同样紧随DeepSeek R1之后发布的谷歌Gemini 2.0系列大模型,尽管其Gemini 2.0 Flash-Lite版本的调用价格较DeepSeek V3更低,但仅靠价格优势,也难以获得用户的青睐。

这也从某种程度上解释了,为什么顶着全球最贵大模型称号的Claude能够俘获一批开发者的芳心,如继DeepSeek之后,另一出圈的通用AI Agent产品Manus便是基于Anthropic的Claude 3.5模型开发而来。

一切竞争的原点,重新回到了技术创新和突破的底层模型上。

 分享

本文由网络整理 © 版权归原作者所有

共  条评论

评论

  •  主题颜色

    • 橘色
    • 绿色
    • 蓝色
    • 粉色
    • 红色
    • 金色
  • 扫码用手机访问

© 2025 www.trjyy.com  E-Mail:[email protected]  

观看记录