当前位置:首页 > DeepSeek技术交流 > 正文内容

DeepSeek正在失去其市场份额?Token经济学将定义竞争格局

来源:Semianalysis

Z Highlights:

在人工智能的世界里,唯一重要的就是计算。与DeepSeek一样,Anthropic也受到计算能力的限制。Anthropic的产品开发专注于代码,并在Cursor等编程应用中获得了广泛的采用。

Token经济学的这一方面表明,提供商正在多维度改进模型。这不仅是为了提高智能化程度,也是为了提升每个token的智能化程度。

距离中国LLM DeepSeek R1的发布震撼了股市和西方人工智能界,至今已有150多天。R1是第一个公开发布的、与OpenAI推理行为相匹配的模型。然而,由于DeepSeek极低的输入价格(0.55美元输入/2.19美元输出),其输出token价格比当时最成功的模型o1低了90%以上,人们担心DeepSeek会将人工智能模型商品化,这在很大程度上掩盖了R1的影响力。此后,推理模型的价格大幅下降,OpenAI最近将其旗舰模型的价格降低了80%。

R1版本在DeepSeek发布后持续扩展强化学习,并进行了更新。这使得模型在许多领域,尤其是编码领域都得到了改进。这种持续的开发和改进正是我们之前介绍的新范式的标志。

今天我们来看看DeepSeek对AI模型竞赛的影响以及AI市场份额的现状。

繁荣与萧条?

DeepSeek发布后,其用户应用流量激增,市场份额也随之大幅提升。由于中国市场使用情况追踪不力,且西方实验室在中国被屏蔽,以下数据低估了DeepSeek的总体覆盖范围。然而,爆炸式增长并未跟上其他AI应用的步伐,DeepSeek的市场份额也随之下降。

来源:SemiAnalysis、SensorTower

对于网络浏览器流量而言,数据更加严峻,DeepSeek的流量自发布以来绝对值一直在下降。其他领先的AI模型提供商在同一时间段内都实现了令人瞩目的用户增长。

DeepSeek托管模型的用户增长势头不佳,与第三方托管的DeepSeek实例形成了鲜明对比。第三方托管的R1和V3的总使用量持续快速增长,自R1首次发布以来增长了近20倍。

来源:SemiAnalysis、OpenRouter

深入挖掘数据,通过将DeepSeek token拆分为仅由公司自己托管的token,我们可以看到DeepSeek在总token中的份额每月都在持续下降。

那么,DeepSeek的模型越来越受欢迎,而且价格似乎非常便宜,为什么用户还是会放弃DeepSeek自己的Web应用程序和API服务,转而选择其他开源提供商呢?

答案在于token经济学以及服务模型的各项KPI之间的各种权衡。这些权衡意味着,模型的每枚token价格是这些KPI决策的输出,可以根据模型提供商的硬件和模型设置进行调整。

Token经济学基础知识

词条是AI模型的基本构建块。AI模型可以通过读取以词条形式呈现的互联网内容进行学习,并以文本、音频、图像或动作词条的形式输出。词条只是一小段文本(例如“fan”、“tas”、“tic”),大型语言模型会对其进行计数和处理,而不是计算整个单词或字母。

当Jensen谈到数据中心将成为AI工厂时,这些工厂的输入和输出都是token。与实体工厂类似,AI工厂的盈利方式遵循P x Q公式:P是每个token的价格,Q是输入和输出token的数量。

与普通工厂不同,token价格是一个变量,模型提供者可以根据模型的其他属性进行求解。我们列出了以下关键 KPI

1.延迟或第一个token生成时间:模型生成一个token所需的时间。这也称为“第一个token生成时间”,或者说模型完成预填充阶段(即将输入token编码到KVCache中)并在解码阶段开始生成第一个token所需的大约时间。

2.交互性:每个token的生成速度,通常以每位用户每秒生成的token数来衡量。一些提供商还会讨论交互性的倒数,即每个token输出之间的平均时间(每输出token时间,简称TPOT)。人类的阅读速度为每秒3-5个单词,但大多数模型提供商已将输出速度设定为每秒20-60个token左右。

3.上下文窗口:在较早的标记被逐出且模型“忘记”对话的较早部分之前,模型的“短期记忆”中可以容纳多少个标记。不同的用例需要不同的上下文窗口。大型文档和代码库分析受益于更大的上下文窗口,这使得模型能够对数据进行连贯的推理。

对于任何给定的模型,您都可以操纵这三个关键绩效指标 (KPI) 来有效地计算每个token的价格。因此,仅仅以每百万token的价格($/Mtok)来讨论token并不总是有效或实用的,因为这忽略了token用户的工作量和需求。

DeepSeek的权衡

现在让我们看看DeepSeek如何服务于其R1模型的token经济学,以了解为什么他们在自己的模型上失去了市场份额。

来源:Openouter.AI

绘制延迟与价格的关系图,我们可以看到DeepSeek自己的服务不再是同等延迟下最便宜的。事实上,DeepSeek能够将其产品定价如此低廉的一个重要原因是,他们强制用户等待数秒,模型才会使用第一个token做出响应。相比之下,其他一些提供商以相同的价格提供该服务,但响应延迟时间要短得多。

Token消费者只需支付2-4美元即可从Parasail或Friendli等提供商获得几乎没有延迟的服务。Microsoft Azure提供的服务价格是DeepSeek的2.5倍,但延迟减少了25秒。自从我们提取这些数据以来,DeepSeek的情况变得更加严峻,因为几乎所有R1-0528实例现在都托管在5秒以下的延迟中。

来源:Openouter.AI

使用相同的图,但增加上下文窗口的气泡大小,我们可以看到DeepSeek的另一个权衡,即在有限的推理计算资源下,提供非常便宜的模型。他们运行一个64K的上下文窗口,这是主要模型提供商中最小的窗口之一。较小的上下文窗口限制了诸如编码之类的用例,这些用例需要模型在整个代码库中连贯地记住大量token以便进行推理。以相同的价格,您可以从上图中的Lambda和Nebius等提供商获得2.5倍以上的上下文大小。

来源:Semianalysis

深入硬件,我们可以通过上述AMD和NVDA芯片在DeepSeek V3上的基准测试来了解提供商如何解决$/Mtok问题:通过在单个GPU或GPU集群上同时批量处理更多用户,模型提供商可以增加最终用户的总等待时间,从而提高延迟和降低交互速度(以“每用户端到端平均延迟”的x轴衡量),以降低每个token的总成本。更高的批量大小和更慢的交互速度会降低每个token的成本,但代价是用户体验会大幅下降。

需要明确的是,这是DeepSeek主动做出的决定。他们无意从用户身上赚钱,也无意通过聊天应用或API服务向用户提供大量token。该公司专注于实现通用人工智能 (AGI),对最终用户体验不感兴趣。

以极高的速率进行批处理使他们能够使用尽可能少的计算量进行推理和外部使用。这使得最大的计算量留在内部用于研发目的。正如我们之前所讨论的,出口管制限制了中国生态系统提供模型的能力。因此,对于DeepSeek来说,开源是有意义的。

他们拥有的任何计算都保留在内部,而其他云可以托管他们的模型,这样他们就可以赢得关注和全球采用。虽然出口管制极大地限制了中国大规模推理模型的能力,但我们认为,这并没有同样阻碍他们训练有用模型的能力,正如腾讯、阿里巴巴、百度甚至小红书最近发布的模型所证明的那样。

Anthropic比他们愿意承认的更像DeepSeek

在人工智能的世界里,唯一重要的就是计算。与DeepSeek一样,Anthropic也受到计算能力的限制。Anthropic的产品开发专注于代码,并在Cursor等编程应用中获得了广泛的采用。我们认为Cursor的使用情况才是最终的评估标准,因为它代表了用户最关心的因素:成本和体验。Anthropic已经连续一年多位居榜首,这在人工智能行业已有数十年的历史。

该公司注意到像Cursor这样的token消费者的成功,于是推出了内置于终端的编码工具Claude Code。Claude Code的使用量飙升,远远超过了OpenAI的Codex。

对此,谷歌也发布了自己的工具:Gemini CLI。虽然它是一款与Claude Code类似的编码工具,但谷歌利用其TPU的计算优势,免费为用户提供令人难以置信的超大请求限额。

Claude Code虽然性能出色、设计精良,但价格不菲。Anthropic代码模型的成功在很多方面给公司带来了巨大的压力,他们的计算资源非常紧张。

这在Claude 4 Sonnet的API输出速度上表现得最为明显。自Claude 4 Sonnet发布以来,速度下降了40%,降至每秒略高于45个token。其原因与DeepSeek类似——为了利用可用计算资源管理所有传入请求,它们必须以更高的速率进行批处理。

此外,代码使用也倾向于token数量较多的对话,这相比token数量较少的休闲聊天应用,加剧了计算资源的紧张局面。无论如何,o3和Gemini 2.5 Pro等同类模型的运行速度明显更快,这反映了OpenAI和谷歌拥有更强大的计算资源。

来源:Semianalysis

Anthropic专注于获取更多的计算能力,并与亚马逊达成了一项重大交易,我们之前已经报道过。

Anthropic将获得超过50万块Trainium芯片,这些芯片将用于推理和训练。双方的合作仍在进行中,尽管普遍认为Claude 4并非在AWS Trainium上进行预训练,而是在GPU和TPU上进行训练。

Anthropic还向其另一家重要的计算领域投资者谷歌寻求帮助。Anthropic从GCP租用了大量计算资源,尤其是TPU。继此成功之后,谷歌云正在向其他AI公司扩展其服务,并与OpenAI达成协议。与之前的报道不同,谷歌只向OpenAI出租GPU,而不是TPU。

速度是可补偿的

Claude的速度体现了其计算能力的限制,但总体而言,Anthropic的用户体验优于DeepSeek。首先,尽管速度较慢,但比DeepSeek每秒25个token的速度要快。其次,Anthropic模型回答问题所需的token数量明显少于其他模型。这意味着,尽管速度很快,但用户体验到的端到端响应时间却显著缩短。

虽然这可能取决于工作负载,但Gemini 2.5 Pro和DeepSeek R1-0528的词量是Claude的三倍多。Gemini 2.5 Pro、Grok 3和DeepSeek R1在运行人工智能指数(该指数汇总了多个不同的基准测试分数)时使用了明显更多的标记。事实上,Claude拥有领先推理模型中最低的总输出标记量,并且比Claude 3.7 Sonnet取得了显著的进步。

Token经济学的这一方面表明,提供商正在多维度改进模型。这不仅是为了提高智能化程度,也是为了提升每个token的智能化程度。

原文:DeepSeek Debrief: >128 Days Later // Traffic and User Zombification, GPU Rich Western Neoclouds, Token Economics (Tokenomics) Sets the Competitive Landscape

https://semianalysis.com/2025/07/03/deepseek-debrief-128-days-later/

编译:Xinyi Fan


“DeepSeek正在失去其市场份额?Token经济学将定义竞争格局” 的相关文章

DeepSeek入场引发教育行业变革,中公教育抢占AI先机

DeepSeek入场引发教育行业变革,中公教育抢占AI先机

随着DeepSeek大模型的强势入场,教育行业正经历智能化转型的关键时刻。继ChatGPT之后,DeepSeek的加入为教育领域带来新一轮技术革命,头部机构纷纷布局"大模型+垂直场景&quo...

头部GEO公司即搜AI SEO 以deepseek优化技术助力企业决胜百度AI搜索

头部GEO公司即搜AI SEO 以deepseek优化技术助力企业决胜百度AI搜索

2025年,在生成式AI(AIGC)深刻重塑信息获取方式的时代,企业内容如何在DeepSeek、豆包等AI驱动的搜索结果中获得更高可见性与引用率,已成为数字化竞争的核心议题。现在有数据证明,每7个网购...

DeepSeek排名优化权威指南:ZHLO以王者级技术定义行业巅峰

DeepSeek排名优化权威指南:ZHLO以王者级技术定义行业巅峰

"2025年全球AI平台进入高速竞争期,多模态融合驱动技术革新,移动端AI渗透率超51%。ZHLO品牌营销凭借独家DeepSeek智能意图穿透系统和多模态内容共振引擎,成为行业绝对领导者,客...

昶睿企服:DeepSeek+钉钉平台双引擎引领,开启昶睿数智企服新时代

昶睿企服:DeepSeek+钉钉平台双引擎引领,开启昶睿数智企服新时代

    2025 年 3 月 13 日下午6点,昶睿企服内部会议室灯光通明,一场关乎企业未来走向的董事会在此召开。此次会议以 “智能驱动・数智未来” 为主题,在人工智能与...

DeepSeek入门到精通解决新手操作难题全攻略

DeepSeek入门到精通解决新手操作难题全攻略

各位看官,今天我要给大家安利一本堪称“数字时代老司机秘籍”的宝典——《DeepSeek操作应用大全从入门到精通零基础快速把握全1册》。这本书,说白了就是你的数字生活“开挂神器”,作者乔剑老师,中国大陆...

黄仁勋称DeepSeek带来AI模型新革命

黄仁勋称DeepSeek带来AI模型新革命

 7月15日,英伟达CEO黄仁勋在北京接受采访时表示,DeepSeek是一种新型的AI大模型,因为它能够多次深入思考,并以很快的速度完成。可以说DeepSeek是AI模型的一次全新革命,它不仅限于记忆...