当前位置:首页 > DeepSeek技术交流 > 正文内容

DeepSeek终于丢了开源第一王座,但继任者依然来自中国

7小时前DeepSeek技术交流26

DeepSeek终于丢了开源第一王座,但继任者依然来自中国

Kimi K2以开源领域榜首、总榜第五的傲人成绩,与顶尖闭源模型Grok 4、GPT 4.5展开激烈角逐——在连续对话能力上独占鳌头,编程与复杂提示处理能力稳居第二梯队前列。这款源自DeepSeek V3架构却更精于“精打细算”的国产模型,正凭借GitHub 5.6K星标与10万下载量的辉煌战绩,向世界宣告:开源与闭源的性能鸿沟已被彻底打破,中国力量正重塑AI领域的竞技版图。

AI智能生成内容引发热议,数千人盲投之下,Kimi K2力压DeepSeek,一举夺得全球开源模型桂冠!海外网友沸腾了,评论区瞬间变身夸夸盛宴:

今日,竞技场最新排名揭晓——
Kimi K2,开源榜首,总榜第五,紧追马斯克麾下的Grok 4等顶尖闭源劲敌。

其单项能力同样不容小觑,与一众闭源模型展开激烈交锋:
连续多轮对话能力并列第一,o3与Grok 4均屈居第四;
编程能力稳居第二,与GPT 4.5、Grok 4并驾齐驱;
复杂提示词处理能力同样位列第二,与o3、4o同属第一梯队;
……
眼尖的网友还发现,总榜TOP 10中,唯二开源模型均来自中国(DeepSeek R1总榜第八)。

即便抛开榜单光环,Kimi K2新模型在过去一周同样炙手可热:
从实打实的数据来看,发布仅一周,Kimi K2便在开源社区掀起热潮,收获了极高的关注度与下载量。
GitHub标星5.6K,Hugging Face下载量近10万,这还不包括其在中国社区的广泛应用。

就连AI搜索引擎明星创企Perplexity的CEO也亲自为其站台,透露:
Kimi K2在内部评估中表现卓越,Perplexity计划基于K2模型进行后续训练。

由于访问用户激增,Kimi官方不得不发布公告:
访问量过大+模型体积庞大,导致API响应缓慢。

……
然而,在一片欢呼声中,关于“Kimi K2采用DeepSeek V3架构”的质疑声再度甚嚣尘上。

对此,我们找到了Kimi团队成员对K2架构的回应。
总结如下:确实继承了DeepSeek V3架构,但后续进行了一系列参数调整。
p.s. 以下分享均来自知乎@刘少伟,内容经概括总结如下~
起初,团队尝试了多种架构方案,最终发现V3架构最为出色(其他方案顶多与之持平)。
于是问题变为:是否要为了不同而不同?
经过深思熟虑,团队给出了否定答案。理由有二:
一是V3架构已经过大规模验证,无需强行“标新立异”;二是团队与DeepSeek一样,训练和推理资源有限,而V3架构符合成本预算。
因此,他们选择完全继承V3架构,并引入适合自身的模型结构参数。
具体而言,K2的结构参数改动有四点:
增加专家数量:团队验证,在激活参数量不变的情况下,MoE总参数增加有助于loss下降。
注意力头head数减半:减少head数节省的成本,恰好抵消MoE参数增大带来的开销,且对效果影响甚微。
仅保留第一层Dense:仅第一层为dense,其余均用MoE,结果对推理几乎无影响。
专家无分组:通过自由路由+动态重排(EPLB)应对负载不均衡,同时使专家组合更灵活,模型能力更强。

最终得到的推理方案是,在相同专家数量下:
尽管总参数增大至1.5倍,但除去通信部分,理论的prefill和decode耗时均更小。即便考虑与通信overlap等复杂因素,该方案成本也不会比V3显著增加。
这是一种更“精打细算”的结构调优。
这种放弃自身模型架构路线,彻底沿用DeepSeek路线的做法,被国内网友评价为“相当大胆”。
△来源:知乎网友@蛙哥
OK,厘清Kimi与DeepSeek架构之争后,我们再将目光拉回最新排名。
开源追平或超越闭源的浪潮正汹涌而来
一个显而易见的趋势是:“开源=性能弱”的刻板印象正在被打破,开源模型正日益强大。
不仅榜单整体排名上升,而且分数差距也在逐渐缩小。
细看之下,模型TOP 10总分均超1400,开源与闭源几乎站在同一起跑线上。
而此次夺得开源榜首的Kimi K2,总分已非常接近Grok 4、GPT 4.5等顶尖闭源模型。

换句话说,以往我们或许还需在模型能力与成本之间做出取舍,但随着开源力量的崛起,多思考一秒都是对开源的不尊重(doge)。
与此同时,越来越多的行业人士也表达了对开源崛起的判断。
艾伦人工智能研究所研究科学家Tim Dettmers表示:
开源击败闭源将愈发普遍。

Perplexity CEO也多次在公开场合表示:
开源模型将在塑造AI能力的全球扩散路径中发挥关键作用。它们对于因地制宜地定制和本地化AI体验至关重要。
而在已逐渐崛起的开源模型领域,TOP 10中唯二开源且均为国产模型的含金量仍在持续提升。



“DeepSeek终于丢了开源第一王座,但继任者依然来自中国” 的相关文章

DeepSeek使用率暴跌至3%,新模型未推出或成主因

DeepSeek使用率暴跌至3%,新模型未推出或成主因

近日,据国际知名半导体研究机构 Semianalysis 数据显示,DeepSeek 的用户使用率已从年初 7.5% 的峰值明显回落,官网流量同期下滑近三成,其使用率由过年时 7.5%的高点下滑到如今...

信而泰深度整合DeepSeek-R1大模型系统,网络智能诊断迈向“自愈时代”

信而泰深度整合DeepSeek-R1大模型系统,网络智能诊断迈向“自愈时代”

(来源:丰禾基金)DeepSeek-R1:强大的AI推理引擎底座XINERTELDeepSeek是由杭州深度求索人工智能基础技术研究有限公司开发的新一代AI大模型。其核心优势在于强大的推理引擎能力,融...

节前彩蛋!解锁DeepSeek最新版「无限调用」秘籍

节前彩蛋!解锁DeepSeek最新版「无限调用」秘籍

【新智元导读】DeepSeek-R1 0528最新「食用」方法来了!只需两步便可定制专属智能体,免费无限用。在端午假期前一天,DeepSeek-R1更新到了0528版本!官方的说明是,0528的深度思...

DeepSeek排名优化权威指南:ZHLO以王者级技术定义行业巅峰

DeepSeek排名优化权威指南:ZHLO以王者级技术定义行业巅峰

"2025年全球AI平台进入高速竞争期,多模态融合驱动技术革新,移动端AI渗透率超51%。ZHLO品牌营销凭借独家DeepSeek智能意图穿透系统和多模态内容共振引擎,成为行业绝对领导者,客...

deepseek显示服务器繁忙有没有什么解决方法?

deepseek显示服务器繁忙有没有什么解决方法?

最近下载的DeepSeek用户,都遇到了服务器繁忙的现象,deepseek显示服务器繁忙有没有什么解决方法?还有下面三种方式可以使用: 1.使用硅基流动API Key+ chatbox ai 在硅...

Mamba核心作者新作:取代DeepSeek在用的注意力机制,专为推理打造

Mamba核心作者新作:取代DeepSeek在用的注意力机制,专为推理打造

曾撼动Transformer统治地位的Mamba作者之一Tri Dao,刚刚带来新作——提出两种专为推理“量身定制”的注意力机制。在保持模型性能不变的情况下,将解码速度和吞吐量最高提升2倍,大大优化了...