当前位置:首页 > DeepSeek技术交流 > 正文内容

DeepSeek终于丢了开源第一王座,但继任者依然来自中国

7小时前DeepSeek技术交流25

DeepSeek终于丢了开源第一王座,但继任者依然来自中国

Kimi K2以开源领域榜首、总榜第五的傲人成绩,与顶尖闭源模型Grok 4、GPT 4.5展开激烈角逐——在连续对话能力上独占鳌头,编程与复杂提示处理能力稳居第二梯队前列。这款源自DeepSeek V3架构却更精于“精打细算”的国产模型,正凭借GitHub 5.6K星标与10万下载量的辉煌战绩,向世界宣告:开源与闭源的性能鸿沟已被彻底打破,中国力量正重塑AI领域的竞技版图。

AI智能生成内容引发热议,数千人盲投之下,Kimi K2力压DeepSeek,一举夺得全球开源模型桂冠!海外网友沸腾了,评论区瞬间变身夸夸盛宴:

今日,竞技场最新排名揭晓——
Kimi K2,开源榜首,总榜第五,紧追马斯克麾下的Grok 4等顶尖闭源劲敌。

其单项能力同样不容小觑,与一众闭源模型展开激烈交锋:
连续多轮对话能力并列第一,o3与Grok 4均屈居第四;
编程能力稳居第二,与GPT 4.5、Grok 4并驾齐驱;
复杂提示词处理能力同样位列第二,与o3、4o同属第一梯队;
……
眼尖的网友还发现,总榜TOP 10中,唯二开源模型均来自中国(DeepSeek R1总榜第八)。

即便抛开榜单光环,Kimi K2新模型在过去一周同样炙手可热:
从实打实的数据来看,发布仅一周,Kimi K2便在开源社区掀起热潮,收获了极高的关注度与下载量。
GitHub标星5.6K,Hugging Face下载量近10万,这还不包括其在中国社区的广泛应用。

就连AI搜索引擎明星创企Perplexity的CEO也亲自为其站台,透露:
Kimi K2在内部评估中表现卓越,Perplexity计划基于K2模型进行后续训练。

由于访问用户激增,Kimi官方不得不发布公告:
访问量过大+模型体积庞大,导致API响应缓慢。

……
然而,在一片欢呼声中,关于“Kimi K2采用DeepSeek V3架构”的质疑声再度甚嚣尘上。

对此,我们找到了Kimi团队成员对K2架构的回应。
总结如下:确实继承了DeepSeek V3架构,但后续进行了一系列参数调整。
p.s. 以下分享均来自知乎@刘少伟,内容经概括总结如下~
起初,团队尝试了多种架构方案,最终发现V3架构最为出色(其他方案顶多与之持平)。
于是问题变为:是否要为了不同而不同?
经过深思熟虑,团队给出了否定答案。理由有二:
一是V3架构已经过大规模验证,无需强行“标新立异”;二是团队与DeepSeek一样,训练和推理资源有限,而V3架构符合成本预算。
因此,他们选择完全继承V3架构,并引入适合自身的模型结构参数。
具体而言,K2的结构参数改动有四点:
增加专家数量:团队验证,在激活参数量不变的情况下,MoE总参数增加有助于loss下降。
注意力头head数减半:减少head数节省的成本,恰好抵消MoE参数增大带来的开销,且对效果影响甚微。
仅保留第一层Dense:仅第一层为dense,其余均用MoE,结果对推理几乎无影响。
专家无分组:通过自由路由+动态重排(EPLB)应对负载不均衡,同时使专家组合更灵活,模型能力更强。

最终得到的推理方案是,在相同专家数量下:
尽管总参数增大至1.5倍,但除去通信部分,理论的prefill和decode耗时均更小。即便考虑与通信overlap等复杂因素,该方案成本也不会比V3显著增加。
这是一种更“精打细算”的结构调优。
这种放弃自身模型架构路线,彻底沿用DeepSeek路线的做法,被国内网友评价为“相当大胆”。
△来源:知乎网友@蛙哥
OK,厘清Kimi与DeepSeek架构之争后,我们再将目光拉回最新排名。
开源追平或超越闭源的浪潮正汹涌而来
一个显而易见的趋势是:“开源=性能弱”的刻板印象正在被打破,开源模型正日益强大。
不仅榜单整体排名上升,而且分数差距也在逐渐缩小。
细看之下,模型TOP 10总分均超1400,开源与闭源几乎站在同一起跑线上。
而此次夺得开源榜首的Kimi K2,总分已非常接近Grok 4、GPT 4.5等顶尖闭源模型。

换句话说,以往我们或许还需在模型能力与成本之间做出取舍,但随着开源力量的崛起,多思考一秒都是对开源的不尊重(doge)。
与此同时,越来越多的行业人士也表达了对开源崛起的判断。
艾伦人工智能研究所研究科学家Tim Dettmers表示:
开源击败闭源将愈发普遍。

Perplexity CEO也多次在公开场合表示:
开源模型将在塑造AI能力的全球扩散路径中发挥关键作用。它们对于因地制宜地定制和本地化AI体验至关重要。
而在已逐渐崛起的开源模型领域,TOP 10中唯二开源且均为国产模型的含金量仍在持续提升。



“DeepSeek终于丢了开源第一王座,但继任者依然来自中国” 的相关文章

当DeepSeek都认为“DeepSeek向王一博道歉”了

当DeepSeek都认为“DeepSeek向王一博道歉”了

一场对谣言的澄清,变成了一个新的谣言。昨日,#王一博相关谣言被DeepSeek永久撤回的话题冲上热搜前三,然而没有人能找到DeepSeek真正发过这个声明。更诡异的是,当我们询问多个AI大模型后,它们...

黄仁勋称DeepSeek带来AI模型新革命

黄仁勋称DeepSeek带来AI模型新革命

 7月15日,英伟达CEO黄仁勋在北京接受采访时表示,DeepSeek是一种新型的AI大模型,因为它能够多次深入思考,并以很快的速度完成。可以说DeepSeek是AI模型的一次全新革命,它不仅限于记忆...

“数智赋能·创见未来”郑州市第二十二届职工技术运动会DeepSeek创新应用技能竞赛开始报名了

“数智赋能·创见未来”郑州市第二十二届职工技术运动会DeepSeek创新应用技能竞赛开始报名了

即日起至8月1日,“数智赋能·创见未来”郑州市第二十二届职工技术运动会DeepSeek创新应用技能竞赛开始报名了!此次竞赛由郑州市总工会主办,郑州市电子信息科技工会和市信息协会共同承办,旨在加快培养高...

什么!?原来DEEPSEEK也要用到氮气?

什么!?原来DEEPSEEK也要用到氮气?

DEEPSEEK拥有强大的AI运算系统能够达到如此强大的运算能力背后必须要有高端的AI芯片而高端的AI芯片的制程就需要用到高纯度的氮气支持高端的芯片制造对于氮气的要求非常严格需要99.999-99.9...

信而泰深度整合DeepSeek-R1大模型系统,网络智能诊断迈向“自愈时代”

信而泰深度整合DeepSeek-R1大模型系统,网络智能诊断迈向“自愈时代”

(来源:丰禾基金)DeepSeek-R1:强大的AI推理引擎底座XINERTELDeepSeek是由杭州深度求索人工智能基础技术研究有限公司开发的新一代AI大模型。其核心优势在于强大的推理引擎能力,融...

数据称由于新模型迟迟未推出 DeepSeek使用率暴跌至3%

数据称由于新模型迟迟未推出 DeepSeek使用率暴跌至3%

数据称由于新模型迟迟未推出 DeepSeek使用率暴跌至3%DoNews7 月 9 日消息,据都市快报报道,一份来自国际知名半导体研究机构 Semianalysis 的数据显示,因为新模型 R2 迟迟...