当前位置:首页 > DeepSeek技术交流 > 正文内容

DeepSeek终于丢了开源第一王座,但继任者依然来自中国

4小时前DeepSeek技术交流17

DeepSeek终于丢了开源第一王座,但继任者依然来自中国

Kimi K2以开源领域榜首、总榜第五的傲人成绩,与顶尖闭源模型Grok 4、GPT 4.5展开激烈角逐——在连续对话能力上独占鳌头,编程与复杂提示处理能力稳居第二梯队前列。这款源自DeepSeek V3架构却更精于“精打细算”的国产模型,正凭借GitHub 5.6K星标与10万下载量的辉煌战绩,向世界宣告:开源与闭源的性能鸿沟已被彻底打破,中国力量正重塑AI领域的竞技版图。

AI智能生成内容引发热议,数千人盲投之下,Kimi K2力压DeepSeek,一举夺得全球开源模型桂冠!海外网友沸腾了,评论区瞬间变身夸夸盛宴:

今日,竞技场最新排名揭晓——
Kimi K2,开源榜首,总榜第五,紧追马斯克麾下的Grok 4等顶尖闭源劲敌。

其单项能力同样不容小觑,与一众闭源模型展开激烈交锋:
连续多轮对话能力并列第一,o3与Grok 4均屈居第四;
编程能力稳居第二,与GPT 4.5、Grok 4并驾齐驱;
复杂提示词处理能力同样位列第二,与o3、4o同属第一梯队;
……
眼尖的网友还发现,总榜TOP 10中,唯二开源模型均来自中国(DeepSeek R1总榜第八)。

即便抛开榜单光环,Kimi K2新模型在过去一周同样炙手可热:
从实打实的数据来看,发布仅一周,Kimi K2便在开源社区掀起热潮,收获了极高的关注度与下载量。
GitHub标星5.6K,Hugging Face下载量近10万,这还不包括其在中国社区的广泛应用。

就连AI搜索引擎明星创企Perplexity的CEO也亲自为其站台,透露:
Kimi K2在内部评估中表现卓越,Perplexity计划基于K2模型进行后续训练。

由于访问用户激增,Kimi官方不得不发布公告:
访问量过大+模型体积庞大,导致API响应缓慢。

……
然而,在一片欢呼声中,关于“Kimi K2采用DeepSeek V3架构”的质疑声再度甚嚣尘上。

对此,我们找到了Kimi团队成员对K2架构的回应。
总结如下:确实继承了DeepSeek V3架构,但后续进行了一系列参数调整。
p.s. 以下分享均来自知乎@刘少伟,内容经概括总结如下~
起初,团队尝试了多种架构方案,最终发现V3架构最为出色(其他方案顶多与之持平)。
于是问题变为:是否要为了不同而不同?
经过深思熟虑,团队给出了否定答案。理由有二:
一是V3架构已经过大规模验证,无需强行“标新立异”;二是团队与DeepSeek一样,训练和推理资源有限,而V3架构符合成本预算。
因此,他们选择完全继承V3架构,并引入适合自身的模型结构参数。
具体而言,K2的结构参数改动有四点:
增加专家数量:团队验证,在激活参数量不变的情况下,MoE总参数增加有助于loss下降。
注意力头head数减半:减少head数节省的成本,恰好抵消MoE参数增大带来的开销,且对效果影响甚微。
仅保留第一层Dense:仅第一层为dense,其余均用MoE,结果对推理几乎无影响。
专家无分组:通过自由路由+动态重排(EPLB)应对负载不均衡,同时使专家组合更灵活,模型能力更强。

最终得到的推理方案是,在相同专家数量下:
尽管总参数增大至1.5倍,但除去通信部分,理论的prefill和decode耗时均更小。即便考虑与通信overlap等复杂因素,该方案成本也不会比V3显著增加。
这是一种更“精打细算”的结构调优。
这种放弃自身模型架构路线,彻底沿用DeepSeek路线的做法,被国内网友评价为“相当大胆”。
△来源:知乎网友@蛙哥
OK,厘清Kimi与DeepSeek架构之争后,我们再将目光拉回最新排名。
开源追平或超越闭源的浪潮正汹涌而来
一个显而易见的趋势是:“开源=性能弱”的刻板印象正在被打破,开源模型正日益强大。
不仅榜单整体排名上升,而且分数差距也在逐渐缩小。
细看之下,模型TOP 10总分均超1400,开源与闭源几乎站在同一起跑线上。
而此次夺得开源榜首的Kimi K2,总分已非常接近Grok 4、GPT 4.5等顶尖闭源模型。

换句话说,以往我们或许还需在模型能力与成本之间做出取舍,但随着开源力量的崛起,多思考一秒都是对开源的不尊重(doge)。
与此同时,越来越多的行业人士也表达了对开源崛起的判断。
艾伦人工智能研究所研究科学家Tim Dettmers表示:
开源击败闭源将愈发普遍。

Perplexity CEO也多次在公开场合表示:
开源模型将在塑造AI能力的全球扩散路径中发挥关键作用。它们对于因地制宜地定制和本地化AI体验至关重要。
而在已逐渐崛起的开源模型领域,TOP 10中唯二开源且均为国产模型的含金量仍在持续提升。



“DeepSeek终于丢了开源第一王座,但继任者依然来自中国” 的相关文章

谁是开源大模型之王?Llama、DeepSeek还是Qwen?

谁是开源大模型之王?Llama、DeepSeek还是Qwen?

文|数据猿“友商,你们拿什么和我比?”“友商,你们拿什么和我比?”这不是哪家公司的狂妄宣言,而是当前AI战场最真实的写照。IDC预测,2024年,全球各组织将在人工智能上投入2350亿美元,2028年...

“数智赋能·创见未来”郑州市第二十二届职工技术运动会DeepSeek创新应用技能竞赛开始报名了

“数智赋能·创见未来”郑州市第二十二届职工技术运动会DeepSeek创新应用技能竞赛开始报名了

即日起至8月1日,“数智赋能·创见未来”郑州市第二十二届职工技术运动会DeepSeek创新应用技能竞赛开始报名了!此次竞赛由郑州市总工会主办,郑州市电子信息科技工会和市信息协会共同承办,旨在加快培养高...

DeepSeek-R1 再进化,这次的更新好强啊

DeepSeek-R1 再进化,这次的更新好强啊

R2没等到,但 DeepSeek R1 小升级据说也很强?又被 DeepSeek 偷袭了!业内苦等的 R2 模型迟迟未到,结果 DeepSeek 却悄然出手:DeepSeek R1 摇身一变,成了 D...

意大利监管机构调查DeepSeek 涉虚假讯息

意大利监管机构调查DeepSeek 涉虚假讯息

意大利反垄断监管机构AGCM表示,已对中国人工智能(AI)初创公司DeepSeek展开调查,指该公司涉嫌未警告用户其可能会产生虚假讯息。AGCM称,DeepSeek没有向用户发出足够清晰、即时和易懂的...

"DeepSeek在线使用技术白皮书:2025年AI工具效能革命与实战指南"

"DeepSeek在线使用技术白皮书:2025年AI工具效能革命与实战指南"

一、行业变革与DeepSeek的颠覆性价值1.1 搜索生态重构2025年DeepSeek日均处理搜索请求超5亿次,AI答案页点击率较传统搜索提升230%,形成"语义理解-多模态生成-实时反馈...

德国对DeepSeek下手

德国对DeepSeek下手

据路透社报道,德国数据保护专员梅克·坎普27日在一份声明中声称,已要求苹果和谷歌公司从其在德国的应用商店下架中国初创公司自主研发的人工智能(AI)大语言模型“深度求索”(DeepSeek)应用,理由是...