当前位置:首页 > Deepseek最新资讯 > 正文内容

AI“以小博大”新标杆:三星开源 TRM 模型,700 万参数、特定任务性能媲美

7小时前Deepseek最新资讯18

  IT之家 10 月 10 日消息,科技媒体 venturebeat 于 10 月 8 日发布博文,报道称三星高级 AI 研究院发布了名为微型递归模型(TRM)的开源 AI 模型,仅包含 700 万个参数,不过在数独、迷宫等特定的结构化推理任务上,表现媲美甚至超越了参数量为其 10000 倍的谷歌 Gemini 2.5 Pro 等顶尖大模型。

  该模型仅有 700 万参数,设计理念是极致简化复杂性。在架构方面,摒弃了分层推理模型(HRM)所依赖的双网络协作架构,转而采用一个仅有两层的单一模型。

  其核心机制在于“递归推理”:模型对自身输出的预测进行反复迭代和修正deepseek,每一步都纠正前一步的潜在错误,直至答案收敛稳定。

  TRM 通过这种方式,用迭代计算的深度模拟了庞大网络的复杂推理过程,实现了“以递归替代规模”的目标,从而在不牺牲性能的前提下,大幅降低了计算和内存成本。

  然而,一个重要的前提是,TRM 是专门为解决结构化、可视化的网格类问题(如数独、迷宫和特定解谜任务)而设计的,并非通用的语言聊天模型,它擅长在有明确规则的封闭环境中进行逻辑推理,而非开放式的语言生成。

  TRM 的成功源于其刻意追求的“少即是多”极简主义设计。研究发现,增加模型层数或大小反而会导致在小数据集上出现过拟合,性能下降。其精简的双层结构与递归深度相结合,实现了最佳效果。

  TRM 的代码、训练脚本和数据集目前已在 GitHub 上根据 MIT 许可证完全开源,企业和研究人员均可免费使用、修改和部署,甚至用于商业应用。原文出处:AI“以小博大”新标杆:三星开源 TRM 模型,700 万参数、特定任务性能媲美 Deepseek R1 等万倍大模型,感谢原作者,侵权必删!

标签: deepseek

“AI“以小博大”新标杆:三星开源 TRM 模型,700 万参数、特定任务性能媲美” 的相关文章

青云上线 DeepSeek-V3.1,128k 上下文+混合推理

青云上线 DeepSeek-V3.1,128k 上下文+混合推理

  青云科技旗下 AI 算力云服务——基石智算CoresHub正式上线 DeepSeek-V3.1 模型,以底层架构的颠覆性革新与 128k 超长上下文能力deepseek,为用户开启 A...

DeepSeek V3.1升级,优化语言一致性等能力

DeepSeek V3.1升级,优化语言一致性等能力

  继此前在今年8月DeepSeek线上大模型升级至V3.1,上下文长度从原有的64k拓展至128k后,日前DeepSeek方面宣布,DeepSeek-V3.1已更新至DeepSeek-V...

DeepSeek预测:热那亚vs尤文图斯!斑马军团火力全开,伊尔迪兹助攻王领衔屠

DeepSeek预测:热那亚vs尤文图斯!斑马军团火力全开,伊尔迪兹助攻王领衔屠

  作为意甲历史最悠久的俱乐部,热那亚新赛季首轮0-0闷平莱切,目前以1分暂列第11位。而尤文图斯则在图多尔带领下2-0轻取帕尔马,与国米、那不勒斯并列榜首deepseek。这场对决不仅是...

DeepSeek回应R2发布日期确认

DeepSeek回应R2发布日期确认

  #DeepSeek回应R2发布日期# 期盼已久的DeepSeek-R2,这次的发布消息看来是准了。   对涉及DeepSeek-R2的相关发布日期,一些媒体对此进行了...

数博会1分钟|Deepseek带你速览全球五大顶尖AI大模型

数博会1分钟|Deepseek带你速览全球五大顶尖AI大模型

  来自OpenAI的GPT5,参数千亿级,多模态全能王。科研、金融、医疗决策 样样精通。来自Anthropic的Claude4,安全性天花板,法律、医疗高风险场景首选!长上下文处理超10...

对话联合国首席信息技术官:DeepSeek是“伟大的进化”

对话联合国首席信息技术官:DeepSeek是“伟大的进化”

  #全球财经连线#【对话联合国首席信息技术官:DeepSeek是“伟大的进化”】“DeepSeek(比其他大模型)便宜很多,但仍然很强大,它彻底改变了大模型在计算能力方面的构想,这是一次...