当前位置:首页 > Deepseek最新资讯 > 正文内容

清华学者Nature Medicine发文:DeepSeek狂奔,已在近800家

20小时前Deepseek最新资讯39

  DeepSeek-R1 成为美国苹果应用商店下载量最高的聊天机器人,超越了 OpenAI 的 ChatGPT。与相比,DeepSeek-R1 在效率、成本和透明度方面具有优势,一度导致美国科技股大幅下跌。

  大语言模型在包括临床决策支持、医疗文档处理、研究与教育以及慢性病护理支持在内的多种医疗任务中提高效率和效果的潜力。然而,实体医院部署大语言模型,一直面临着持续的挑战,包括数据隐私、高昂的计算成本、集成复杂性以及有限的可解释性。

  这些挑战导致了中国只有少数大型医院能够部署大语言模型,但DeepSeek-R1的出现迅速改变了这一局面。

  研究团队通过监测医疗机构在微信公众号平台上的公告,追踪了 DeepSeek-R1 在中国医院的部署情况,截至 2025 年 5 月 8 日,短短几个月内,DeepSeek-R1 至少已在中国 755 家医院部署。

  研究团队表示,大语言模型在医疗领域的应用正处于监管的“灰色地带”,缺乏完善的监管框架,这引发了对患者和医院潜在风险的诸多担忧。因此,该文章呼吁进行监管改革,以促进大语言模型在中国医疗领域的安全部署。

  截至 2025 年 5 月 8 日,研究团队确认有超过755家医院部署了 DeepSeek-R1,涵盖了顶尖三甲医院到基层医疗机构。其中,超过 500 家实现了本地部署(OPD),即在医院自身的基础设施内部署和运行 DeepSeek-R1 模型,而非使用外部云服务或第三方应用程序。

  这些医院使用DeepSeek-R1 这个超级 AI 大脑看病历、提出诊断建议、撰写报告、管理药品,甚至帮助患者导诊。这场医疗 AI 的“闪电战”效率惊人,DeepSeek-R1 的成本低到许多小医院也部署得起。

  但大语言模型在医院的狂奔也拉响了警报——这些部署目前处于监管的“灰色地带”,给患者和医院都带来了潜在风险,这也凸显了加强监管指导的紧迫性。

  想象一下,医院里来了一个不知疲倦、知识渊博的“超级助手”。它不是人,而是一个名为DeepSeek-R1的大语言模型(LLM)。这款由中国初创公司 DeepSeek 研发的开源模型,能力媲美美国顶级大语言模型,但成本却大幅降低,最低不到 10 万美元就能在医院内本地部署一套完整系统。

  关键是,这一切都跑在医院的“自家服务器”上! 这就是本地部署(OPD)的巨大优势——所有敏感的医疗数据和患者隐私都牢牢锁在医院内部,避免了数据上传云端可能带来的泄露风险,也更容易满足国家医疗数据的合规要求。下图展示了北京一个真实医院本地部署 DeepSeek-R1 系统的架构,核心就是确保数据安全的本地模块和控制层。

  DeepSeek-R1 之所以能在中国医院掀起这场部署浪潮,核心在于它解决了之前医疗 AI 落地的几大“拦路虎”:

  1、超高的性价比: 相比动辄数百万的 AI 系统,DeepSeek-R1 的开源定制化的特性加上优化的模型大小,让部署成本大大降低,最低只需 10 万美元以下,许多县级医院、基层机构也能负担。两个主流的商用一体机方案的价格也相对亲民。

  2、强大的“脑力”: DeepSeek-R1 采用多阶段训练,其推理能力(理解和分析复杂问题的能力)已接近甚至达到国际顶尖水平,这对于处理复杂的医疗任务(例如诊断支持)至关重要。

  3、开源带来的灵活定制: 采用宽松的 MIT 开源协议,医院可以自由修改、定制模型,无缝集成到现有的挂号、病历、影像等系统里,打造真正适合自己的 AI 助手。

  4、本地部署,数据安全: 本地部署模式是保护患者隐私和医院核心数据安全的“金钥匙”,是医院敢于应用的核心前提。

  5、上手快: 对于之前就接触过开源大模型(例如通义千问、Llama)的医院,部署 DeepSeek-R1 更是轻车熟路。

  然而,DeepSeek 掀起的这场“大模型进医院”的速度之快,把现有的监管体系远远甩在了后面。当前的部署存在明显的“灰色地带”,至少潜藏四大风险:

  幻觉:AI 有时会自信地编造错误信息,即所谓的“幻觉”,尤其是在面对复杂、模糊的症状或多模态信息(文字+图片)时,医生或患者如果轻信,可能导致误诊误治。

  内部风险: 医院IT部门的技术水平参差不齐,在整合 AI 大模型过程中操作不当,也可能导致数据泄露或被污染。

  AI 大模型是如何得出结论的?医生和患者往往一头雾水。这在需要高度信任的医疗场景(尤其是诊断决策)是个大问题。虽然 DeepSeek-R1 具备“思维链”(Chain-of-Thought)能力,能展示一定的推理步骤,但其核心机制仍是个“黑盒”。

  缺乏分类标准: 哪些 AI 应用算高风险(例如辅助诊断)?哪些算低风险(例如行政助手)?中国目前没有清晰的基于风险的分类标准。国际上(美欧)很多医院用的 AI 应用都被定义为需要严格监管的“医疗器械”。

  监管主体不清:在我国,医院活动归卫健委(NHC)管,医疗器械归药监局(NMPA)管,医院既是 AI 使用者又是开发者,导致两个部门监管责任模糊,存在盲区。

  传统监管失灵: 大语言模型与传统医疗 AI(例如看片子的 AI)截然不同,大语言模型它能处理的信息类型太多,输出结果变化多样,还能持续学习更新。现有针对特定用途 AI 的审批和监管方式完全跟不上。

  面对这场 AI 医疗革命与监管滞后的矛盾,文章作者呼吁,必须立刻建立中国自己的医疗大模型监管框架! 他们提出三大优先行动建议:

  1、划红线:按风险等级给 AI 应用分类管理。 卫健委和药监局应联手,明确界定哪些 AI 应用属于高风险(例如直接辅助诊断、治疗决策、面向患者提供诊断信息的),哪些属于低风险(例如行政办公、内部知识库)。不同风险等级,监管严格程度不同。

  2、设门槛:高风险应用必须按“医疗器械”严管。 对于像诊断支持这类能直接影响患者生命健康的高风险应用,必须明确将其纳入医疗器械监管范畴,走严格的审批、验证和上市后监管流程。药监局应尽快出台专门针对大语言模型的指导原则。

  专业考试: 使用专门为医疗大语言模型设计的“考卷”,必须公开评测结果,重点考察准确性、安全性(防止幻觉)、公平性等。

  持续监控: 强制要求进行真实世界应用效果评估和长期监控,因为大语言模型在实际使用中表现可能变化。

  DeepSeek-R1凭借其开源、高效、低成本的优势,正在中国医疗系统掀起一场深刻的效率革命,为基层医院带来了前所未有的 AI 赋能机遇。然而,技术狂奔突进之时,患者的安全线绝不能失守。中国亟需补上监管短板,在鼓励创新与保障安全之间找到平衡点。只有建立起科学、健全的规则,这场由 DeepSeek 点燃的医疗 AI 之火,才能真正照亮健康中国之路,而非灼伤信任与安全。医院批量“安装”AI 医生的时代已来,但监管的“安全阀”必须及时拧紧!

标签: deepseek

“清华学者Nature Medicine发文:DeepSeek狂奔,已在近800家” 的相关文章

DeepSeek引领AI创新突破:建筑设计行业技术革新深度解析

DeepSeek引领AI创新突破:建筑设计行业技术革新深度解析

  行业专家普遍觉得,跟着深度进修模型的赓续优化和硬件算力的继续提升,未来,开启了“智能设计”新期间。更标志着AI在专业设计领域的深度交融,赞助设计师实现“从草稿到成品”的高效转变。经由历...

自主创新筑基AI时代 生态协同破局智算产业瓶颈

自主创新筑基AI时代 生态协同破局智算产业瓶颈

  中国日报7月28日电(记者 马思)当前我国智算集群建设正从单点突破迈向系统攻坚的关键阶段。在2025世界人工智能大会期间,国产AI芯片企业燧原科技联合中国电子信息产业发展研究院、人工智...

DeepSeek 缺席 WAIC 却成焦点?梁文锋的深度求索该何去何从

DeepSeek 缺席 WAIC 却成焦点?梁文锋的深度求索该何去何从

来源:大模型之家今年的世界人工智能大会(WAIC)现场有个挺有意思的现象:DeepSeek明明从未到场,却成了绕不开的“隐形主角”。这种“存在感”首先体现在技术对标上——阶跃星辰在大会前一天发布的 S...

怎么这么多人看不起Sesko……

怎么这么多人看不起Sesko……

  首先,他确实不是世界级前锋。但他在过去三年都一直是公认的顶级中锋苗子,只不过一直没流入转会市场(红牛系升级路线太清晰,没到合适时机外人撬不动)。今年他有机会流入转会市场而已。...

DeepSeek真的不行了吗

DeepSeek真的不行了吗

  这几天,“DeepSeek不行了吗”登上多个热搜的榜单。行业分析机构QuestMobile的最新数据显示,DeepSeek的月均下载量从*季度的8111.3万降至2258.9万,降幅达...

中外智者共话AI未来 上海实践点亮全球人工智能合作新图景

中外智者共话AI未来 上海实践点亮全球人工智能合作新图景

  在世界人工智能大会(WAIC)如火如荼进行之际,由中国日报社主办的“智者对话,共创未来”《围炉漫话》系列活动于7月26日至27日在上海成功举办。本次活动以“体验+对话”的双线模式,立足...