DeepSeek接入政务办公,机关单位要警惕的6个安全风险
综合DeepSeek和其他公开信息统计,自2025年初 DeepSeek-R1人工智能模型问世以来,截至3月底,全国约30个省级行政区(或其辖区)已接入DeepSeek,覆盖政务办公、民生服务、城市治理等多元场景,100多家央企完成了DeepSeek模型的本地化部署,支持项目提效行业应用等领域。
然而,不可忽视的是,这一“现象级”人工智能新技术在广受欢迎的同时,多次受到了恶意攻击,存在一定的安全风险......一
AI智慧政务面临的6个安全风险
01
内部脆弱性带来的安全风险
已知的DeepSeek开源数据库漏洞、应用开源网络架构服务漏洞、本地化部署中的软硬件漏洞等问题,构成了DeepSeek服务的内部安全脆弱性。
02
外部威胁的安全风险
一方面,DeepSeek使用大量开源数据库、借鉴其他开源模型等,可能导致未知攻击风险;另一方面,DeepSeek也通过开源其部分模型的方式,来推动本地化部署、分享技术进步,这是否会引发关联攻击,尚有待深入观察。
试想,境外竞争对手极有可能通过第三方攻击服务,或直接对DeepSeek进行分析、打压,以获取DeepSeek模型软硬件架构、算法参数、运营能力等商业秘密和非公开信息,同时“顺便“阻塞或限制其服务,从而造成政务系统的直接损失。
03
供应链安全风险
无论DeepSeek采用各类开源软件作为其供应链的主要来源之一,抑或作为开源模型提供者向公众提供人工智能服务,都需要将其提供者视为供应链中的重要价值环节。
从安全视角进行评价,DeepSeek 基于在供需两端的不同角色,如何确保开源供应安全,又能适当、持续地向境内外用户提供模型服务,是当前讨论其潜在风险的重要问题。
04
法律滞后的安全风险
相对突飞猛进的技术发展,法律的适用存在一定的滞后性。当前,现有法律法规对政务系统接入人工智能模型缺乏相关明确的管理规定。
05
政务外网数据泄露风险
虽然政务外网并非一定会产生重要数据或数据泄露风险,但多地接入的单一应用模式则可能触发重要性阈值,引发数据关联、汇聚风险。
06
交互式对话的泄密风险
用户与模型的交互式对话也可能会突破传统信息系统“输入一输出”的线性边界,持续对话语境在模型端的累积可能形成敏感、重要数据。现有基于角色的访问控制(RBAC)静态权限模型,无法有效管控动态对话中的信息泄露风险和演化程度。
二
对策建议
01
充分认识人工智能可能引发的系统性风险
依据相关政策对系统性风险进行分类,及时监测甄别风险等级,并采取有效措施予以防范。(例:联合国 2024年9月发布的《治理人工智能、助力造福人类》最终报告)
02
依托法制体系形成内外合力
以网络安全法、数据安全法、保密法《网络数据安全管理条例》等法律法规为基本遵循,借助各地网络安全机构(如支撑单位)等力量形成内外合力,完善大数据时代信息保护与数据安全治理体系,通过适用《人工智能安全治理框架》等现有可用框架、工具开展相关风险评估。
03
构建网络安全信息共享机制
形成与模型算法提供者、第三方网络安全服务机构、集成厂商和其他相关主体的网络安全信息共享机制,发挥“国家级”态势感知和网络安全从业人员的“末梢”专业技术能力,合理发现、分析和修复安全漏洞等脆弱性风险,规范通报和披露流程。
04
更新应急预案和处置流程
更新政务系统、行业领域的网络安全事件预案和处置流程,特别是结合人工智能特有的风险类型,考虑建立完善必要的人工接管、“熔断”和切换机制,确保发生安全事件后的响应有效、影响可控。
05
规范政务人员的人工智能使用行为
特别针对政务文件的上传、敏感问题的交互等,规范对使用接入的人工智能和通过自带设备(BYOD)使用人工智能的行为进行场景、后果的区分。
06
强化人机协同与风险防控
对决策支持、协助执法、司法裁判等可能具有高风险性或“可解释性”要求更高的人工智能应用场景,应与人工智能模型、系统提供者进行更充分的细节协商和强化人工介入,避免危害公共安全等系统性风险的形成和累积。