寿步 | 网络安全法的修改与人工智能安全治理制度的确立


目次
一、引言
二、我国AI安全治理制度的法律基础与制度演进
三、我国AI安全治理制度的现行体系与实施机制
四、我国AI安全治理制度的实施效果与面临挑战
五、我国AI安全治理制度中的AI相关立法的建议方案
六、结语
PART.01
引 言
2025年10月28日,全国人大常委会通过《关于修改 <中华人民共和国网络安全法> 的决定》(以下简称“《网络安全法》2025年修改决定”),新增第二十条第一款明确规定:“国家支持人工智能基础理论研究和算法等关键技术研发,推进训练数据资源、算力等基础设施建设,完善人工智能伦理规范,加强风险监测评估和安全监管,促进人工智能应用和健康发展。”这一决定自2026年1月1日起施行,标志着我国人工智能(简称AI)安全治理制度在法律层面的正式确立,为构建安全可控的AI发展生态奠定了坚实的法治基础。
我国AI安全治理制度的确立具有重要的战略意义。一方面,它回应了AI技术发展带来的治理需求,为防范技术风险、维护公共利益提供了法律保障;另一方面,它体现了我国在全球AI治理中的责任担当,为构建人类命运共同体贡献了中国智慧和中国方案。下面从法律制度演进、现行治理体系、实施效果评估、国际比较借鉴以及未来发展趋势等维度,深入分析我国AI安全治理制度的发展现状,并对其未来发展提出展望。
PART.02
我国AI安全治理制度的法律基础与制度演进
《网络安全法》作为我国网络安全领域的基础性法律,自2017年6月1日施行以来,在维护国家网络空间主权、安全和发展利益方面发挥了重要作用。然而,随着AI技术的迅猛发展,现有法律框架已难以应对 AI 技术带来的新型安全挑战。AI技术在推动生产力革新的同时,正从技术内核与应用外延两个维度对经济社会安全体系形成系统性挑战。
此次修法的背景主要体现在三个方面:一是技术发展的迫切需求。AI技术的快速演进,特别是生成式 AI 的广泛应用,对传统的网络安全监管模式提出了全新挑战。算法黑箱、数据安全、伦理规范等问题亟待法律规制。二是风险防控的现实需要。AI 技术带来的风险呈现多样化、复杂化特征,包括技术失控风险、隐私泄露风险、算法歧视风险等,需要建立系统性的风险防控机制。三是国际竞争的战略考量。在全球AI竞争日趋激烈的背景下,建立完善的安全治理制度,既是保障国家安全的需要,也是提升国际竞争力的重要举措。
新增的第一款首次在国家法律层面确立了我国AI安全治理制度,具有里程碑意义。该条款采用了“支持+治理”的双重导向,既强调对AI技术研发和基础设施建设的支持,又突出对伦理规范和安全监管的要求,体现了发展与安全并重的立法理念。该条款包含五个核心要素:基础理论研究支持、基础设施建设推进、伦理规范完善、风险监测评估加强、安全监管强化,从而形成完整的AI安全治理体系框架。
2. 从顶层设计到具体规制:我国 AI 安全治理制度的演进脉络
我国AI安全治理制度的建立并非一蹴而就,而是经历了从顶层设计到具体规制、从分散探索到系统构建的演进过程。这一历程可以划分为三个主要阶段。
第一阶段,顶层设计与战略起步(2017-2020年)。2017年7月,国务院发布《新一代人工智能发展规划》,首次将AI上升为国家核心战略,提出了“三步走”发展目标。这一规划为我国AI安全治理奠定了战略基础,确立了“科技引领、系统布局、市场主导、开源开放”的基本原则。
第二阶段,要素立法与框架构建(2021-2023年)。2021年是我国AI安全治理制度建设的关键年份。《数据安全法》和《个人信息保护法》在年内相继出台,与2017年已经施行的《网络安全法》共同构成“三法”基础框架,确立了科技立法的发展与安全并重主旨,建立了对网络设施、数据、个人信息等AI相关要素的法律规制体系。2022年,《互联网信息服务算法推荐管理规定》和《互联网信息服务深度合成管理规定》相继发布,标志着我国对 AI 算法的监管进入规范化阶段。特别是《深度合成规定》将深度合成服务纳入监管范围,要求具有舆论属性或者社会动员能力的深度合成服务提供者履行算法备案手续。2023年7月,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》,这是我国首部专门针对生成式AI的规范性文件,确立“发展和安全并重、促进创新和依法治理相结合”的原则,对生成式AI服务实行包容审慎和分类分级监管。
第三阶段,综合治理与体系完善(2024年至今)。2024年9月,全国网络安全标准化技术委员会发布《人工智能安全治理框架》1.0版,首次提出中国版AI安全治理的系统性结构,确立了包容审慎、确保安全,风险导向、敏捷治理,技管结合、协同应对,开放合作、共治共享等四项治理原则。2025年9月,《人工智能安全治理框架》升级为2.0版,在继承1.0版基本框架的基础上,新增“可信应用、防范失控”原则,构建AI科技伦理准则,新增应用衍生风险治理维度,强化开源与供应链安全机制。《网络安全法》2025年修改决定的通过,标志着我国AI安全治理制度在法律层面正式确立。
3. “三法三规”制度矩阵的形成与功能定位
经过多年的立法努力,我国已形成以“三法三规”为核心的AI安全治理制度矩阵。这一矩阵的形成体现了我国AI安全治理制度的系统性和层次性。一方面,“三法”构成基础法律框架。《网络安全法》作为网络安全领域的基础性法律,为AI安全治理提供了总体框架和原则指引;《数据安全法》规范了AI系统处理数据的活动,为AI训练数据的合法性提供了法律依据;《个人信息保护法》则重点保护AI应用中的个人信息权益,防止算法滥用对个人隐私的侵害。另一方面,“三规”提供具体实施路径。《互联网信息服务算法推荐管理规定》系统规范了算法推荐服务,明确备案为核心合规要求;《互联网信息服务深度合成管理规定》针对深度合成技术,细化了内容标识、安全评估等责任;《生成式人工智能服务管理暂行办法》则专门针对生成式AI服务,要求具有舆论属性或社会动员能力的此类服务进行安全评估,并完成算法备案。
这一制度矩阵的功能定位层次分明、相互补充。基础法律确立基本原则和底线要求,部门规章则针对特定技术和应用场景提供操作指引。通过这种多层次的制度安排,我国AI安全治理实现了从宏观指导到微观规制的全覆盖。
值得指出的是,2025年3月发布的《人工智能生成合成内容标识办法》及其配套的强制性国家标准《网络安全技术 人工智能生成合成内容标识方法》,开创了技术标准与管理制度配合实施的新型治理模式,标志着我国AI安全治理迈入“技管双强”的新阶段。该办法要求AI生成内容必须进行显式或隐式标识,既保障了用户知情权,又为监管溯源提供了技术支撑。与此同时,全国网络安全标准化技术委员会秘书处发布《网络安全标准实践指南——人工智能生成合成内容标识 服务提供者编码规则》,为AI生成合成内容服务提供者和网络信息内容传播服务提供者提供编码规则,指导其开展AI生成合成内容的文件元数据隐式标识工作。
PART.03
我国AI安全治理制度的现行体系与实施机制
1. “五位一体”治理框架的构建与运行
《网络安全法》2025年修改决定确立的“五位一体”治理框架,即“支持研发+基础设施+伦理规范+安全监管+健康发展”,构成我国AI安全治理的核心体系架构。这一框架的设计体现了系统性思维,各要素之间相互支撑、协同推进,形成了一个有机的治理生态。
首先是基础理论研究支持机制。国家通过科技计划、专项资金等方式,加大对 AI 基础理论研究的支持力度。根据《新一代人工智能发展规划》,我国设立了新一代AI重大科技项目,聚焦基础理论和关键共性技术的前瞻布局。同时,鼓励高校和科研机构开展AI伦理、安全、法律等交叉学科研究,为AI安全治理提供理论支撑。
其次是基础设施建设推进机制。算力和数据是AI发展的两大基础要素。在算力方面,《算力基础设施高质量发展行动计划》的出台以及“东数西算”工程的有力推进,将算力资源上升为类似“水、电、气”的基础性要素,推动枢纽节点和数据中心集群布局。在数据方面,推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源,为AI训练提供充足的数据支撑。
再次是伦理规范完善机制。伦理规范是AI安全治理的价值引领。我国已发布《新一代人工智能伦理规范》,确立“以人为本、智能向善”等原则。《人工智能安全治理框架》2.0版进一步构建AI科技伦理准则,将“伦理先行”确立为AI治理的核心导向,把生命健康、人格尊严、社会公平、生态环境和可持续发展等价值嵌入AI全生命周期治理。
复次是风险监测评估机制。风险监测评估是AI安全治理的关键环节。《人工智能安全治理框架》2.0版建立了风险分级治理机制,设立五级风险等级:低风险、一般风险、较大风险、重大风险、特别重大风险,基于应用场景、智能化水平、规模进行评估。在技术层面,针对模型算法风险,强调提升可解释性与透明度,通过扩充训练数据多样性、引入人类监督机制减少偏见;数据安全防护覆盖数据全生命周期,要求规范数据来源、过滤违法内容、实施脱敏处理。
最后是安全监管强化机制。安全监管是AI安全治理的保障措施。我国建立了多部门协同的监管体系,网信、发展改革、教育、科技、工业和信息化、公安、广播电视等部门依据各自职责依法加强对生成式AI服务的管理。监管方式从静态许可转向动态风控,通过“事前评估—事中监测—事后纠偏”的循环式治理体系,实现对AI全生命周期的监管覆盖。
2. 分级分类监管体系的建立与实践
我国AI安全治理采用了分级分类的监管模式,这一模式的建立体现了精准治理的理念,既避免了“一刀切”的粗放管理,又确保了高风险领域的严格管控。
关于风险分级标准的建立。《人工智能安全治理框架》2.0版明确设立了五级风险分级标准,这一标准的制定充分考虑了AI技术的特点和应用场景的差异。低风险应用几乎无影响,如智能客服、推荐系统等;一般风险影响可控,如智能翻译、图像识别等;较大风险带来局部社会面危害,如自动驾驶、医疗诊断等;重大风险具有区域性冲击,如社会信用评分、大规模监控等;特别重大风险则具备系统性、灾难性特征,如自主武器系统等。
关于分类监管的实施路径。针对不同类型的AI应用,我国建立了差异化的监管路径。在算法监管方面,《互联网信息服务算法推荐管理规定》要求算法推荐服务提供者必须进行备案,备案内容包括算法的基本信息、功能介绍、应用场景等。在生成式AI监管方面,《生成式人工智能服务管理暂行办法》对具有舆论属性或者社会动员能力的生成式AI服务实行更严格的管理,要求开展安全评估并完成算法备案。在深度合成监管方面,《互联网信息服务深度合成管理规定》要求深度合成服务提供者对生成内容进行标识,并履行算法备案手续。
关于重点领域的特别监管。对于涉及国家安全、公共安全、个人隐私等重点领域,我国实施了更加严格的监管措施。例如,在医疗AI领域,国家药监局对AI类创新医疗器械实施“全生命周期质量监管”。在金融AI领域,要求AI系统在风险控制、反欺诈、客户服务等方面必须符合金融监管要求。在自动驾驶领域,建立了包括技术标准、测试规范、安全评估等在内的完整监管体系。
3. 技术治理手段的创新与应用
我国AI安全治理在技术手段创新方面取得重要突破,形成了“技术+管理”相结合的治理模式。既提升了治理的精准性和有效性,也为全球AI治理贡献了中国智慧。
一是内容标识与追溯技术。《人工智能生成合成内容标识办法》要求AI生成内容必须进行标识,标识分为显式标识和隐式标识两种形式。通过这种双重标识机制,实现了 AI 生成内容的可识别、可追溯。
二是算法备案与审查机制。算法备案是我国AI监管的重要创新。根据相关规定,含有生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息服务的,需办理互联网信息服务算法备案。通过算法备案,监管部门能够掌握AI系统的基本情况,及时发现和防范潜在风险。
三是安全评估与认证体系。我国建立AI安全评估与认证体系,对AI系统的安全性、可靠性、可控性进行综合评估。《网络安全技术 生成式人工智能服务安全基本要求》(GB/T 45654—2025)明确了语料安全、模型安全、安全措施以及安全评估的可操作要求,成为企业开展安全评估与主管部门评判服务安全水平的重要参照。
四是风险监测与预警系统。我国正在构建AI风险监测与预警系统,通过大数据分析、机器学习等技术手段,实时监测AI系统的运行状态,及时发现异常行为和潜在风险。
4. 伦理治理机制的建立与完善
伦理治理是我国AI安全治理体系的重要组成部分,体现了“以人为本”的价值导向。我国在AI伦理治理方面进行积极探索,形成政府主导、行业自律、社会监督相结合的治理格局。
第一是伦理准则体系的构建。《人工智能安全治理框架》2.0版首次构建了系统性的AI科技伦理准则,确立了“可信应用、防范失控”的核心原则。该准则强调确保技术演进安全、可靠、可控,严防威胁人类生存发展的失控风险,确保AI始终处于人类控制之下。具体包括人类最终控制、安全终止机制、国家主权尊重、价值观对齐、透明与可解释性等核心要素。
第二是伦理审查机制的建立。我国建立了AI伦理审查机制,要求高校、科研机构、企业在研发和应用AI技术时进行伦理审查。审查内容包括算法设计的公平性、数据使用的合法性、应用场景的适当性等。通过伦理审查,从源头上防范AI技术可能带来的伦理风险。同时,鼓励企业设立伦理专员岗位,加强企业内部伦理事务的管理和培训。
第三是行业自律与社会监督。在政府主导下,我国AI行业积极开展自律活动。相关行业组织积极起草制定AI伦理公约、行业规范,引导企业遵守伦理准则。
PART.04
我国AI安全治理制度的实施效果与面临挑战
1. 积极成效:从制度构建到实践落地
我国AI安全治理制度的实施取得了显著成效,在制度建设方面实现了重大突破,在实践应用中也展现出良好的治理效果。第一,国际地位显著提升。根据2025年7月发布的《2025年全球人工智能治理评估指数报告》,在评估的40个国家中,中国在总体AI治理水平方面居第一梯队首位。这一成就的取得,得益于我国在AI安全治理方面的系统性布局和持续投入。特别是在治理工具和治理成效方面,我国展现出了较强的优势,体现了制度设计的科学性和实施的有效性。第二,技术创新与安全保障平衡发展。通过实施AI安全治理制度,我国在保障技术安全的同时,也促进了技术创新的发展。研究表明,提升AI模型的安全能力对问题求解能力的影响微乎其微,说明安全与发展可以并行不悖。第三,风险防控能力显著增强。通过建立风险分级治理机制和完善的监管体系,我国在AI风险防控方面取得了明显成效。第四,产业生态健康发展。AI 安全治理制度的实施,为产业发展营造了良好的环境。企业在合规的基础上积极创新,形成了技术进步与规范发展的良性循环。同时,AI 安全治理催生了合规审查、风险评估、伦理咨询等新兴服务产业,为经济发展注入了新动能。
2. 存在问题:制度实施中的短板与不足
尽管取得了显著成效,但我国 AI 安全治理制度在实施过程中仍面临一些问题和挑战,需要在未来的发展中加以解决。具体包括:(1)跨部门协调机制有待完善。AI安全治理涉及多个部门,虽然各部门依据职责分工合作,但在实际工作中仍存在协调不畅的问题。(2)技术标准体系尚需健全。目前,我国AI技术标准体系还不够完善,在一些关键领域缺乏统一的技术标准和测试规范。不同企业、不同行业的标准不统一,导致监管难度加大,也影响了技术的互操作性。同时,标准的更新速度跟不上技术发展的步伐,一些新技术、新应用缺乏相应的标准规范,存在监管空白。(3)执法能力与技术发展的不匹配。AI技术的快速发展对监管部门的执法能力提出了更高要求。然而,目前执法部门在技术理解、工具应用、人才储备等方面还存在不足。特别是在面对复杂的AI系统时,执法人员往往缺乏必要的技术手段和专业知识,难以进行有效的监管。同时,现有的法律法规在面对AI技术带来的新问题时,也存在适用困难的情况。(4)企业合规成本过高。合规成本的增加主要体现在技术改造成本、人员培训成本、第三方评估成本等方面。对于资源有限的中小企业而言,高昂的合规成本可能成为其发展的障碍,不利于AI技术的普及应用。(5)从执法案例可以看出,我国AI安全治理制度在打击违法犯罪、保护公民权益方面发挥了积极作用,但在技术标准制定、检测机制完善、执法能力提升等方面仍需要进一步加强。
3. 国际比较:我国AI 安全治理模式的特色与优势
我国采用政府主导下的弹性治理模式,体现出“包容审慎、确保安全”的特征。与美国的市场驱动和欧盟的法律强制不同,我国更注重政府在AI治理中的引导作用,通过制定政策、完善规范、加强监管等方式,实现对AI技术的有效治理。同时,我国坚持“发展和安全并重”的原则,在防范风险的同时鼓励技术创新。
我国 AI 安全治理模式的优势主要体现在:制度的系统性,通过“三法三规”构建了完整的法律框架;治理的灵活性,采用分级分类监管,既保证了对高风险应用的严格管控,又为技术创新留出了空间;发展的平衡性,在保障安全的同时促进了技术创新和产业发展;国际合作的开放性,积极参与国际规则制定,推动全球AI治理体系建设。
PART.05
我国AI安全治理制度中的AI相关立法的建议方案
2025年5月《国务院2025年度立法工作计划》和《全国人大常委会2025年度立法工作计划》在推进AI健康发展立法方面措辞一致的表述,代表了中国AI相关立法进程的转折点,意味着中国AI立法进程在终止名为《人工智能法》的立法进程之后的重启。
中国AI立法可以考虑如下方案:(1)制定规范性文件时以部门规章为主、国家标准为辅,近几年暂不需要专门制定单独的法律或者行政法规。(2)适用中国现有的法律,有需要时就进行改、废、释。(3)结合中国法院的司法实践。(4)以中国特色的体制保障为最后的依托。
中国现有的和未来有需要时及时出台的针对AI的一系列部门规章,加上与此配套的一系列国家标准,加上未来有需要时对现有法律的改、废、释,加上法院在AI发展过程中已经进行和将要进行的涉及AI的司法实践,再加上中国特色的体制保障,应该足以应对“在中国境内”AI未来发展可能存在的任何风险,足以满足监管需要。
这里讲的“以中国特色的体制保障为最后的依托”,是指即使中国境内的AI技术已经发展到可以生产出具有孙悟空那种级别的AI agent(人工智能行为体),仍然可以相信,“中国特色的体制”背景下的监管机制会像如来佛那样、将孙悟空掌控在手中。这是中国国情决定的客观现实。2020年新冠疫情后中国的应对措施,体现了中国体制在重大风险挑战面前的极强的应急组织能力、高效动员能力、社会管控能力、基层治理能力,体现了中国体制在紧急状态或准紧急状态下的潜在优势。如果AI领域未来出现重大风险,相信中国特色的体制保障会发挥决定性的托底作用。
以孙悟空比喻高水平AI agent,意味着未来的AI agent具有高度智能化、自主性、甚至可能不受控的特性。孙悟空是一个极具能力、但也曾经挑战权威、引发混乱的形象。一方面是AI的潜在风险,AI agent如果具备高度自主性,可能对社会秩序、伦理、安全构成挑战;另一方面是“造得出”但“控得住”,中国具备强大的技术实力可以实现前沿AI的开发,而中国体制也有能力对其加以控制。这体现了对AI发展的双重认知:既看到技术进步的光明面,也警惕失控可能带来的风险。
如来佛代表的是绝对的掌控力与终极秩序的维护者。将中国监管机制比作如来佛,这里所强调的,第一是制度性约束机制,中国体制具备集中统一领导、政策执行能力强、社会资源调配高效等特征;第二是风险防控的主动意识,不是被动应对,而是提前布局、系统性监管;第三是国家主导的AI治理架构,通过制度设计、法律法规、行业准入等方式,将AI发展纳入可控轨道。这里凸显的是中国模式下的“治理先行”理念,强调技术发展必须服务于国家安全与社会稳定。
新冠疫情是对各国治理体系的一次“压力测试”,而中国政府的应对成为体制优势的典型案例。第一是高效的应急组织能力,从武汉封城、全员核酸检测到疫苗接种,体现了高度的组织效率;第二是资源调配与基层治理能力,中央统筹地方执行,社区成为治理末梢,展现出强大的社会动员力;第三是信息管控与舆论引导机制,在信息传播上保持主导权,防止社会恐慌。这些能力体现了中国未来应对AI风险的制度基础,即一旦AI发展出现重大风险,中国体制可以迅速响应、有效干预。
面对AI可能带来的风险,中国体制具有“托底”的能力,即在关键时刻能够“兜得住”,防止出现系统性崩溃。
中国的AI治理,需要这样一种治理哲学:一是技术发展必须与制度能力同步。不能只追求技术领先,而忽视制度配套与风险防控。二是AI治理不是限制,而是引导。通过制度建设让AI服务于国家利益与公共福祉。三是制度自信与技术自信并重。既相信技术能带来进步,也相信制度能驾驭风险。
总之,即使AI agent发展到孙悟空那样“神通广大”,在中国体制的如来掌之下,也能进行有效地驾驭。这种判断基于对中国体制在新冠疫情期间展现出的治理效能的信心,也折射出中国在AI治理上的战略思维——以制度优势保障技术发展,以治理能力筑牢安全底线。
与此同时,中国需要继续提高自己的AI技术水平,以便在国外出现白骨精级别的AI agent时,我们有孙悟空级别的AI agent进行应对。
PART.06
结 语
《网络安全法》2025年修改决定的通过,标志着我国AI安全治理制度在法律层面的正式确立。通过对我国 AI 安全治理制度发展现状的深入分析,可以看出,我国已经构建起了以“三法三规”为核心、以“五位一体”为框架、以分级分类监管为特色的AI安全治理体系,并在实践中取得了显著成效。
AI技术的发展日新月异,安全治理也需要与时俱进。我国通过政府、企业、社会各方的共同努力,必将建立起更加完善、高效、包容的AI安全治理体系,为实现AI技术造福人类的美好愿景提供坚实保障。
作者:寿步
编辑:Sharon



