律师视点

裴虹博:《人工智能拟人化互动服务管理暂行办法》(征求意见稿)解读与完善建议——以总体国家安全观为视角

2026-01-12

  编者按:为了促进人工智能拟人化互动服务健康发展和规范应用,依据《中华人民共和国民法典》《中华人民共和国网络安全法》《中华人民共和国数据安全法》等法律法规,国家互联网信息办公室起草了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,并向社会公开征求意见,全文共四章,三十二条。

  总体国家安全观是系统、辩证、统筹兼顾的安全理念,其核心要义在于构建集政治安全、国土安全、军事安全、经济安全、文化安全、社会安全、科技安全、信息安全、生态安全、资源安全、核安全等于一体的国家安全体系。人工智能拟人化互动服务作为一种深度融合技术应用与社会心理的新型业态,其治理已超越单纯的技术或行业管理范畴,直接关系到社会安全、文化安全、信息安全乃至政治安全等多个维度,成为检验总体国家安全观在数字时代实践效能的重要场域。

  本文以总体国家安全观为统摄性分析框架,审视《人工智能拟人化互动服务管理暂行办法(征求意见稿)》(下称《征求意见稿》)。基于此分析框架,我们不仅要关注显性的、传统的安全威胁,更需前瞻性地识别并管控因技术滥用、伦理失范、社会认知扭曲等引发的非传统、系统性、内生性风险。《征求意见稿》的出台,或许是是对这种复合性安全挑战的初步制度回应。

  一、 《征求意见稿》的系统性解读:定位、进展与深层挑战

  作为一部针对特定高风险场景的部门规章,《征求意见稿》体现了在总体国家安全观指导下,治理重心向源头预防、动态管控转型的初步尝试,但在应对系统性风险方面仍面临结构性挑战。

  (一)现行文本的定位与核心特征

  ●风险治理的前置性转移:通过服务备案、安全评估、内容标识等制度,将管理关口前移,符合“预防为主”的原则。

  ●治理对象的精准聚焦:锁定“拟人化互动”这一技术与社会心理的交汇点,抓住了可能引发社会认知混乱、情感操纵等“高敏”风险环节。

  ●责任体系的初步搭建:构建了以服务提供者主体责任为核心的责任框架,开始尝试调动市场力量。

  (二)基于国家安全维度的深度条款审视

  现行文本的监管逻辑主要集中于“服务提供者-生成内容-用户”的线性链条,从系统性安全视角审视,其在各维度上存在覆盖不均的缝隙:

  (三)核心挑战:从“分域管控”到“融合治理”的跨越难题

  当前办法条款呈现“并联式”的分域管控特点,但系统性风险恰恰产生于政治、社会、数据、技术等领域的交界处和相互作用中。其根本挑战在于缺乏一个能够进行 “风险关联分析”和“综合风险画像”的顶层架构与操作机制,难以应对复杂的“风险传导链”。

  二、 国际比较视野下的规则演进与启示

  全球主要法域正加快人工智能立法规制,其核心逻辑与我国《征求意见稿》有相似关切,也为完善提供了参考。

  国际共识与我国路径:国际社会在风险分类、透明度、域外管辖上形成共识。我国完善《征求意见稿》,应在吸收共性智慧的基础上,立足总体国家安全观,在技术治理深度、风险防范广度和协同治理效能上探索更优方案。

  三、 完善建议

  为应对挑战并吸收国际经验,建议对《征求意见稿》进行以下五个维度的系统性修订,推动其从“行业管理规范”升级为“国家安全治理工具”。

  (一)理念升级:确立核心治理原则

  ●建议:在总则中增补 “第四条 【治理原则】”,明确“坚持统筹发展与安全、风险预防、分类分级与敏捷治理的原则”,并授权建立分级分类目录及探索监管沙盒机制。

  ●目的:为整个办法提供价值锚点和弹性空间,将动态平衡理念制度化。

  (二)制度深化:实施穿透式监管

  ●建议:修改第八条【安全评估】,要求评估必须包含算法价值观对齐度、社会心理影响、系统鲁棒性、跨境风险四个专项报告,并鼓励第三方参与。

  ●建议:强化第十条【内容标识】,要求标识须符合国家强制性技术标准(如强鲁棒性数字水印),确保可溯源。

  ●目的:将监管从表面内容深入到算法内核与社会影响,并构建可验证的信任基础设施。

  (三)生态构建:激活多元共治

  ●建议:新增第十三条至第十五条【协同治理义务】,要求大型平台设立独立AI伦理与安全委员会并公开年报;支持第三方技术安全与伦理审计;建立公众-专家-监管联动的风险发现机制。

  ●目的:构建政府、市场、社会、技术社群协同的治理生态,形成风险共治合力。

  (四)主权延伸:强化域外效力与衔接

  ●建议:新增第十六条【域外效力与法律代理人(代表人)】,强制要求境外服务提供者指定境内法律代理人(代表人)并承担同等责任,否则可采取阻断访问等措施。

  ●建议:新增第十七条【制度衔接】,明确本办法与数据出境安全评估、网络安全审查等制度的衔接关系。

  ●目的:解决跨境监管的“抓手”问题,捍卫网络空间主权,形成监管闭环。

  (五) 风险聚焦:细化特别义务

  ●建议:在第十四条(调整后)【深度合成服务规范】中增加一款,要求提供情感陪伴、心理咨询等深度交互服务的,必须建立用户情绪识别与安全干预机制。

  ●目的:针对高风险场景,设置具体的技术性防护要求,防范社会心理风险。

  四、 《人工智能拟人化互动服务管理暂行办法(修改草案建议稿)》摘要

  基于上述建议,形成结构优化、内容强化的修改草案,主要改动摘要如下:

  ●第四条(新增):确立了“统筹发展与安全、风险预防、分类分级、敏捷治理”四大核心原则。

  ●第八条(细化):将安全评估具体化为四个强制性专项评估维度。

  ●第十条(强化):将“显著标识”升级为“符合强制性技术标准的可溯源标识”。

  ●第十三至十五条(新增):构建了企业内控(伦理委员会)、第三方制衡(审计)、社会监督(公众举报与专家研判)的协同治理框架。

  ●第十六条(新增):以“指定境内法律代理人”为核心,建立了可操作的域外管辖制度。

  ●第十七条(新增):明确了与现有数据跨境、安全审查制度的衔接,形成体系合力。

  综上,以总体国家安全观视角,《人工智能拟人化互动服务管理暂行办法(征求意见稿)》是一次必要且及时的立法尝试,标志着我国AI治理进入场景化、精细化新阶段。然而,要使其真正成为有效应对智能时代复合型安全挑战的“战略性治理工具”,必须推动其完成从 “分域管控”到“融合治理”的范式跃迁。

  完善的核心路径在于:将宏大的安全理念,转化为对算法机理的审查指标、对数据流动的精准控制、对协同治理的制度设计,以及对跨境管辖的刚性程序。通过本次修订,不仅能够为拟人化互动服务这一新兴领域建立清晰的规则预期,更能为构建适应数字时代、彰显中国智慧的国家安全治理体系提供关键的制度组件。