律师视点

袁屹、辛小天、史蕾:全球化视野下,人工智能合规安全目标精准化解决之道——基于SMART原则构建动态AI合规目标体系

2025-04-07

  当2025年的技术演进突破奇点时刻,人工智能已从技术概念转化为重塑社会的基础性力量。算力、算法、数据的三元融合催生出指数级进化能力。 人工智能作为一种全新的社会生产组织方式,正在迅速整合人力、知识、资本、能源等各类资源,成为继芒福德与马克思所论述的“巨型机器”之后的又一重要力量。[1]

  全球人工智能政策监管也加速到来,根据斯坦福大学发布的《2024年AI指数报告》,全球立法程序中提及人工智能的次数从2022年的1247次增加到2023年的2175次。海外AI典型政策呈多样化监管特色,监管目标包括风险管控、隐私与数据管理、体系治理与可持续发展类、国家安全与战略等。

  中国作为AI产业引领者,已形成“技术-数据-内容-伦理”四维治理体系。作为AI产业引领者,已形成“技术-数据-内容-伦理”四维治理体系。从《新一代人工智能发展规划》(2017)到最新发布的《人工智能生成合成内容标识办法》,政策框架持续完善。深圳更以《人工智能先锋城市行动计划》(2025)为标杆,探索多层级风险管理与国际接轨路径。

  当前,全球人工智能监管版图处于动态探索状态,呈现碎片化与多维交叉特征,尚未形成对人工智能治理复杂体系和底层属性的全面认知。这要求企业构建多维复合性内控机制,应对技术、伦理、法律、社会影响等多维度挑战。根据《人工智能安全治理框架》,AI应用面临算法安全、数据安全、系统安全、网络域安全、现实域安全、认知域安全以及伦理域安全等多方面风险。然而,KnowBe4在Infosecurity Europe 2024上的调查显示,31%的信息安全专业人员承认公司内部缺乏生成式AI的“负责任使用”政策。因此,AI内控体系的搭建与风险应对,需以贴合企业业务且具备可实现性的合规目标为基础。SMART原则(Specific明确性, Measurable可衡量性, Achievable可实现性, Relevant相关性, Time-bound时限性)在AI治理中具有很强的适配性,能够为企业提供明确的行为指引,助力资源合理配置,并有效评估合规工作成果与收益。

  SMART解决方案实践案例

  下文针对在AI业务和企业管理如何有效SMART原则,进行风险防范和治理提供可行思路。

  1. 明确(Specific):目标的可测量性以及可适用要求

  合规目标应具备可测量性以及可适用要求,应源于对自我AI业务的清晰界定和认知,目标确定需围绕业务属性与角色属性,确保与企业人工智能长期策略和政策相符,同时满足对标法域和监管要求。根据目标优先级,确认建立、实施、维护和持续改进人工智能系统所需的资源。数据合规和隐私保护应作为各行业的通用合规目标,同时需侧重特定行业的应用场景监管要求,如金融领域的算法推荐管理、医疗诊断领域的伦理责任以及自动驾驶行业的责任追溯机制。在角色属性中,平台责任边界的界定是近年的热议话题,尤其是生成式人工智能的应用,平台运营者已区别于一般的网络信息平台,其权属界定和权责划分更多依赖平台初始目标定位以及规则、用户协议的约定。

  2. 可衡量(Measurable):量化监控与评估指标

  量化合规效益以及制定有效评估机制可以直接体现合规工作的价值。数据量化治理可以做为合规目标的重要指标,特别是针对训练数据对算法模型的影响,通过测试、标签以及审核训练数据,直接关系到数据质量提升,降低“有害”或“侵权”内容的产生。也可以运用工具监测数据质量评估指标,引入数据治理平台等技术方案,分析数据问题的根源,并采取针对性的改进措施。

  对数据的治理工作可以从对训练数据的管控启动,针对训练数据对算法模型的影响,通过主要来源合规风险的识别以及运用工具监测数据质量评估指标,进行好数据的测试、标签以及审核等工作。

  AI合规风险评估机制和要点是确保人工智能系统在开发、部署和使用过程中符合法律法规、伦理道德和社会标准的重要手段。企业可根据自身业务定制合规评估重点,包括数据合规性、模型公平性、开源技术风险评估、算法透明度等,并根据风险性质、监管重点、对企业影响的严重程度进行分类分级。通过合规审查技术和平台的嵌入,实现动态监控。例如欧盟人工智能法案要求,高风险AI需要具备风险管理系统,以个人信息为主要要素机制的AI平台,应注意关注个人信息安全影响评估和合规审计机制的融合。 欧盟AI系统的CE标志(Conformité Européenne)认证表明产品符合欧盟的安全、健康、环保和消费者保护要求。在技术层面,也有“红队测试”与“基准测试”等代表性制度工具。

  3. 可实现(Achievable):管理与技术双路径落地

  管理和技术能力到位是确保AI合规建设目标可实现性的基础保障。落实到到岗是管理可行性的基础,需要科学、高效且富有弹性的管理组织架构。企业可根据合规体系成熟度及专业人员储备能力,灵活考虑新建或融合现有组织架构。现有政策已建议科技伦理委员会、数据合规安全部门承担人工智能的合规审核职责。《科技伦理审查办法(试行)》规定,从事人工智能科技活动且涉及科技伦理敏感领域的单位应设立科技伦理委员会。上海《人工智能大模型企业合规风险管理指南》建议数据合规安全部门负责管理评审,管理层定期审核人工智能管理系统,以确保其持续适用性、充分性和有效性。

  沿用数据安全的产品隐私工程的概念,实现系统之处的合规嵌入,防范开发者错误、操作者错误、用户错误 。2024年数十名人工智能专家签署《北京AI安全国际共识》,提出“任何人工智能系统都不应能够在人类没有明确批准和协助的情况下复制或改进自身”。 从技术方面,需确保关键领域研发安全可控,网络安全防护保障AI基础设施安全。隐私增强技术(PETs)如联邦学习、差分隐私可确保数据合规;LIME、Counterfactual Explanations等可解释性工具的应用可提升算法透明度;对抗样本攻击模拟(如Foolbox库)可满足鲁棒性测试,验证模型安全性。可追溯管理可通过标识机制实现,新加坡《框架》提出的“食品标签”式披露方法,为最终用户提供便捷验证内容真实性的渠道,有助于公众及时辨别人工智能生成合成内容,提高对造假信息的认知能力。

  4. 相关(Relevant):深度协同

  AI 合规目标需要与业务目标深度协同,相关性意为着对症要求。合规目标的实现需要以产品生命周期、供应链风险防范和专项应用风险等多角度的的深度理解和全面参与为前提。

  以某一人工智能产品为主线,应包括从模型引入、产品研发、市场营销、部署运营、升级维护到产品下架等全生命周期考虑AI产品在各环节的合规重点。

  参与要素和主体维度而言,也需要考虑芯片、软件、工具、算力和数据资源等供应链环境的全范围管理,界定相关方权责划分,防止风险传导和连带。欧盟AI法案全面覆盖了人工智能模型提供者、人工智能系统部署者、人工智能系统的进口商和分销商、产品制造商的责任要求。我国《人工智能安全治理框架》也针对模型算法研发者、 人工智能服务提供者和重点领域使用者提供了不同侧重点的主体责任指引。AI企业应厘清角色定位,在律己的同时,合规目标制定中应不能忽视对上下游相关涉及方的管理。为保障目标相关性的实现,合规参与方的全面覆盖和有效协同不可或缺。

  5. 时限性(Time-bound):动态迭代机制

  合规目标的设计应具备时限性和动态更新性。需落实目标效果的可检验节点,建立审计以及动态跟进的闭环管理机制,以确保合规目标的持续有效性。通过定期评估和调整,企业能够及时应对企业规模、技术发展、市场变化和监管要求的更新,保持合规体系的灵活性和适应性。

  人工智能治理正从“被动响应”转向“主动嵌入”。SMART原则为企业提供了从目标拆解到动态迭代的系统化工具,但其有效性依赖三个核心支撑:

  1. 技术-伦理-法律的三维融合,避免合规与创新割裂;

  2. 跨域协作机制,打通政策、企业与学术界的知识壁垒;

  3. 全球化视野,对标国际标准的同时保留本土化适配空间。

  未来,随着AI向通用智能(AGI)演进,合规体系需进一步强化预见性与弹性。唯有以精准化目标为锚点,以动态化治理为引擎,方能实现技术创新与风险管控的共生共赢。

  参考文献:

  [1]《人工智能法律治理的路径拓展》