律师视点

辛小天:Open Claw事件背后的AI责任迷局——数据、技术、平台、运营四重防线如何失守?

2026-03-15

  2026年3月10日,国家互联网应急中心与工信部就Open Claw(龙虾)等AI智能体发布专项安全警示,明确指出该类具备自主决策、系统资源调用能力的产品存在多重安全隐患。随后,国内多所高校、超20家券商及政企机构发布禁令,全面禁止在办公设备和内网中安装运行该工具。

  这一系列监管动作,将AI智能体的合规问题推至台前。Open Claw并非孤例——从欧盟对算法歧视的重拳整治,到美国对生成式AI合规边界的持续博弈,再到中国对数据泄露、虚假输出的严格追责,各国均在技术创新与风险防控的平衡中探索监管路径。而中国本土近期出现的多起典型案例,更直接揭示了此类产品在应用中的现实法律风险。

  当技术创新撞上监管的靴子,Open Claw类AI智能体的四大核心合规风险也露出水面。

  数据出境风险

  Open Claw 类产品的核心风险,本质源于其技术架构的选择。为了追求更强大的语义理解能力,部分产品选择接入境外的大模型服务。这一选择带来的直接后果是:用户输入的每一句指令、每一份文档,都可能被实时传输至境外服务器进行处理。

  问题在于,用户输入的内容往往远超日常对话范畴——会议纪要中可能含有人事信息,项目文档中可能包含成本数据,商业计划书中可能涉及战略布局。这些数据一旦流向境外,便脱离了国内法律的管辖范围,面临被境外主体留存、分析甚至二次利用的现实风险。

  我国数据出境法规体系已相对完备。《网络安全法》《数据出境安全评估办法》对重要数据和达到一定量级的个人信息出境,设置了严格的合规路径。然而,监管的清晰并不等于执行的到位。

  2025年12月至2026年1月期间,某单位工作人员私自使用开源AI工具处理内部文件,由于其使用的电脑默认开启公网访问且未设置密码,导致单位敏感资料被境外IP非法访问并下载。该事件成为AI工具使用不当引发数据出境泄密的典型案例,国家安全部为此专门发文警示,央视也对该案例进行了集中曝光。

  DeepSeek在德国和意大利的遭遇,也从国际视角印证了问题的普遍性。德国监管机构要求应用商店下架该应用,理由是数据保护措施不符合GDPR的要求;意大利的屏蔽措施,则源于数据保护的细节尚未充分公开。这些监管动作指向一个相同的判断:数据出境的合规义务,不会因技术的新颖性而被豁免,也不会因企业的规模而被通融。

  技术安全风险

  如果说数据出境是数据“主动”走出去,那么技术安全风险则是恶意行为“被动”闯进来。工信部通报显示,Open Claw现有版本存在多项高中危漏洞:默认端口公网暴露,相当于给黑客留了后门;权限管控宽松,意味着攻击者可以越权操作;提示词注入攻击的风险,则意味着看似正常的对话,可能正在操控AI执行删除文件、转账汇款等恶意指令。

  《网络安全法》第二十二条的逻辑,正是针对这类风险设计的:它要求网络产品发现安全漏洞时必须立即补救并告知用户。而工信部专项警示的法律意义在于把Open Claw的漏洞从“未知”变成了“已知”“应知”,从“可能有问题”变成了“官方确认有问题”。这意味着,善意使用人的借口不再能被合理适用。基于工信部发文,目前国内多所高校和超20家券商在2026年3月密集发布禁令,全面禁止在办公设备和内网中安装运行Open Claw。这不是对技术的排斥,而是对已知风险的审慎回应——在法律责任面前,预防永远比抗辩更有力。

  另一个风险来自AI“幻觉”。大模型的生成机制决定了它在信息不足时可能“编造”内容,特别在商业场景中易导致虚假合同、错误判例、误导性文案的产生。

  杭州滨江法院2026年2月审结的那起案件,审结浙江首例因传播AI幻觉内容引发的不正当竞争案。该案明确生成式人工智能的使用者必须扛起“内容审核”与“显著标识”的双重责任。几乎同时,美国伊利诺伊州联邦地方法院立案的一起诉讼中,日本生命人寿起诉OpenAI,原因是ChatGPT为用户草拟法律文件时捏造虚假判例,怂恿用户撕毁和解协议,导致保险公司为应诉产生30万美元律师费。原告索赔1030万美元,理由是AI的“幻觉”直接导致了经济损失。

  这些案件提出的问题远比索赔金额更复杂:当AI“编造”内容,责任该由谁承担?是开发者、部署者,还是使用者?司法实践尚未给出统一答案,但裁判趋势正在形成——权责一致,失责必究,责任主体难以通过“技术黑箱”简单切割责任。

  平台责任风险

  早期的互联网平台往往以“技术中立”为由,试图割裂工具提供者与用户行为之间的法律关联。然而,随着数字技术对社会结构的影响持续深化,法律对平台的期待已从“被动响应”转向“主动治理”,平台责任的内涵正在经历结构性重塑。

  就Open Claw这类产品而言,其平台责任的特殊性根植于技术架构的三重属性:依赖大模型引发数据主权层面的合规挑战;开源架构使得代码易被篡改,带来技术失控的风险;高权限的交互机制则进一步削弱了平台对用户行为的有效控制能力。这些技术特征共同决定了其责任判断不能简单套用传统平台范式。

  在法律适用层面,《民法典》第一千一百六十九条为教唆、帮助侵权设定了明确的连带责任机制,若平台明知或协助用户利用AI工具实施侵权,如批量生成侵权内容或提供破解工具,则需与实际侵权人共同承担责任。此外,《网络安全法》第29条明确禁止开发、提供用于非法入侵网络或窃取数据的恶意工具。《最高人民法院关于审理技术合同纠纷案件适用法律若干问题的解释》进一步规定,在技术开发或许可合同中,若当事人知道或应当知道对方存在侵权行为仍继续履行合同,将被认定为共同侵权,并承担连带赔偿责任。

  工信部专项警示发布后,平台对Open Claw固有风险的知晓在法律上被推定为“应当知道”。 这意味着,若平台在警示后仍未采取有效措施——如下架产品、修复漏洞、发布风险提示——其主张免责的空间将极为有限。

  上海青浦区法院在处理大量同类案件时,亦对AI技术在商业应用中的责任边界提出了司法建议。在部分案件中,行为人利用大模型的AI幻觉特性,通过非正常搜索手段污染训练数据,致使模型输出错误结果。法院据此建议企业明确AI模型在商业场景下的责任边界,确保其应用符合法律及行业规范,防范利用AI技术实施不正当竞争或侵害他人权益的行为。

  运营规范风险

  Open Claw 类 AI 智能体作为生成式人工智能服务,其运营涉及多维度法律风险:

  1.行政监管风险:

  生成式AI产品具有显著的舆论属性和社会动员能力,若运营主体未履行法定的安全评估、算法备案、生成式人工智能服务备案,或未对AI生成内容进行显著标识,将直接违反《生成式人工智能服务管理暂行办法》《互联网信息服务算法推荐管理规定》等法规,面临专项监管处罚。

  2.知识产权侵权风险:

  由于境外大模型的训练数据以及Open Claw的开源代码可能存在权利瑕疵,在提供产品定制及智能交互服务过程中,极易引发对他人著作权、商业秘密的侵犯。特别是在协助用户进行功能定制时,若运营主体未对输入数据的知识产权合规性进行审慎核查,可能需承担相应的连带侵权责任。

  3.不正当竞争与垄断风险:

  若产品在算法推荐、信息排序、流量分发等环节存在算法歧视、流量劫持或自我优待等行为,将直接违反《反不正当竞争法》及《反垄断法》的相关规定,从而面临监管机构的调查与行政处罚。

  4.生态兼容性与平台合规风险:

  运营规范的缺失不仅引发公权力的监管风险,更直接威胁产品的商业生存基础。例如,2026年2月至3月间,因部分用户利用此类智能体实施批量刷量、虚假注册等黑灰产行为,微信、抖音、小红书等平台已大幅升级反作弊策略;同时,因存在绕过官方API违规调用大模型的行为,谷歌、Anthropic等海外平台也对相关账号进行了大规模封禁。这表明,忽视运营合规将导致产品被主流平台生态所排斥,丧失市场准入资格。

  风险防范的逻辑重构

  Open Claw的监管警示,并非孤立事件。从欧盟《AI法案》的生效,到美国司法判例的积累,再到中国本土案例的涌现,一个清晰的趋势正在形成:技术创新不能以牺牲合规为代价,法律风险也无法通过技术优化自行消解。

  面对上述挑战,单纯的“补丁式”合规已难以奏效。明者防祸于未萌,智者图患于将来。AI智能体的风险防控,需要从架构设计之初就嵌入法律与安全思维。以下防控维度可供实务参考:

  *部分内容AI生成