新闻资讯

AI前沿丨全球立法和监管2026年2月

2026-03-07

  目录

  国内立法监管动态

  1.八部门发文: 人工智能赋能招标投标

  2.我国首个人形机器人与具身智能标准体系发布

  3.北京经开区发布方案,强化人工智能监管护航产业发展

  4.市场监管总局公布五起AI领域不正当竞争典型案例

  5.最高法发布指导案例明确辅助驾驶情形下刑事责任的认定

  6.杭州中院审结全省首个涉AI技术伪造人脸通过活体认证的公益诉讼案

  7.诉讼参与人提交人工智能生成图片作为证据的处理——李某诉熊某升房屋租赁合同纠纷案

  8.浙江首例AI幻觉内容不正当竞争案宣判:AI并非内容失实免责理由

  境外立法监管动态

  1.西班牙数据保护局发布《智能体领域的数据保护专项指南》:明确合规防控要求

  2.印度发布首份AI治理框架

  3.美国纽约州拟立法:《AI新闻法案》与《数据中心建设暂停法案 》

  4.美国互动广告局发布《针对AI爬虫的立法草案》

  5.美国科罗拉多州《关于与人工智能系统交互中的消费者保护法》生效

  6.美国国家标准与技术研究院发布《AI智能体标准倡议》

  7.英国两家监管机构对聊天机器人“格罗克”展开调查

  国内立法监管动态

  1.八部门发文: 人工智能赋能招标投标

  2026年2月10日,国家发改委、工信部、住建部、交通部、水利部、农业农村部、商务部、国资委等八部门联合印发《关于加快招标投标领域人工智能推广应用的实施意见》(发改法规〔2026〕195号)(以下简称《意见》)。

  此次提出的“人工智能+”监管应用涵盖五方面:一是开展评标专家全生命周期智能管理,通过多维画像实现动态考核,赋能全国评标专家“一网管理”;二是构建“主体+行为”围串标综合预警体系,通过数据碰撞、文件扫描等挖掘疑似围串标线索;三是打造智慧信用管理能力,实现信用信息全流程智能化管理,精准开展信用评价与预警;四是建立标前、标中、标后全流程协同监管模型,自动识别招投标各类违规问题,实现问题线索智能化闭环管理;五是打造智能化投诉处理能力,辅助监管部门高效处理投诉,并智能筛查恶意投诉行为。

  据悉,围串标识别等监管重点场景将于2026年底在部分省市实现全覆盖应用,2027年底更多重点监管场景将在全国推广。

  《意见》要求各地要严格落实人工智能模型安全管理要求,强化模型算法、数据资源、基础设施、应用系统等安全能力建设,严格开展算法、模型备案和安全审核。构建数据、算力、算法和系统安全防护体系,确保模型安全可靠,有效防范和应对模型黑箱、幻觉和算法歧视等风险。

  来源及全文链接:国家发改委

  https://www.ndrc.gov.cn/xxgk/zcfb/tz/202602/t20260210_1403680.html

  2.我国首个人形机器人与具身智能标准体系发布

  2026年2月28日,人形机器人与具身智能标准化年会在北京召开。会上发布了《人形机器人与具身智能标准体系(2026版)》,这是我国首个覆盖人形机器人与具身智能全产业链、全生命周期的标准顶层设计,标志着相关产业进入规范化发展新阶段。

  标准体系由工业和信息化部人形机器人与具身智能标准化技术委员会组织领域内120余家科研院所、企业和行业用户单位研究编制,包括基础共性、类脑与智算、肢体与部组件、整机与系统、应用、安全伦理等6个部分。

  标委会有关负责人介绍了类脑与智算标准覆盖具身智能“大小脑”与智能计算等关键标准,规范数据全生命周期、模型训推部署全链路技术;应用标准规范人形机器人与具身智能体在不同应用场景的开发、运行和维护等;安全伦理标准贯穿于人形机器人与具身智能产业全生命周期,为技术演进和发展提供安全与合规保障。

  下一步,标委会将联合政府机构、行业企业、科研院所、高校,在标准体系框架下共同推进行业标准研制,以标准为引领,推进产业高质量发展。

  来源:新华社

  3.北京经开区发布方案,强化人工智能监管护航产业发展

  2026年1月29日,北京经济技术开发区管理委员会印发《关于进一步加快建设全域人工智能之城的实施方案(2026—2027年)》,在推进全域人工智能之城建设进程中,对人工智能监管提出多维度要求,为人工智能产业健康发展保驾护航。

  在基础与前沿领域,重点加强芯片、算力等底层技术安全保障,推进国家级软硬件测试验证与模型评测中心建设,集中突破深度伪造识别、生成内容合规检测等关键技术;同步在量子计算、6G+AI、空天智能等前沿技术布局中嵌入安全要求,从源头把控风险。针对产业与应用环节,监管覆盖智能终端、医药健康、具身智能、智能网联汽车等核心产业,以及城市治理、交通、教育、健康、农业、消费等应用场景,严格规范数据隐私保护、算法公平性、技术可靠性及公众权益保障,确保技术应用安全可控。在要素与生态层面,聚焦模数世界产业社区、开源协作、人才培养、数据建设、人才服务和金融支持等关键环节,强化数据流通合规、开源项目监管、资金使用安全等要求,保障资源高效配置。方案通过全链条、多场景的精准监管,推动人工智能技术在安全前提下赋能千行百业,支撑全域人工智能之城高质量建设。

  来源及全文链接:北京经济技术开发区

  https://kfqgw.beijing.gov.cn/zwgkkfq/2024zcwj/202504/t20250429_4077689.html

  4.市场监管总局公布五起AI领域不正当竞争典型案例

  2026年2月6日,市场监管总局切实贯彻落实党中央决策部署,强化反不正当竞争监管。一方面积极查办仿冒混淆、侵犯商业秘密等各类案件,为人工智能产业健康发展保驾护航;另一方面对利用人工智能技术实施的不正当竞争行为依法处置,引导科技向善。为有效引导经营主体依法合规经营,维护人工智能产业健康发展,现选取五起案例予以公布。

  五起案例分别是:第一,北京市朝阳区市场监管局查处北京奥蓝德信息科技有限公司利用网络实施混淆案。第二,上海市徐汇区市场监管局查处上海熵云网络科技有限公司利用网络实施混淆案。第三,上海市市场监管局查处上海俏聘网络信息科技有限公司帮助虚假宣传案。第四,浙江省杭州市市场监管局查处闵某某侵犯商业秘密案。第五,杭州市西湖区市场监管局查处杭州博珩传媒文化有限公司利用网络实施混淆案。

  其中,北京市朝阳区市场监管局查处北京奥蓝德信息科技有限公司利用网络实施混淆案,也是市场监管部门查处的利用网络实施混淆DeepSeek的首案。

  具体来看,北京奥蓝德信息科技有限公司(下称“当事人”)利用其运营的网站推广名为“DeepSeek本地部署工具”的软件(下称“涉案软件”),并在网页多处使用“DeepSeek”字样以及官方图标。同时,当事人使用竞价排名的方式利用“DeepSeek”知名度,取得不正当市场竞争优势,获取不当利益,但当事人、涉案软件开发主体均与DeepSeek官方运营主体无关联,系利用用户信息壁垒,借助“DeepSeek”字样“搭便车”,赚取流量热度。随着我国数字经济高速发展、信息技术创新迭代,仿冒混淆、虚假宣传等传统不正当竞争行为利用互联网技术花样翻新,且逐渐向人工智能领域延伸,阻碍了行业健康发展。在本案查办过程中,市场监管部门与时俱进关注网络热点话题,及时制止当事人违法行为,通过个案迅速查办警示了其他不法经营主体,对不法行为形成有力震慑,持续释放保护公平竞争的强烈信号,展现了市场监管部门执政为民、维护公平竞争秩序的责任与担当。

  来源:中国证券报

  全文链接:国家市场监管总局

  https://www.samr.gov.cn:3030/xw/zj/art/2026/art_0bea53d4e3904015a340b4e83241a8ec.html

  5.最高法发布指导案例明确辅助驾驶情形下刑事责任的认定

  2026年2月13日,最高人民法院首次发布道路交通安全刑事专题指导性案例。指导性案例271号明确了辅助驾驶情形下刑事责任的认定。

  被告人王某群饮酒后驾驶汽车,激活该车辅助驾驶功能,设置目的地,利用其私自安装的、可以逃避辅助驾驶系统监测的“智驾神器”配件,使车辆在实际无人监管状态下继续行驶,其则坐到副驾驶座位睡觉。该车行驶至目的地附近停止,因车辆挡道,过路群众发现车内仅有在副驾驶位睡觉的王某群,遂报警。民警到场后,对王某群进行呼气酒精含量检测,发现王某群涉嫌醉驾,将其送至医院提取血样。经鉴定,王某群血液酒精含量为114.5毫克/100毫升,属醉酒。

  经查,被告人王某群所驾汽车安装有2级驾驶自动化系统,亦即辅助驾驶系统,具有辅助驾驶功能。该系统设定,若驾驶人双手脱离方向盘超过2分钟,系统会提示驾驶人手握方向盘、接管车辆,若未及时接管,车辆会主动减速并退出系统。购车后,王某群学习了该车配套软件中的辅助驾驶系统安全知识,并通过相关考试,知道饮酒后不能激活辅助驾驶功能驾车,也知道激活辅助驾驶功能后,要手握方向盘并做好随时接管车辆的准备,但仍购买、加装可以模拟手握方向盘状态的“智驾神器”非法配件,以逃避辅助驾驶系统安全监测。

  因王某群所驾汽车安装的驾驶自动化系统系不能脱离驾驶人监管的2级辅助驾驶系统,故王某群仍然是负责执行驾驶任务的驾驶人,其利用事前安装的非法配件逃避辅助驾驶系统监测,并从主驾驶位移至副驾驶位、双手脱离方向盘并睡觉的行为,在性质上属于违规驾驶,不能以此否认其驾驶人的身份和责任。

  杭州市临平区人民法院作出(2025)浙0113刑初596号刑事判决:被告人王某群犯危险驾驶罪,判处拘役一个月十五日,并处罚金人民币四千元。宣判后,没有上诉、抗诉,判决已发生法律效力。

  来源:最高人民法院

  6.杭州中院审结全省首个涉AI技术伪造人脸通过活体认证的公益诉讼案

  2026年2月27日,浙江省杭州市中级人民法院审结全省首个涉AI技术伪造人脸通过活体认证的公益诉讼案。案涉“AI换脸”技术通过深度学习的算法,去识别目标人物照片中的人脸要素信息,不断提取这些人脸要素信息进行训练建模,实现换脸的效果。胡某甲、胡某乙为牟利,通过境外渠道获取他人手机号、头像、身份证等信息,利用上述AI换脸技术制作虚假活体认证视频,再通过植入虚拟相机程序,在平台人脸识别时自动播放预制的换脸视频,从而非法登录他人账号,获取收货地址、购物车信息等数据并出售获利。此外,二人还提供有偿虚假实名认证服务。浙江省杭州市人民检察院就此提起民事公益诉讼,要求二人在国家级媒体上公开赔礼道歉,并支付侵害社会公共利益的损害赔偿款。

  法院经审理认定,人脸信息属于敏感个人信息,受法律严格保护,处理人脸类的生物识别信息除必须获得个人的单独同意外,还需遵守相关法律法规的特别规定。胡某甲、胡某乙未经同意,利用“AI换脸”技术伪造活体认证视频,非法处理多人个人信息,不仅侵害不特定主体的个人信息权益,威胁公民人身财产安全,更破坏了社会信任秩序,损害社会公共利益,构成侵权。二被告虽称活体认证视频系由AI技术自动生成,但法院明确指出:技术的工具属性不改变行为的违法本质。技术是中立的,但技术的应用须受到法律规制,技术的使用者也必须对其滥用技术造成的后果负责。

  最终,法院判决胡某甲、胡某乙在《法治日报》公开赔礼道歉,并支付公益损害赔偿款,专门用于个人信息保护与AI技术滥用治理。

  来源:杭州中院

  7.诉讼参与人提交人工智能生成图片作为证据的处理——李某诉熊某升房屋租赁合同纠纷案

  2026年2月7日,李某诉熊某升房屋租赁合同纠纷案入库人民法院案例库,该案系涉人工智能生成图片作为诉讼证据的典型案例,法院明确诉讼参与人提交AI伪造证据需担责,相关证据依法不予采信。

  2024年5月,李某与熊某升签订房屋租赁合同,租期届满后熊某升拖欠4000元租金及部分电费,李某诉至法院并委托女儿董某晶代理,董某晶为证明熊某升用电量,提交了两张AI生成的电表照片,照片不仅带有AI生成标识,还存在入住前电表度数为0、前后电表外观不一致等明显不合理之处。

  法官审查发现证据问题后质询,董某晶承认伪造证据,法院对其予以批评教育,对该AI生成证据依法不予采信。经查案涉电表为共用电表,无法查清熊某升实际用电量,法院最终判决熊某升支付李某租金4000元,驳回李某要求支付电费的诉讼请求,双方均未上诉,判决已生效。

  法院在裁判中明确,诉讼参与人提交AI伪造证据需承担相应法律后果,情节轻微的,人民法院可以对其进行批评教育、训诫;情节较重的,可以依法予以罚款、拘留;构成犯罪的,依法追究刑事责任。法院对图片、视听资料等易被AI伪造的证据,需结合逻辑推理和日常生活经验全面客观审核,该案也为AI时代诉讼证据的审查认定划定了明确标准。

  来源:人民法院案例库

  8.浙江首例AI幻觉内容不正当竞争案宣判:AI并非内容失实免责理由

  2026年2月3日,杭州市滨江区人民法院依法审结浙江首例因传播AI幻觉内容引发的不正当竞争案。该案明确生成式人工智能的使用者必须扛起“内容审核”与“显著标识”的双重责任,为AI时代的内容创作与传播划定清晰的责任边界。

  案件中,百家号运营者李某使用AI生成文章,错误将一家无关公司标注为原告公司的重要子公司,还添加原告公司标识的配图发布。原告公司认为文内含有严重失实信息,容易误导公众,损害其商业信誉与竞争利益,遂以不正当竞争为由,将李某诉至法院,要求其消除影响、赔偿损失。李某辩称文章由AI生成且后台标注了来源,主观无侵权故意。

  法院认为,生成式人工智能作为内容生产工具,“AI幻觉”现象在现阶段难以避免,但这恰恰要求使用者必须承担起最终的“把关”责任。特别是像李某这样拥有数万粉丝、通过商业推广营利的自媒体运营者,更不能以内容为AI生成作为推卸责任的理由。

  法院最终认定,被告以增粉引流、获取商业利益为目的发布涉案文章,明知内容源于AI、可能存在失实,却未尽到与其能力相符的审核与显著标识义务,违背了诚信原则和商业道德,扰乱了公平的市场竞争秩序,损害了原告公司的商业信誉,构成反不正当竞争法第二条规定的不正当竞争行为。综合考虑原告知名度、被告过错、行为后果及维权成本等因素,判决被告在其账号内连续3日发布声明以消除影响,并赔偿3万元。

  来源:杭州中院

  境外立法监管动态

  1.西班牙数据保护局发布《智能体领域的数据保护专项指南》:明确合规防控要求

  2026年2月18日,西班牙数据保护局发布《智能体(AI Agent)领域的数据保护专项指南》(以下简称“指南”),针对该技术在个人数据处理应用中的数据保护问题划定规范,为相关处理责任方提供合规指引。

  智能体区别于传统AI系统,具备自主交互、从数字环境中获取信息并完成复杂任务的能力,其自主运作特性也为个人数据保护带来全新挑战。此次发布的指南聚焦责任方使用智能体开展个人数据处理时的各类数据保护问题,强调深入了解这一新兴技术是开展合规数据处理的关键,倡导从设计阶段就主动借助智能体的技术特性强化数据保护。

  指南从技术管控与组织治理两个维度提出具体要求。智能体需建立分级数据治理机制。

  技术管控:短期记忆应设置自动清理规则,建议24小时失效周期,防止历史数据过度累积。长期记忆需按数据敏感程度差异化处理,生物特征等敏感信息必须加密隔离存储,并在使用后及时脱敏。访问控制需严格限制数据调用范围,例如客服代理仅可访问咨询记录,不可触及支付信息,从源头杜绝数据滥用。

  组织治理措施:数据保护官需在系统设计阶段深度介入,主导开展数据保护影响评估,重点评估多智能体协作等高风险场景。开发团队需接受系统的提示词安全培训,避免嵌入可能导致歧视的内容。建立完善的应急响应机制,部署智能熔断系统,在检测到异常操作时立即暂停任务并启动人工审核。这一合规框架既认可代理式AI的创新价值,又关注其潜在风险,为企业在数字化转型过程中平衡效率与合规提供了实践路径。

  来源及全文链接:西班牙数据保护局

  orientaciones-ia-agentica.pdf

  2.印度发布首份AI治理框架

  2026年2月16日,在为期五天的“2026年印度人工智能影响力峰会”开幕前夕,印度政府于周日发布了该国首份综合性《人工智能治理指南》(以下简称“指南”)。该指南构建了一个基于原则的治理框架,旨在应对风险的同时促进创新。

  此举表明,印度希望在不出台刚性的独立人工智能专门法律的前提下,塑造负责任的AI治理模式。该框架致力于解决AI系统中的偏见、滥用和缺乏透明度等问题,同时确保技术采纳的步伐不被拖慢。

  核心为“七大原则”——以信任为基础、以人为本、创新优先于限制、公平与公正、问责与责任、设计透明性、安全与可持续性。这些原则共同强调,AI系统必须辅助人类决策、保持透明、避免歧视,并配备明确的安全保障。该指南的一个核心要素是依托现有法律,而非另立新法。官员表示,许多AI相关风险已包含在信息技术规则、数据保护法和刑事法规等现有法律条款中。因此,政府现阶段选择通过定期审查和有针对性的修订来应对技术演进,而不是立即出台一部独立的AI法律。该框架提议建立国家级机构以监督AI治理,包括:AI治理小组(协调各部委政策)、技术与政策专家委员会(提供专业建议)、AI安全研究所(专注于测试标准、安全研究和风险评估)。

  指南为AI开发者和部署者设定了责任,要求AI开发者和部署者发布透明度报告、在使用AI生成内容时进行明确披露、为受AI系统影响的个人建立申诉处理机制与监管机构合作。对于被认定为高风险的应用尤其是影响安全、权利或生计的应用,指南要求采取更严格的保障措施并纳入人工监督。

  来源:Firstpost

  全文链接:

  https://static.pib.gov.in/WriteReadData/specificdocs/documents/2026/feb/doc2026215790801.pdf

  3.美国纽约州拟立法:《AI新闻法案》与《数据中心建设暂停法案 》

  2026年2月6日,美国纽约州立法机构拟审议两项人工智能相关法案,旨在应对AI在新闻业的应用及数据中心扩张带来的能源压力。

  《AI新闻法案》要求所有“主要由生成式AI参与创作”的新闻内容,必须添加明显的免责声明;所有AI生成内容在发布前,须由拥有“编辑控制权”的人员进行审阅和批准;新闻机构须向员工阐明AI的使用方式与时间,并建立机制防止AI接触或调用包括消息来源在内的敏感信息。

  《数据中心建设暂停法案》 (S9144)拟对新建数据中心的许可审批实施至少三年的暂停期以应对居民、商业和工业用户的电费及燃气费上涨压力。据国家电网纽约公司数据,“大负荷”电力接入申请一年内增长三倍,预计未来五年将新增至少10吉瓦需求。纽约州已有超过130个数据中心。该州近期已批准爱迪生联合电气公司客户在未来三年内电费上涨9%。

  来源及全文链接:纽约州议会

  《AI新闻法案》:NYStateAssemblyBill2025-A8962A

  《数据中心建设暂停法案》:NYStateSenateBill2025-S9144

  4.美国互动广告局发布《针对AI爬虫的立法草案》

  2026年2月2日,美国互动广告局发布《针对AI爬虫的立法草案》(以下简称“草案”),核心在为出版商建立法律武器,以对抗AI公司未经授权、大规模抓取其内容进行模型训练和内容生成的行为。草案通过创设新的联邦诉由,重点解决AI开发中的版权与数据使用争议,关键在于严格定义了“明确事先同意”作为合法使用内容的唯一前提。这意味着,AI公司若使用“机器人”抓取受版权保护的“覆盖内容”来训练或运行其生成式AI系统,或利用AI生成内容的摘要与替代品,都必须事先获得清晰、主动的授权。草案特别指出,网站的一般服务条款或笼统的许可,不能构成有效的同意。同意必须针对具体的数据抓取与利用行为,或通过遵守网站明确的自动化访问协议来体现。

  来源及全文链接:美国互动广告局

  AI-Accountability-for-Publishers-Act-Draft-Legislation.pdf

  5.美国科罗拉多州《关于与人工智能系统交互中的消费者保护法》生效

  2026年2月1日,美国科罗拉多州《关于与人工智能系统交互中的消费者保护法》正式生效。

  科罗拉多州《关于与人工智能系统交互中的消费者保护法》针对高风险人工智能系统的开发者和部署者,提出了覆盖全流程的合规要求,重点通过“风险评估—技术保障—部署前测试”闭环管理,确保AI系统在关键决策场景中的安全性与公平性。首先,开发者与部署者需在系统开发或实质性修改阶段开展全面的风险评估,系统识别可能对消费者权益造成负面影响的潜在问题,覆盖歧视性风险、准确性风险、可解释性缺失及系统性影响,并采用科学验证工具形成书面风险评估报告。其次,需建立三大核心技术保障机制:一是通过数据质量管控、模型验证与持续监测确保输出结果的准确性;二是通过偏见检测修正、差异化影响分析及动态平衡机制保障公平性;三是通过决策逻辑透明化、可解释技术工具适配及用户友好输出提升可解释性。最后,系统正式部署前必须完成严格的测试流程,包括在模拟环境中验证多样化数据下的输出合规性、通过对抗性测试检验抗干扰能力、推荐第三方机构复核增强说服力,并完整留存测试方案、输入输出数据及结论报告作为监管证据。这一系列要求形成从风险预判到技术落地再到效果验证的完整链条,旨在确保高风险AI系统在刑事司法、教育、就业、金融等关键领域与消费者交互时“可用、可靠、可信”。

  来源:科罗拉多州议会官网

  全文链接:

  https://leg.colorado.gov/bill_files/47770/download

  6.美国国家标准与技术研究院发布《AI智能体标准倡议》

  2026年2月17日,美国国家标准与技术研究院(NIST)下属人工智能标准与创新中心(CAISI)正式发布《AI智能体标准倡议》,旨在推动具备自主行动能力的下一代AI智能体实现安全、可信的广泛应用,并在数字生态中达成无缝互操作,同时巩固美国在该技术领域的全球领先地位。

  AI智能体现已可实现自主编写调试代码、管理日程、网购等多元化应用,但其实际落地受限于与外部系统和内部数据的交互能力,生态碎片化问题也制约了技术普及。此次倡议由CAISI联合NIST信息技术实验室(ITL)、美国国家科学基金会等联邦机构协同推进,围绕三大核心支柱展开工作:推动产业主导的智能体标准制定并强化美国在国际标准组织的领导力;培育社区主导的智能体开源协议开发与维护体系;深化AI智能体安全与身份领域研究,助力跨行业可信落地。

  来源:NIST

  全文链接:

  https://www.nist.gov/caisi/ai-agent-standards-initiative

  7.英国两家监管机构对聊天机器人“格罗克”展开调查

  2026年2月3日,英国两家监管机构3日宣布,分别从数据保护和平台安全角度、依照不同法律对马斯克旗下人工智能企业xAI公司开发的人工智能聊天机器人“格罗克”滥用问题展开调查。英国信息监管局当天发布公报说,已根据英国数据保护相关法律对X互联网无限公司(社交媒体平台X在欧洲地区的关键法律实体)和人工智能企业xAI公司展开正式调查,调查内容包括与“格罗克”相关的个人数据处理以及该系统可能生成有害色情图像和视频内容的问题。

  英国信息监管局表示,调查将评估这两家公司在“格罗克”服务的开发和运作过程中是否遵守了相关数据保护法律,并强调如果发现这两家公司没有履行义务,英国信息监管局“将采取行动保护公众”。

  根据相关法规,英国信息监管局可对违法企业处以最高1750万英镑(约合2400万美元)或全球年营业额4%的罚款,以罚款较高者为准。

  当天,英国通信管理局发布公报说,正在“紧急推进”于上月启动的针对X平台的正式调查,以判定该平台是否未能遵守《在线安全法》规定的法律义务。

  英国通信管理局还表示,由于这一调查依据的法律在涉及人工智能聊天机器人方面存在局限,英国通信管理局只能依据现有权力采取行动,目前暂不调查xAI公司。

  英国通信管理局此前表示,对于持续违规的最严重情况,该机构可向法院申请“业务中断措施”,法院可由此发出临时或永久性命令,要求支付服务提供商或广告商从平台撤回其服务,或要求互联网服务提供商屏蔽英国境内对平台网站的访问。

  来源:新华社

  收集整理:德和衡网络安全与数据合规团队

  德和衡网络安全与数据合规团队是一个长期专注于数据合规专项法律服务的团队。团队成员由北京、深圳、上海三地的律师组成。团队自2014年成立以来,核心成员均来自国内领先的网络安全企业360,积累了丰富的行业经验。团队致力于协助企业客户提升数据管理水平,预防及应对数据安全问题,提高数据质量,并充分发挥企业数据资产的最大价值。目前,团队已为房产、能源、智能制造、电子、车联网、大数据、金融、物流、电商等多个行业的领军企业提供全套数据合规法律服务。