摘要:短剧行业中出现以低价“永久买断”自然人肖像权并搭建AI艺人库的新型商业模式,引发人格权保护与商业创新之间的深层张力。本文从现行法律框架出发,系统分析“百元永久买断”模式的法律效力、合规风险与司法实践动向,并结合《民法典》《个人信息保护法》《互联网信息服务深度合成管理规定》等最新法律法规以及迪丽热巴AI换脸案、全国首例AI生成声音侵权案等典型司法案例,提出企业的分层动态授权合规路径与个人的多元化权利救济策略。研究认为,人格权的不可商品化属性决定了“永久买断”条款在法律上难以获得完整效力;人脸信息作为敏感个人信息的处理必须满足“单独同意”等高纯度合规要求;司法实践中“可识别性”标准的确立与技术中立责任豁免原则的否定,进一步收紧了AI肖像商业应用的法律边界。在技术迅猛迭代的背景下,合规不是创新的枷锁,而是让创新行稳致远的制度底盘。
关键词:AI艺人库;肖像权;敏感个人信息;深度合成;人格权保护
引言
2026年爱奇艺世界大会上,创始人龚宇描绘了一个被技术重构的影视未来:演员不必再长时间驻守片场,AI形象可以替他们完成表演,演员可以"像白领一样生活"。这一愿景引发了演员与观众的集体警觉,而在舆论之外,短剧行业早已形成了一条隐秘的生产链条——以低至百元的价格永久买断素人肖像,批量搭建"AI艺人库"。
张惠彬、侯仰瑶指出,AI换脸技术在短视频领域的广泛应用,使得"伪造"与"创作"的边界日益模糊,传统人格权保护体系面临前所未有的挑战[1]。看似高效的技术创新背后,一个根本性问题浮出水面:当人的面容可以像商品一样被永久定价、无限复制,人格尊严与技术效率之间的天平究竟该倾向何方?
本文将从现行法律框架出发,系统拆解"百元永久买断"模式的合法性边界,并在法律分析的基础上,进一步追问这一商业模式背后的人格权困境与制度应对。
一、“百元永久买断”模式的法律定性
(一)“永久买断”条款的法律效力存疑:人格权不可被“买断”的根本属性
这是整个模式中最核心的法律问题。肖像权属于人格权,具有人身专属性,它与自然人的人格尊严、身份认同不可分割,这与财产权的永久让渡存在根本性冲突。《民法典》第一千零二十二条明确规定:“当事人对肖像许可使用期限没有约定或者约定不明确的,任何一方当事人可以随时解除肖像许可使用合同,但是应当在合理期限之前通知对方。”杨显滨指出,该条款赋予肖像权人法定解除权,是《民法典》人格权编的一大创举,旨在保护肖像权人的人格利益,维护其人格尊严,保障人格自由发展,这在一定程度上彰显了人格利益保护相对于财产利益保护的优先性[2]。这意味着,即便合同写明了“永久”,法律仍然赋予了肖像权人随时解除的权利。
更深层的问题在于:人格权能否被“买断”?民法理论通说认为,人格权不得放弃、不得转让、不得继承。王利明明确指出,"人格权的商品化并没有改变人格权的性质,从根本上说,它只是使人格权的内容和权能增加了经济利用的性质"[3]。肖像许可使用合同本质上是对人格权中经济利益的许可,而非人格权本身的让渡。《民法典》第一千零一十八条明确规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像。法律分析普遍认为,“永久”期限的约定可能因“显失公平”而被主张撤销,其核心逻辑在于:肖像权作为人格尊严的数字化延伸,不应因一次低价交易而长期丧失对自身形象的控制权。换言之,法律上不存在真正的“永久买断”,任何试图以格式化合同实现这一目的的努力,最终都可能被司法和行政监管击穿。
(二)对价显著失衡引发的合同撤销风险
肖像的商业价值并非静态不变。一个籍籍无名的素人,今天以100元卖出肖像,明天可能因某部爆款短剧而家喻户晓。当企业的短剧因使用该肖像获得超额收益时,一次性100元的固定对价将形成明显的利益失衡。《民法典》第一百五十一条明确规定:“一方利用对方处于危困状态、缺乏判断能力等情形,致使民事法律行为成立时显失公平的,受损害方有权请求人民法院或者仲裁机构予以撤销。”
这一规定的深刻之处在于:它承认了信息不对称和谈判能力差异对合同正义的侵蚀。向素人抛出“百元买断”邀约的企业,显然处于信息优势和专业优势地位;而大多数被邀约者既不了解AI深度合成技术的商业潜力,也不清楚人格权许可的法律后果。这种结构性不平等,恰恰是显失公平制度所要矫正的对象。
(三)敏感个人信息处理的合规缺失:同意的“纯度”问题
人脸信息属于《个人信息保护法》第二十八条定义的“敏感个人信息”,其处理需满足“特定目的、充分必要、严格保护措施”三大前提,并取得个人的“单独同意”。所谓“单独同意”,是指处理者须通过独立的、不可绕过的交互界面,就人脸信息处理的目的、方式、范围及可能影响向信息主体进行充分告知,且不得与其他授权事项捆绑。
当前市场中大量“百元买脸”操作,往往仅草签一份笼统的授权协议,既未以弹窗形式取得单独同意,也未告知人脸信息将被存入AI模型进行深度训练等处理目的,这已构成违法处理敏感个人信息。企业可能面临《个人信息保护法》第六十六条规定的最高五千万元或上一年度营业额百分之五的罚款。
更值得关注的是,2026年4月国家互联网信息办公室发布的《数字虚拟人信息服务管理办法(征求意见稿)》第七条进一步明确,使用自然人敏感个人信息用于建模、形象生成等活动的,必须取得单独同意,且应以“显著方式、清晰易懂的语言”真实、准确、完整地告知处理目的、必要性及对个人权益的影响。
这里的关键不在于“有没有同意”,而在于“同意的纯度够不够高”——将人脸信息授权条款埋藏在数十页的用户协议第XX条第X款中,法律上很难构成有效同意。
(四)AI“深度伪造”的额外合规义务
AI艺人库的核心用途是通过AI换脸、深度合成等技术将授权肖像用于短剧等内容制作。对此,《互联网信息服务深度合成管理规定》设置了严格的合规要求:具备舆论属性或社会动员能力的深度合成服务,必须依法备案、进行内容审核、落实实名管理、嵌入合成标识。
尤其值得警惕的是,人脸一旦被放入训练模型,个人的数字形象能否被“收回”?如果协议未明确约定虚拟形象的后续使用限制,企业可能永久保留该模型,肖像权人对自身形象的控制权将彻底丧失。在一次百元的交易中,这种风险往往被完全忽视,而这也正是最危险的环节。
(五)声音权益的平行保护
AI艺人库通常不仅涉及肖像,往往还伴随声音的商业化利用。《民法典》第一千零二十三条明确规定,自然人的声音受人格权保护,参照适用肖像权保护的有关规定。2024年,北京互联网法院审结全国首例AI生成声音人格权侵权案,明确认定在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。该案中,配音师殷某的声音数据被用于AI化处理后生成文本转语音产品并对外销售,法院最终认定被诉行为构成侵权。申朝璐指出,声音具有独特性、可识别性以及与人身实体的不可分离性,因此声音属于人格利益;声音的商业化利用也使其具有经济价值,但声音权益是独立于肖像权而存在的人格利益[4]。姜婧莹进一步提出,AI生成声音侵害声音权益的可识别性判断,应综合考虑行为人使用情况,并以相关领域普通听众能否识别作为判断标准[5]。这一裁判规则同样适用于AI短剧场景,即使企业已取得肖像授权,若未经独立许可使用其声音进行AI生成,仍构成独立的人格权侵害。
二、司法实践的最新动向:从个案裁判到规则确立
(一)“可识别性”标准的适用边界:神似即侵权
在AI生成的时代,肖像侵权的认定标准正在不断明确。王叶刚指出,肖像具有可识别性是其受到法律保护的前提条件,不论是权利人请求行为人承担侵害肖像权的责任,还是权利人积极利用其肖像权,都以其肖像具有可识别性为前提[6]。阮神裕进一步提出,肖像权保护的法益具有多元性,因而肖像可识别性的判断标准也不宜拘泥于单一标准,而应当被建构为一个多元化的标准体系,不同法益适用不同程度的判断标准,尊严利益相对宽松,同一性利益相对严格,而财产性利益最为严格[7]。
2026年3月20日,北京互联网法院对迪丽热巴AI换脸侵权案作出生效判决,确立了肖像侵权认定的核心原则:只要AI生成的形象在面部轮廓、五官特征等细节上与自然人高度相似,足以让公众稳定识别为特定对象,即构成侵权,无需完全复刻原貌。法院特别强调,“神似而非一模一样也构成侵权”,并将“以相关领域一般公众能否识别”作为判断标准。
这一裁判规则的突破性意义在于:借“混合面孔”之名行侵权之实的路径被彻底堵死了。短剧制作方试图通过多张真人照片混合生成、添加风格化处理等手段规避侵权的做法,在司法审查中不再具有合法性。这背后是对肖像权的深层理解:肖像权保护的不是一张照片的精确复制,而是个人形象所承载的身份识别利益和人格尊严。
(二)技术中立不等于责任豁免
在迪丽热巴案中,法院同时明确了一项重要原则:“技术中立不等于责任豁免”。获得著作权授权同样不能成为侵害他人肖像权的豁免理由。这一立场在此前的配音演员殷某AI声音侵权案中已有铺垫,而在杭州千炎万羽与阜阳志尚案中得到了更加彻底的贯彻,涉案短剧仅有两个片段使用了AI换脸技术,整剧时长约90分钟,侵权使用的比例并不高,但法院依然认定制作方和播出方均应承担侵权责任。张译丹在《中日深度合成技术侵害人格权规制比较研究》中指出,中国形成了"专门规则+民法典原则"的规制模式,以《互联网信息服务深度合成管理规定》为标志,强调事前预防;而技术中立不等于责任豁免的原则确立,正是这一规制模式在司法层面的具体体现[8]。这意味着,企业不能再以“技术工具的被动使用者”或“仅使用了少量片段”为由主张免责,合规义务贯穿内容生产的每一个环节。
(三)行政执法的力度升级
张海燕、涂龙科指出,深度伪造技术天然带有异化风险,易导致虚假信息生成和泛滥,不但侵犯公民合法权益,而且侵蚀社会信任体系;在立法层面应增设对生物识别信息的特殊保护,构建分级规制体系[9]。实践中,除了司法裁判,行政监管同样在持续发力。2025年4月,国家网信办部署开展“清朗·整治AI技术滥用”专项执法活动,第一阶段累计处置违规AI产品3500余款,清理违法违规信息96万余条,处置账号3700余个。近期热播的AI短剧《桃花簪》因被曝盗用多位素人脸,引发舆论和维权风波,最终被平台全面下架,其出品方被暂停上传所有剧集15天。这表明,监管层面对AI肖像滥用问题的整治力度正持续加码,企业不能再心存侥幸。
三、深层反思:当面孔成为商品,人格尊严如何安放?
(一)“百元买断”的本质:人数据的商品化与人格的定价问题
表面上看,“百元永久买断”是一种高效的技术授权模式。但剥开技术的外衣,我们看到的是一个更深层的伦理和法律困境:人的面容是否可以像原材料一样被定价、采购、库存、加工、销售?
肖像权作为人格权,其核心价值在于保障个人对其形象的控制权,决定何时、何地、以何种方式、向何人展示自己的面容。这种控制权关乎人的尊严和自主性。当一个人以100元的价格将面容永久卖给企业时,他实质上放弃了未来对自己形象的所有发言权。企业可以将这张脸植入任何剧本、任何场景,甚至与色情、暴力、违法内容绑定,而原权利人无法有效干预。
这不仅是合同问题,更是制度问题。我们的法律体系是否允许一个人用极低的对价,以自愿的名义放弃一项根本性的人格利益? 答案是否定的。显失公平制度、格式条款规制、任意解除权的赋予,都是法律对这种买断逻辑的制度性否定。但问题在于:这些保护机制需要权利人主动启动,而大多数签署买断协议的素人,既不知道自己的权利,也没有能力启动法律程序。
(二)信息不对称与权力不平等:格式合同时代的弱者困境
“百元买断”模式的另一深刻问题在于:它发生在严重的信息不对称和权力不平等背景下。企业是专业机构,拥有法务团队和技术团队,被邀约者通常是缺乏法律知识和商业判断的普通个人。企业提供的授权协议是典型的格式合同,条款复杂、权利义务严重失衡。
《民法典》第四百九十七条规定,提供格式条款一方不合理地免除或者减轻其责任、加重对方责任、限制对方主要权利的,该格式条款无效。将“永久”“全场景”“无限制”等条款植入协议,实质上是在格式合同的掩护下侵蚀肖像权人的核心权利。司法实践中可依据该条规定主张相关条款无效,但这又回到了同一个问题:这需要权利人主动挑战,而大多数权利人不知道、不愿或无力挑战。
(三)人格权的不可商品化边界:美国“公开权”与中国路径的比较
在比较法视野下,美国法上存在“公开权”(Right of Publicity)概念,允许个人将其肖像、姓名等身份标识的商业价值像财产一样转让、继承甚至永久授权。但中国法选择了不同路径。《民法典》将肖像权、声音权安排在“人格权编”,明确其人格权属性,同时允许对其中经济利益进行许可使用。这种“人格权+财产权”的双重结构决定了中国的肖像权许可不可能像美国公开权那样实现“永久买断”,因为人格权的基础始终存在,随时可以“召回”。
这一制度选择的深刻意义在于:立法者拒绝将人的面容彻底商品化。即使是在商业利用场景中,人格尊严的保护仍然处于优先位置。任何试图以合同手段架空这一制度基础的尝试,最终都会面临法律的否定。
(四)AI时代的“人格异化”:当数字分身与本人争夺身份认同
还有一个尚未被充分讨论的维度:AI艺人库不仅涉及经济利益,更涉及身份认同危机。当一个普通人的数字分身被AI生成内容广泛传播,公众开始将数字形象与本人产生关联时,本人可能会面临“我到底是谁”、“哪个才是真实的我”的困惑。这种人格异化效应,在目前的侵权救济体系中尚未得到充分关注,但它恰恰是AI时代人格权保护最深层的挑战。
四、企业端合规建议:从“买断”到“分层动态授权”
若企业确有搭建AI艺人素材库的商业需求,建议摒弃“买断”思维,转而构建符合现行法律规范的“分层动态授权”体系。
其一,肖像许可使用合同的条款设计应注重精细化。授权期限应明确约定为固定期限(建议一至三年),并于合同到期前设置续约协商程序,而非使用“永久”等模糊表述,以规避《民法典》第一千零二十二条关于无期限许可任意解除权的适用风险。授权对价应采用“固定基础许可费+浮动分成收益”模式,将基础费用作为肖像初始商业价值的体现,浮动分成与AI生成内容产生的实际收益挂钩,合理对价结构可有效降低合同被认定为“显失公平”的风险。使用范围应以附件形式详尽列举授权的具体应用场景,并明确禁止将肖像用于色情、政治敏感、侮辱性表达等违法违规用途,实现“正面清单+负面清单”的边界界定。
其二,敏感个人信息处理必须设置合规基线。企业应在用户注册或素材提交环节设置独立的、不可跳过的弹窗界面,逐项告知人脸信息将被用于AI模型训练、数字形象生成等特定处理活动,取得用户主动点击确认的单独同意。原始人脸图像与AI训练特征码应建立物理或逻辑隔离存储机制,通俗地说,原始照片和训练调用的特征码要分开存储,用特征向量跑模型,而不是直接拿高清原图去喂算法,即便数据库被攻击,泄露的也不是能直接识别到具体个人的生物信息。
其三,深度合成内容的管理义务不容忽视。依据《互联网信息服务深度合成管理规定》第十七条及2025年9月1日正式施行的《人工智能生成合成内容标识办法》,所有经由AI生成的视频内容均须添加显著且不易消除的合成标识(如“本画面由AI技术生成”水印),并同步在文件元数据中嵌入隐式标识,包含生成合成内容属性信息、服务提供者名称或编码等要素。
其四,算法备案是基本的合规准入门槛。根据《互联网信息服务算法推荐管理规定》及《深度合成管理规定》,具备舆论属性或社会动员能力的深度合成服务提供者,必须向网信部门履行算法备案手续,并在平台显著位置备案编号。
其五,内部合规机制应建立投诉快速响应通道。在平台显著位置设置侵权投诉入口,承诺48小时内响应并采取暂停生成、删除素材等措施,履行“通知-删除”义务以进入“避风港”保护。
五、肖像权人权益保护路径:权利救济的实务操作
对于已签署或正面临此类授权邀约的肖像权人,即便协议条款存在瑕疵,仍有多种法律路径可供救济。
第一,行使法定的任意解除权。根据《民法典》第一千零二十二条,即便合同约定为“永久”,肖像权人仍有权随时向对方发出书面的《肖像许可使用合同解除通知书》(建议使用EMS邮寄并保留回执),给予三十日左右的合理期限后,即可解除许可关系。解除后,企业不得继续利用该肖像生成新的内容,对于存量内容亦应进行下架或模糊化处理。
第二,援引“可识别性”标准认定侵权。肖像权人可通过公证取证,固定AI生成画面与本人照片的特征比对证据,通过面部轮廓线叠加图、五官细节放大对比、时间顺序链形成完整的证据链,据此主张侵权责任。即便AI生成的形象经过风格化处理,若面部轮廓、五官细节等生物特征足以使公众识别出对应身份,即构成对肖像权的侵害。同时,从内容发布平台的投诉渠道举报,要求内容下架,往往比直接提起诉讼更加快捷。
第三,声音权益受独立保护。若企业在获取肖像授权的同时,未经许可使用你的声音生成AI配音,构成对声音权益的独立侵害,可参照肖像权保护的路径主张权利。苏艺指出,声音商品化权可识别性认定应采取二阶构造,人格权保护模式下"可识别性"应当承担同一性认定和非同一性下名誉权延伸保护的功能[10]。
第四,行政投诉的实践效果往往优于司法诉讼。肖像权人发现侵权行为后,可优先通过行政投诉渠道高效维权。向国家网信办违法和不良信息举报中心(www.12377.cn)提交举报材料,选“侵权类”举报,说明对方未经授权使用人脸信息训练AI模型或违规生成深度合成内容,当前网信部门对这类问题的响应速度和执法力度都处于高位。同时可向12315平台举报企业价格欺诈或虚假宣传,形成行政与司法联动维权的合力。
第五,人格权禁令制度的运用。 根据《民法典》第九百九十七条,民事主体有证据证明行为人正在实施或者即将实施侵害其人格权的违法行为,不及时制止将使其合法权益受到难以弥补的损害的,有权依法向人民法院申请采取责令行为人停止有关行为的措施。石东秀指出,肖像权人只要有证据证明自己在某项深度伪造记录中被展示的,就可以到人民法院申请颁发禁令,迅速封锁、屏蔽或删除相关侵权内容[11]。这一制度具有预防性功能,可在侵权尚未造成严重后果时申请法院发出禁令,阻断AI艺人库的不当使用。
六、未来监管趋势与制度展望
国家互联网信息办公室于2026年4月发布的《数字虚拟人信息服务管理办法(征求意见稿)》释放了明确的信号:未经特定自然人同意,不得提供足以识别特定自然人身份的数字虚拟人服务,其中明确禁止“使用与特定自然人高度相似的肖像或者声音”。这标志着AI肖像商业应用的监管趋严已是不可逆转的必然趋势。
文铭、孙圆圆指出,深度伪造技术应用要从多个维度完善现有规制框架:解决现有法律规范适用问题,强化对个人信息的保护;创新监管模式,加强对深度伪造技术的监管;合理分配举证责任、加大侵权赔偿力度,完善救济途径[12]。从更宏观的视角来看,未来可能需要建立以下制度框架:一是强制性的事前告知与单独同意机制,杜绝将人脸授权条款隐藏在用户协议中;二是法定的冷静期与定期续签机制,防止一次性“买断”对人格权的长期侵蚀;三是AI艺人库的备案与公示制度,便于公众查询自己的数字形象被哪些企业使用;四是独立的第三方监督机制,对AI艺人库的数据安全和合规使用进行审计。
结语:对于企业而言,合规体系的构建不应被视为短期成本负担,而是确保持续经营与商誉积累的底层基础设施。对于个人而言,肖像与声音系人格尊严与自由的数字化延伸,一张“100元”的价签不应成为放弃权利的理由。买断肖像权表面上是低价出售面容,实则可能在出卖个体的主体性,AI时代的人格权保护不应被商业的短期利益所侵蚀。
合规,不是限制创新的枷锁,而是让创新走得更远的底盘。在技术狂飙的时代,我们比任何时候都更需要坚守一个底线——人不能成为商品,人格尊严不能标价出售。AI艺人库可以创造商业价值,但它必须建立在尊重每一个“人”的基础之上。
注释:
[1]张惠彬,侯仰瑶. 从技术到法律:AI换脸短视频的侵权风险与规范治理[J]. 北京科技大学学报(社会科学版),2024,40(1):124-132.
[2]杨显滨. 论肖像许可使用合同的法定解除[J]. 法律科学(西北政法大学学报),2024,42(6):89-101.
[3]王利明. 人格权法研究(第三版)[M]. 北京:中国人民大学出版社,2018.
[4]田朝璐. 声音权益保护研究——以AI声音侵权案为例[J]. 法学, 2024, 12(4): 2506-2511.
[5] 姜婧莹. 生成式人工智能侵害声音权益的可识别性判断方案[J]. 数字法治,2025(5):170-183.
[6] 王叶刚. 论肖像的可识别性及其认定[J]. 四川大学学报(哲学社会科学版),2018(3):27-31.
[7] 阮神裕. 论人工智能时代肖像可识别性的判断标准[J]. 法学家,2026(1).
[8] 张译丹. 技术滥用与权益衡平:中日深度合成技术侵害人格权规制比较研究[J]. 环球社科评论,2026,3(2):18-26.
[9] 张海燕、涂龙科. AI"深度伪造"刑法规制的路径选择[N]. 法治日报,2025-10-15.
[10] 苏艺. 声音商品化权可识别性认定的二阶构造——兼评"人工智能声音权第一案"[J]. 河北法学,2025(11):102-121.
[11]石东秀.论深度伪造换脸的法律规制[A].《上海法学研究》集刊(2021年第5卷 总第53卷)——2021世界人工智能大会法治论坛文集[C]. 2021
[12] 文铭,孙圆圆. 深度伪造技术应用风险及法律规制研究[J]. 中国科技论坛,2023(4): 158-167.
作者简介:
雷雅婷,执业律师
雷雅婷律师是北京德和衡律师事务所执业律师,美国圣路易斯华盛顿大学法学硕士,拥有LL.M.商法和公司法方向证书,具备一般证券从业资格。雷律师自2020年加入德和衡以来,专注于涉外民商事争议解决、财富管理与传承等业务,服务于科技、制造、文娱等行业企业、高校及高净值客户,具备跨法域、跨文化的专业服务能力。
手机:18810670382
邮箱:leiyating@deheheng.com