知名演员肖像遭技术伪造 专家呼吁立法遏制深度伪造侵权乱象

围绕“深度合成”技术滥用导致的肖像侵权问题,王劲松的遭遇再次把“真假难辨”的风险推向公众视野。

王劲松表示,有人在视频平台盗用其形象制作并传播合成视频,画面与声音高度拟真,普通用户很难在短时间内识别。

虽然在投诉后相关视频被下架,但其担心并未消散:如果更逼真的合成内容被用于引流带货、造谣抹黑甚至电信网络诈骗,后果将更难控制。

从问题表现看,合成影像不再停留在“粗糙拼接”,而是进入“以假乱真”的阶段。

它不仅侵犯个人肖像权、姓名权与声音等人格权益,还可能造成名誉损害、商业代言混淆、粉丝受骗与社会信任受损。

对公众而言,识别门槛越来越高;对被侵权者而言,发现难、取证难、追责难的问题仍较突出。

从原因分析看,技术扩散与治理滞后形成“时间差”。

一方面,生成式合成工具门槛降低,模板化、流程化操作使不法分子可快速批量制作“名人同款”视频,通过短视频平台的推荐机制获得传播。

另一方面,部分内容发布者抱有侥幸心理,以“擦边”方式规避规则,或在被投诉后换号重发、跨平台迁移,增加治理难度。

更值得关注的是,侵权收益与违法成本不对称:视频下架往往只是止损的第一步,但若不能有效锁定主体并形成实质性惩戒,震慑效应有限,侵权行为便可能反复出现并向更隐蔽、更有组织的方向演变。

从影响层面看,合成内容的外溢风险正在由“个体权益受损”延伸至“公共安全与社会治理”领域。

其一,名人形象被盗用,容易触发舆论误判,干扰正常的信息传播秩序。

其二,一旦与诈骗链条结合,利用“熟人声音”“权威形象”诱导转账、引导下载不明软件等,可能放大电信网络诈骗的成功率。

其三,长期以往会稀释公众对视频证据的信任基础,导致“看见也不敢信”的社会心理,加剧信息环境的不确定性。

针对对策层面,多方协同需进一步落到可操作的制度与流程。

平台方面,应在“事前预防、事中识别、事后追责”上形成闭环:完善深度合成检测与水印溯源能力,对疑似合成内容提高审核权重与复核频次;强化显著标识义务与提示机制,减少误导;对重复侵权账号、工作室式账号实施更严处置;同时优化投诉通道,提升处理时效与透明度,为权利人提供便捷的证据留存与进展查询。

监管与执法方面,可进一步推动规则细化与执法协同,强化对“合成内容未标识”“冒用他人身份牟利”等行为的处罚力度,压缩违法灰色空间;对涉嫌诈骗、敲诈勒索等情形,推动快速移送与刑事打击。

行业与社会层面,应加强对合成内容合规使用的教育提示,推动机构、创作者、MCN与技术服务商落实主体责任,形成“能用但有边界、创新但守底线”的共识。

就前景判断而言,随着合成技术持续迭代,“更真、更快、更便宜”的趋势难以逆转,治理思路也需要从单点拦截转向体系化防控:一方面通过技术手段提高识别与溯源能力,另一方面以制度与执法提高违法成本,同时以公众媒介素养教育降低受骗概率。

只有让侵权者付出与其危害相匹配的代价,才能避免“下架即了事”成为默认结局,进而守住网络空间的真实底线与信任基础。

AI技术是一把双刃剑。

在为人类社会带来便利的同时,其滥用也带来了前所未有的挑战。

王劲松的遭遇并非个案,而是一个警示信号。

随着AI技术的普及,类似的侵权和诈骗风险将愈加突出。

这要求我们在享受技术进步的同时,必须建立更加完善的法律框架、更加有力的监管机制和更加成熟的社会共识。

只有通过技术创新、法律完善和全社会的共同努力,才能在保护个人权益和防范社会风险之间找到平衡点,让AI技术真正造福人类。