问题: 2月26日,演员王劲松在社交平台发文,称自己的数字肖像遭到恶意盗用。据他描述,伪造视频通过AI技术高度还原了他的外貌、声音和口型,几乎难以辨别真假。这些内容随后在微信视频号上迅速扩散,短期内便触达大量用户。王劲松在后续回应中指出,技术滥用的危害远不止于侵权本身——这类"完美伪装"极有可能被用于电信诈骗等犯罪活动。 原因: 深度合成技术的门槛越来越低,但涉及的法律法规的跟进明显滞后。《民法典》虽有肖像权保护条款,却缺乏针对数字伪造行为的具体认定和处罚细则。平台方的内容审核也多停留在事后处理,难以在源头拦截违规内容。更关键的是,违法成本与维权成本严重不对等:侵权者操作门槛极低,受害者却面临举证难、周期长、赔偿少的现实困境。 影响: 这个事件暴露出三个层面的风险:公众人物的合法权益受到新型技术威胁,文化产业的创作环境也因此承压;普通用户面对高度逼真的虚假内容时,识别和防范能力普遍不足,容易成为诈骗目标;长期放任技术滥用,社会信任体系将面临系统性侵蚀。中国政法大学2023年研究报告显示,AI诈骗案件年增长率已超200%,其中肖像冒用类占比达34%。 对策: 应对这一问题需要多方协同。立法层面,应加快推进《网络空间法治化条例》修订,将深度合成技术纳入专项监管;平台层面,需建立AI生成内容强制标识制度和实时监测机制;公众人物可联合行业协会建立数字肖像版权库,借助区块链技术实现权属存证。值得关注的是,2024年1月国家网信办就《生成式人工智能服务管理办法》公开征求意见,其中明确规定任何组织不得利用技术手段伪造他人身份。 前景: 随着元宇宙、虚拟现实等技术持续演进,数字身份保护正在成为全球性议题。欧盟2023年通过的《人工智能法案》已将生物识别数据滥用列为高风险领域,我国《"十四五"数字经济发展规划》也将构建可信数字身份体系列为重点方向。专家建议参考金融行业反洗钱机制,建立跨平台数字身份验证联盟,同时通过公益诉讼制度降低维权门槛,推动技术创新与权益保护之间形成动态平衡。
技术进步本应服务于人的尊严,而非成为侵权工具;深度伪造技术的滥用,折射出数字时代人格权保护面临的深层挑战。仅靠个人警觉和平台自律远远不够,只有法律制度的系统性完善与社会各方的协同治理,才能真正守住每一位公民的数字形象。