AI视频生成模型紧急调整真人素材功能 肖像权版权保护引发业界关注

近期,社交平台上集中出现一批“高逼真度、强叙事感”的短视频,部分作品显示出多机位调度、角色稳定、光影统一等过去往往依赖专业团队才能实现的质感。热度上升的同时,Seedance 2.0的使用边界与合规风险迅速进入公众视野:有人将明星、公众人物形象嵌入枪战、打斗等情节,甚至出现“仅上传面部照片即可生成疑似对应声音风格”的测试现象,引发对肖像权、声音权益与内容真实性的担忧。问题主要集中在三个层面。其一,真人肖像与声音被低门槛调用,可能带来“未经授权的形象使用”“声音特征被模仿”等侵权风险,尤其在商业传播中更易触发权利冲突。其二,生成内容高度逼真,若缺少清晰标识与有效审核,可能被用于误导公众、制造谣言,形成“以假乱真”的信息风险。其三,模型训练与素材来源、二次生成内容的权属划分仍存争议,部分创作者担心作品被“无形消耗”,影响行业信心与创作积极性。争议快速发酵,既源于技术层面的能力跃升,也暴露出治理规则的滞后。从技术看,新一代视频生成模型在人物一致性、镜头调度、光影匹配等进步明显,普通用户在短时间内即可产出接近影视质感的片段,客观上放大了对真人肖像、声音以及既有影视素材风格的“可替代性”。从传播看,短视频平台的推荐机制与流量激励容易推动猎奇、模仿类内容扩散,一旦侵权或失真内容进入热点链路,影响范围会被迅速放大。此外,一些平台仍在“鼓励创作”与“限制滥用”之间摸索:授权核验、风险提示、生成水印、发布端标识、侵权处置等环节如存在短板,公众就容易把技术进步与失序风险直接绑定,进而引发信任下滑。涉及的影响正在显现。对个人权利而言,肖像与声音被仿冒的门槛下降,普通人也可能面临“被代言”“被出演”“被发声”的现实威胁;对内容生态而言,真假混杂会削弱社会对影像证据的信任基础,影响舆论场的辨识能力;对产业发展而言,缺乏明确合规路径会让创作者、平台与技术方承担更高的法律不确定性与经营风险,进而影响创新投入与应用落地节奏。正如业内一些担忧所指出,“假视频泛滥”不仅是内容问题,也可能演变为公共信任与治理成本问题。面对争议,平台已作出阶段性调整。根据平台运营人员在社群发布的信息,Seedance 2.0内测期间关注度超出预期。为维持可持续的创作环境,平台紧急优化,暂不支持输入真人图片或视频作为主体参考,并表示在完善相关能力后再正式开放。这个举措说明了对风险的即时响应,也传递出明确信号:生成式工具不应只追求“更真、更低门槛”,更需要把“尊重权利、可追责、可识别”内置到产品机制中。从对策看,治理需要多方协同并前置设计。其一,平台应建立更严格的真人素材使用规则与授权机制,对涉及公众人物或第三方肖像的生成与发布设置更高门槛,完善申诉、举证与快速处置通道,降低权利人维权成本。其二,技术侧应强化生成内容标识能力,例如可见水印与隐性标记并行、生成链路可追溯、关键元数据保留等,形成从生成到传播的闭环。其三,分发侧要加强风险提示与审核策略,对可能造成误导的内容进行醒目标注并实施必要的传播限制,避免“标题党+逼真画面”带来的误判。其四,创作者与用户也应提高法律意识与伦理边界,在使用他人肖像、声音、作品风格等要素时遵循授权、署名、合理使用等基本原则,不把技术便利建立在侵权之上。制度层面也在加速完善。根据国家网信办等四部门联合发布的人工智能生成合成内容标识办法,自2025年9月1日起,人工智能生成的文字、图片、视频等内容需按规定进行标识,以防范虚假信息传播。业内普遍认为,该办法将推动平台形成更统一的标识规范与执行尺度,为公众识别与监管执法提供依据,也将促使相关产品在设计阶段把合规要求落实为可执行的功能模块。展望未来,视频生成技术仍将快速演进,应用场景也将持续扩展,从影视制作辅助、广告创意、教育科普到工业可视化都有空间。关键在于能否让“创新速度”与“治理能力”同步:让合规成为创新的底座,让标识、授权、追溯与责任闭环成为行业通用的基础设施。只有在权利保护与公共信任得到有效维护的前提下,技术进步才能转化为更稳定的内容供给与可持续的产业增长。

当技术可以轻易重构现实时,社会更需要清醒的共识:工具进步不应模糊真实与虚构的界限;Seedance 2.0的争议或许只是一个开端,但它所提示的问题——如何在创新浪潮中守住权利保护与内容真实性——将是人工智能时代长期面对的命题。唯有技术开发者、立法者与公众形成合力,才能在这场“虚拟与现实”的拉扯中找到更稳妥的平衡。