数字内容平台收紧合规管理 禁止生成未授权公众人物形象

近期,多部使用AI技术生成演员面部特征的短剧在网络上流传,引发关于授权和侵权的讨论。随着话题发酵——不少用户发现——面向公众开放的图像、视频和语音生成服务已对涉及明星、公众人物等真实人物的生成请求加强了限制。记者测试发现,尝试生成某演员的照片风格图像或模拟视频片段时,多次被系统拒绝。平台回应称,这些限制并非针对特定艺人,而是基于统一的内容安全规范,常见拦截原因包括关键词触发、画风指向真实人物以及安全审核要求等。 原因分析: 1. 权利界定明确:肖像权、姓名权、声音权及涉及的作品版权均受法律保护。未经许可将真实人物的面容、姓名或声音用于宣传、表演或商业化传播可能构成侵权,甚至涉及刑事风险。 2. 技术门槛降低:近年来,图像、视频和语音生成工具更易获取且成本降低,使得“换脸”“拟声”等技术从专业领域快速普及到大众应用场景,增加了伪造、冒用和诈骗等风险。 3. 行业合规要求提高:随着法律法规和平台治理健全,服务提供商需要在可用性与安全性之间平衡,尤其对公众人物和热点内容加强前置管控,避免风险扩散。 影响评估: 对平台而言,限制真人内容生成有助于减少纠纷和合规成本,建立可追溯的风控机制,降低声誉风险。对内容产业来说,短期内可能提高创作门槛,限制依赖名人形象吸引流量的粗放模式,但长期看有利于推动短剧、广告和二创等领域走向规范化。对公众而言,相关措施能减少虚假内容传播,降低被误导或诈骗的风险,促进更可信的网络环境。 应对措施: 平台治理正从单一提示转向系统拦截。据规则说明,平台已对涉及明星、公众人物及未授权真实人物的肖像、视频和语音生成实施严格限制,覆盖姓名提示、肖像生成、声音模仿和换脸合成等高危场景,并通过“关键词拦截+人脸比对+内容审核”三重机制识别处理。同时,平台区分“他人真实人物”与“用户本人数字形象”,后者在通过身份核验后可在合规范围内使用相关功能。业内人士建议,治理需配套清晰的用户提示和申诉通道,并为已授权项目开设白名单,实现“可用、可管、可追责”。 未来展望: 围绕真人内容的生成与传播将进入强监管与自律并行的新阶段。平台需在数据来源、授权链条和审核机制等建立更高标准。行业可能形成三点共识:一是未经授权的真人内容应默认高风险;二是商业化使用需具备可核验的授权与收益分配机制;三是合成内容的标识与溯源能力将成为平台基础设施。随着治理完善,创作方向将更多转向原创角色、虚拟形象和合规二创,推动内容生态从流量驱动向质量与合规并重升级。

人工智能的边界最终由人定义。平台收紧生成权限是技术与法律相互校正的体现,也是行业成熟的必经之路。技术的价值不仅在于能做什么,更在于懂得不做什么。只有平衡权利意识与创新精神,AI才能真正成为推动社会进步的力量,而非游走于法律边缘的风险工具。