问题—— 随着AI生成技术快速发展,"娱乐化使用"的边界问题再次引发关注。近日,一款新模型上线后,平台发布公告称将暂停支持以真人图片或视频作为参考的功能,并表示将在完善后重新开放。平台强调"创意的边界是尊重",反映出技术进步与内容治理之间的现实矛盾:创作工具越来越强大便捷,但涉及真人肖像、声音等特征的生成内容容易触及法律红线。 原因—— 深度伪造技术并非新生事物。业内人士表示,人脸替换、声音克隆等技术多年前就已实现,但当时需要更高的技术门槛和设备条件。如今随着模型能力提升和产品成熟,普通用户也能轻松制作逼真的伪造内容。加上社交媒体传播速度快、"玩梗"文化盛行,未经授权使用他人形象可能侵犯肖像权、名誉权,甚至被用于违法犯罪活动。 影响—— 对个人而言,伪造内容比文字谣言更具迷惑性,可能导致名誉受损且难以消除。对平台和行业来说,缺乏有效管控会导致低质、侵权内容泛滥,损害公众对新技术的信任。从社会治理角度看,深度伪造技术与诈骗、舆论操纵等风险结合,会给公共安全和社会诚信带来挑战。 对策—— 治理需要多方协作: 1. 法律层面:严惩利用生成技术实施的侵权行为,通过典型案例明确法律红线。 2. 平台责任:在产品设计、审核机制等加强管控,如对高风险功能设置严格验证、建立快速投诉通道等。 3. 社会共识:公众人物有关创作应在尊重授权的前提下进行,形成明确的行业规范。 前景—— 生成技术是全球科技竞争的重要领域。未来模型能力将持续提升,同时水印标识、内容溯源等治理工具也将更加成熟。能在创新与管控之间取得平衡的企业,将赢得长远发展空间。
生成式AI发展前景广阔,但需要正确引导;通过完善法规、落实责任、建立规范,我们既能保护创新活力,也能维护健康的网络生态。"即梦"平台的调整提醒我们,在拥抱技术进步的同时要保持理性。只有当创意与责任并重时,AI才能真正成为推动文化创新的力量。