问题——“一张照片就能开播”,生成合成被滥用风险抬头 “3·15”消费维权背景下,生成合成技术带来的新型侵权问题再次受到关注。记者在多个网络环节进行体验式调查发现,实时“换脸”直播的实现门槛正在降低:在部分二手交易渠道,对应的商品往往以“人物替换”“动作模仿”等更隐蔽的名称出现,价格低廉,并提供安装指导;在部分视频网站,实操教学与软件下载链接较为常见,部分内容对参数调试、模型调用等步骤讲解细致。完成软件安装后,上传一张正面照片并连接摄像头,便可在直播画面中实现实时替换,若动作幅度不大,整体效果已接近“以假乱真”。 原因——灰色交易链与传播链交织,治理规则落地存在断点 业内人士指出,乱象背后主要有三上原因。 其一,工具供给“碎片化”与“低成本化”。开源框架、通用算力设备与集成式软件叠加,使原本需要专业团队的能力被打包成“傻瓜式”产品,通过二手交易、社交群组等渠道快速流转。 其二,教程传播降低了学习成本。一些视频内容以“科普”“测评”名义呈现,实则提供可复制的操作路径,评论区、私信、外链等环节更缩短了获取工具的距离,客观上放大了扩散效应。 其三,平台识别与标识机制仍需加固。国家互联网信息办公室等部门制定的《人工智能生成合成内容标识办法》明确提出显式标识、隐式标识等要求,并强调服务提供者对疑似生成合成内容的提示义务。但从实测情况看,在“入口提示—过程识别—结果标注—违规处置”链条上,部分环节仍存在执行不均、触发不敏感等情况,给了灰色用途可乘之机。 影响——侵权、欺诈与信任受损叠加,普通人面临“肖像被复刻”隐忧 生成合成“换脸”若被滥用,可能带来多重风险。 一是肖像权、名誉权等人格权益易受侵害。普通人照片一旦外泄或被盗取,可能被用于直播引流、低俗表演甚至不当营销,维权成本高、取证难度大。 二是诈骗、引流带货等黑灰产风险上升。实时“换脸”叠加话术诱导,容易让受众误以为“熟人出镜”或“名人背书”,从而降低警惕,造成财产损失。 三是平台生态与社会信任受冲击。当真假难辨的画面在公共传播场景中增多,公众对直播内容的信任基础可能被削弱,进而影响行业健康发展,也对治理体系提出更高要求。 对策——压实平台主体责任,打通“标识—审核—追责”闭环 治理此类问题,需要监管、平台、行业与用户共同发力,形成可执行的闭环机制。 首先,平台应把“标识”作为刚性要求落到产品层面。对接入摄像头、调用人脸模型、进行实时替换等高风险功能,应设置显著提示与强制声明,并探索在直播画面周边加注明显标识;同时强化隐式标识写入与校验,避免“无标注传播”。 其次,提升技术识别与内容审核能力。针对实时换脸的边缘融合、纹理变化、时序特征等,可通过模型检测与人工复核结合的方式提高命中率;对短时间内频繁切换人脸、异常引流话术等行为特征,建立风险画像与分级处置机制。 再次,切断灰色供给与传播链条。二手交易平台应完善关键词变体识别与商家巡检,建立“疑似生成合成工具”商品的准入审核与下架机制;视频平台对“手把手安装+外链下载”的内容加强管理,对以“教学”名义变相售卖、引流的账号开展治理。 同时,完善证据留存与追责协同。建议平台强化日志留存、链路取证能力,与公安机关、行业组织建立快速协同通道,提升对侵权与诈骗的处置效率。对违法违规者,应依法追究相关责任,提高违法成本。 前景——技术向善需制度与自律并行,构建可信内容传播环境 生成合成技术本身具有正当应用场景,在影视制作、无障碍服务、数字文旅等领域潜力巨大。关键在于将能力关进制度笼子里,让应用边界更清晰、责任更可追溯。随着相关标识规范落地、平台治理经验迭代以及公众媒介素养提升,“可验证、可提示、可追责”的内容生态有望逐步形成。未来一段时期,围绕直播、短视频等高传播场景的治理仍将是重点,平台对技术滥用的防控能力也将成为衡量其合规水平与社会责任的重要指标。
技术本身无罪,但使用者的选择决定了它的价值取向。当AI换脸从小众工具演变为大众消费品,当虚假与真实的边界变得模糊,我们需要更加清醒地认识到保护个人隐私和维护信息秩序的重要性。每一个平台的审核漏洞都可能成为不法分子的可乘之机,每一次对技术滥用的放任都在为更大的风险埋下伏笔。唯有监管、企业、用户的共同行动,才能确保这项技术不被异化,让AI的发展始终服于人类的长远利益。