一、乱象频发,人工智能生成内容监管面临新挑战 随着视频生成技术快速迭代,人工智能合成内容的逼真度不断提升,普通用户往往难以辨别真伪。近期,国内多款视频生成工具推出新版本,画面细节还原和动态表现明显增强,在社交平台引发关注。但技术带来创作便利的同时,也被不法分子利用。 据“网信中国”通报,近期部分网络账号在发布人工智能生成或合成信息时——刻意不按规定添加标识——以假乱真、误导公众,破坏网络信息生态。此类行为已从零星个案演变为规模化、类型化扩散。 二、五类典型违规,折射深层利益驱动 从网信部门通报的典型案例看,当前人工智能生成内容违规主要集中在五种模式。 其一,虚构“感人故事”博取流量。部分账号发布“狗只救婴”“动物拆弹”等明显失实的合成视频,却不加任何标识,借公众情绪吸引点击与转发,将虚假内容包装成“正能量”传播。 其二,假冒公众人物牟利。一些账号利用换脸、声音克隆等手段冒充运动员、演员、主持人、企业家等知名人士发布不实言论,或未经授权制作合成“拜年”“祝福”视频对外售卖,从中获利,侵害当事人肖像权和名誉权。 其三,炒作灾难事故扰乱秩序。部分账号发布人工智能生成的虚假火灾现场图片和视频,刻意夸大渲染灾情、混淆视听,引发不必要的恐慌,对公共秩序造成干扰。 其四,向未成年人传播有害内容。一些账号对未成年人熟悉的动画角色进行恶意篡改,制作含血腥、暴力或低俗元素的视频,借儿童喜爱的形象传播不良内容,对未成年人身心健康构成直接威胁。 其五,传授去除标识技术,形成灰黑链条。部分账号公开分享去除人工智能生成标识的教程与工具,电商平台也出现售卖对应的服务的店铺,逐渐形成从内容生产到规避标识的链条,削弱监管效果。 三、危害不容低估,法律红线不可逾越 上述行为的危害不止于个案。就信息生态而言,未标识的合成内容混入真实信息流,会持续消耗公众对网络信息的基本信任,加剧认知混乱。就法律要求而言,我国现行法规明确规定人工智能生成内容须按要求添加显著标识,违规将承担相应法律责任。就社会影响而言,假冒公众人物、炒作灾难事故不仅侵害个人权益,还可能引发群体性误判,影响社会稳定。 需要指出,去除标识工具被公开传播和交易,说明部分行为者存在明确的规避监管意图,主观恶意更强,应依法从严追责。 四、监管出手,平台责任同步压实 针对相关乱象,网信部门迅速开展专项整治,督促网站平台自查自纠,依法依约处置违规账号13421个,清理违法违规信息54.3万余条,相关违规商品已下架。 此次整治释放明确信号:人工智能生成内容监管将更强调前置预防与过程治理,平台主体责任也将继续压实。平台需在技术层面完善标识核验机制,从源头减少漏洞,而不能仅依赖举报或事后审核。 五、技术向善,规范使用是长远之道 从更宏观的角度看,人工智能生成技术本身并无善恶,关键在使用边界与责任意识。当前技术快速普及,公众媒介素养和辨别能力仍需提升,监管体系也在优化。因此,依规标注、诚信使用,既是法律要求,也是内容生产者应遵守的基本准则。
这场针对虚假信息的治理行动,既是维护网络空间秩序的必要举措,也是对数字时代治理能力的检验。技术快速发展,规则必须同步跟进。只有守住法治底线、提升公众辨伪能力,才能在创新与秩序之间取得平衡,让技术进步更好服务公共利益。