王劲松发微博吐槽,说自己的脸被AI魔改了,声音和口型都变得真假难辨。这事很快让公众又一次看到了AI换脸滥用的乱象。原来他发现自己的影视片段被恶意截取,还被人用深度伪造技术整合成了虚假理财广告。这种情况早就不是第一次了,之前李连杰、姚明也都被卷进来过。现在的AI换脸技术很容易弄出来,但监管起来特别难,很多侵权甚至犯罪的事情就是这么来的。 回顾AI换脸的发展过程,早在它刚开始火起来的时候,隐患就埋下了。2014年,生成对抗网络(GAN)被提出来,给图像篡改打下了基础。2017年,Deepfake因为做出来些名人不雅视频才被大家知道,虽然那时候效果不咋地、一眼就假,但还是把大门打开了。到了2018年,FakeApp这种开源工具一出现,让门槛更低了;像英伟达这样的公司还优化了算法,让视频更逼真。到了2022年,大模型技术和开源生态一起爆发,现在只要一张照片和几秒语音就能生成“声形合一”的假视频。 技术本身是中立的,但AI这工具天生就容易被拿来干坏事。它在影视制作、虚拟主播这些正面领域确实有用处,但也成了诈骗、仿冒营销的新武器。这就让技术的两面性特别明显。 现在AI生成跟检测技术一直在“较劲”。一方面是造假越来越容易,网上还有“1分钟无痕对口型”的服务卖几百块钱,已经形成了成熟的产业链;另一方面是检测技术虽然在升级,但还不够好。有研究说在复杂场景下准确率可能从90%掉到60%,坏人还能通过本地运行开源模型或者改原始素材来躲开平台的审查。 当家人都看不出来这是假视频的时候,技术滥用对社会信任的伤害真的太大了。平台治理也很头疼,根本防不住。虽然有些大平台建了肖像保护库,处理了好几万条内容,但问题依然很大。关键是造假太隐蔽了,跨平台传播能力也强;再加上小工具和开源模型没人管。单靠一家平台肯定不行。 想在这场技术攻防战中占上风,就得打破行业壁垒,让大家一起建检测库和共享数据。另一边,强化追责也是关键。这次事件里的CRC、RWA这些项目早就被各地警告涉嫌非法集资了,还在用AI换脸骗人。伪造代言其实只是个幌子,背后可能还有更严重的违法犯罪活动。 别以为技术无善恶就能乱来,王劲松的遭遇告诉我们必须把风险防控放在和创新同样重要的位置上。既要加快研发检测技术、推动行业合作,也要健全法律体系。只有技术防御和法治惩戒一起发力、多方共治才能让AI回归服务社会的本质。