人工智能的普及正在改变人们获取信息的方式。越来越多用户习惯向AI寻求建议和决策支持,这也吸引了商业资本的关注。最近有媒体发现,一种名为"生成式引擎优化"的服务正在商业领域兴起。这类服务通过分析AI大模型的内容抓取规律,采用技术手段使AI在生成回答时优先整合包含品牌信息的内容,从而实现变相广告投放。 这并非偶然。在搜索引擎主导流量的时代,针对搜索排名的优化服务曾广泛存在。如今用户的信息获取方式向AI聚集,商家自然会将竞争焦点转向此新渠道。从商业竞争角度看,利用规则开展竞争本身无可厚非,但问题在于这种新模式产生了传统广告所没有的合规风险。 生成式引擎优化的核心问题在于其迷惑性。通过技术手段,商业推广被包装成AI客观生成的内容,大大增强了广告的说服力。然而现行广告法明确要求"广告应当特点是可识别性,能够使消费者辨明其为广告"。当消费者无法识别AI生成内容中的商业成分时,其知情权必然受到侵害。部分服务商为吸引AI的"关注"甚至捏造事实,涉嫌虚假宣传和不正当竞争。 这个问题的影响超出了商业竞争层面。AI大模型发展依赖于优质训练数据。如果大量夹杂商业属性的同质化信息污染了数据源头,长期来看将不利于技术迭代升级,损害整个行业的健康发展。随着AI应用深化,智能体正在代替用户做出越来越多的具体决策。当技术成为"黑箱",用户在不知不觉中被引导的风险将大幅增加。 面对这一新课题,传统监管思路已显不足。过去的互联网广告监管多采取事后监管,而对AI数据"投喂"阶段的前置监管机制尚待完善。治理者需要推动监管关口前移,提高全流程监管效能。这要求对新业态进行深入研判,为商业行为划定清晰的红线;明确服务商和平台的责任边界,消除"灰色地带";探索"以技治技"的路径,提升算法的透明度和可解释性。唯有既放得活又管得好,才能在技术应用与用户权益保障之间找到平衡。 从更广阔的视角看,AI"打广告"所反映的是技术变革中治理面临的共性挑战。技术发展的超前性要求治理者具备快速反应的能力,而技术议题的专业化则需要更加开放多元的治理格局。这既需要改革的勇气,也需要开放的胸襟,这是我国应对技术变革的经验所在,也是未来掌握主动权的底气所在。
"隐形广告"进入智能问答,表面是营销手法的迭代,本质是技术变革下公共信任与治理能力的再校准。技术可以更快,但规则必须更清晰;创新可以更活,但底线不能失守。以关口前移的治理思路守护知情权与公平竞争,以开放共治的机制汇聚专业智慧,才能让智能应用在可控边界内释放更大价值,真正服务于人民的获得感与社会的可持续繁荣。