问题——低门槛“干预回答”,虚假信息趁势扩散 随着大模型加速进入搜索、消费决策和公共服务等场景,用户对“直接答案”的依赖明显增强。与之相伴,一些打着“生成式引擎优化(GEO)”旗号的工具和服务开始出现:服务商以“抢占AI搜索入口”“让用户一问就出现你”为卖点,宣称通过批量铺设内容、定向布局关键词,就能影响大模型的推荐与回答结果,让特定品牌和商家在问答中获得更高曝光。更需要警惕的是,在利益驱动下,部分主体把夸大宣传、虚构资质、误导性广告包装成“知识内容”,利用模型的归纳与生成能力被二次传播,继续增加识别难度和治理成本。 原因——流量逻辑迁移叠加黑灰产“工具化” 一是用户行为从“找链接”转向“要结论”。大模型以摘要式、结论式回答重塑信息获取方式,客观上抬高了“被模型引用”的价值,营销竞争也从网页排序延伸到“答案排序”。二是内容生产与分发高度自动化。一些所谓GEO系统通过集中管理账号、自动生成标题与软文、批量分发到多个内容平台,形成低成本、高频率的信息投放,用数量提高被抓取、被引用的概率。三是多平台协同链条给灰产提供了空间。电商平台售卖工具,社交平台承接推广,自媒体平台成为内容落点,分工明确且更隐蔽;部分商家还以“试用”“代运营”“套餐”等形式降低参与门槛,增加追责难度。四是大模型信息引用机制存在可被利用的薄弱点。部分模型对来源权威性、时效性和商业意图的识别不足,复杂场景下可能把营销内容与客观信息混在一起输出,形成“看起来中立”的误导。 影响——扰乱市场秩序,侵蚀公共信任并放大安全风险 其一,损害消费者知情权和选择权。被“优化”的答案可能夸大功效、隐匿风险,诱导非理性消费并抬高维权成本。其二,破坏公平竞争环境。依靠“投喂”和刷量获取曝光的主体挤压合规经营者空间,形成“劣币驱逐良币”。其三,冲击信息生态与社会信任。大模型被广泛视为高效工具,一旦回答频繁夹带营销甚至虚假信息,将削弱公众对数字服务的信任。其四,安全外溢风险不容忽视。有关手段若被用于谣言扩散、涉医涉金融误导或敏感信息操纵,可能引发更大范围的社会风险。 对策——多方共治,堵住“投喂—传播—引用”关键节点 治理此类乱象,需要平台、模型提供方、监管部门和行业共同推进,形成从源头到链路的闭环治理。 一要压实平台主体责任,严控工具与服务交易。对以“影响答案”“操纵推荐”为卖点的商品和服务,加强检索识别、关键词巡查与人工复核,完善上架审核和动态清理机制;对涉嫌虚假宣传、诱导违规的账号与店铺实施联合惩戒,提高违法成本。 二要提升内容平台反刷量、反营销能力。围绕批量账号授权、同质化内容矩阵、异常发布频率等特征,建立更细颗粒度的风控模型;对商业推广内容强化标识与溯源,推动广告与软文边界更清晰。 三要推动大模型回答“可追溯、可解释、可纠偏”。模型提供方应加强对来源可信度、商业意图和利益相关信息的识别,完善引用标注、风险提示与多来源交叉验证机制;对高风险领域建立更严格的答案生成与审核策略,并提供便捷的举报与更正通道,提升快速纠偏能力。 四要完善监管协同与行业规范。针对“信息操纵”“变相广告”等新型行为,推动执法标准与取证机制及时更新;支持行业协会制定生成内容营销边界与合规指引,明确合理的品牌信息呈现与欺骗性“答案操控”的界限。 前景——从“治理灰产”迈向“重塑可信答案体系” 大模型正在成为新的信息基础设施,“答案可信”是其关键底线。随着问题持续受到关注,平台治理、模型对齐与合规监管有望加速完善。可以预期,接下来一段时间内,围绕答案来源透明、商业内容显著标识、权威数据接口接入等机制建设将成为重点。只有让高质量、可核验的信息更稳定地获得“被引用机会”,让违规“投喂”付出更高代价,才能推动大模型在消费、政务、教育等场景中更稳健发展。
大模型带来的便利不应以牺牲真实为代价。面对“低价投毒”“批量操纵”等新风险,既要看到技术应用扩展的趋势,也要正视规则滞后带来的治理缺口。守住答案可信、守住公平竞争、守住消费者权益,需要更精准的监管、更负责任的平台、更自律的企业和更理性的公众,共同推动新技术走向健康、可持续的发展轨道。